Demonstração da Regra de Cramer
Se você já ouviu falar na Regra de Cramer para resolver sistemas lineares, talvez tenha se perguntado: como essa fórmula elegante é provada de forma rigorosa?
Hoje, vamos construir essa demonstração passo a passo, usando conceitos fundamentais de matriz inversa e matriz dos cofatores. Prepare-se para ver a matemática brilhar em toda sua beleza!
🌟 Relembrando a Regra de Cramer
Considere um sistema linear:
$$A\vec{x} = \vec{b}$$
em que:
- \( A \) é uma matriz quadrada de ordem \( n \) com \( \det(A) \neq 0 \),
- \( \vec{x} \) é o vetor incógnita,
- \( \vec{b} \) é o vetor dos termos constantes.
A Regra de Cramer afirma que a solução de cada incógnita \( x_i \) é dada por:
$$x_i = \frac{\det(A_i)}{\det(A)}$$
onde \( A_i \) é a matriz obtida substituindo a \( i \)-ésima coluna de \( A \) pelo vetor \( \vec{b} \).
Nosso objetivo é provar essa fórmula elegantemente, usando a teoria de matrizes.
🧩 Passo 1: Começando pelo Sistema Linear
Partimos do sistema:
$$A\vec{x} = \vec{b}$$
Como \( \det(A) \neq 0 \), sabemos que \( A \) é invertível. Assim, podemos multiplicar ambos os lados da equação por \( A^{-1} \):
$$\vec{x} = A^{-1}\vec{b}$$
Mas como podemos expressar \( A^{-1} \) de forma mais concreta? Aí entra a matriz adjunta!
✨ Passo 2: Expressando a Inversa com a Matriz Adjunta
Pela teoria das matrizes, a matriz inversa de \( A \) pode ser escrita como:
$$A^{-1} = \frac{1}{\det(A)} \operatorname{adj}(A)$$
em que:
- \( \operatorname{adj}(A) \) é a matriz adjunta de \( A \),
- a matriz adjunta é, por definição, a transposta da matriz dos cofatores de \( A \).
Substituindo essa expressão na nossa equação:
$$\vec{x} = \frac{1}{\det(A)} \operatorname{adj}(A) \vec{b}$$
Nosso próximo passo é entender melhor o produto \( \operatorname{adj}(A)\vec{b} \).
🔥 Passo 3: O Produto da Adjunta pelo Vetor dos Termos Independentes (Detalhado)
Chegamos à expressão:
$$\vec{x} = \frac{1}{\det(A)} \operatorname{adj}(A) \vec{b}$$
Agora, precisamos entender o que significa multiplicar a matriz adjunta \( \operatorname{adj}(A) \) pelo vetor \( \vec{b} \), e como isso nos levará à fórmula da Regra de Cramer.
🎯 O que é a Matriz Adjunta?
A matriz adjunta \( \operatorname{adj}(A) \) é definida como a transposta da matriz dos cofatores de \( A \).
Ou seja:
- Cada elemento \( c_{ij} \) da adjunta é o cofator do elemento que está na posição \( (j,i) \) da matriz \( A \) original.
Matematicamente:
$$\operatorname{adj}(A) = (c_{ij}), \quad \text{onde} \quad c_{ij} = (-1)^{i+j} \det(M_{ji})$$
Aqui:
- \( M_{ji} \) é a matriz que resulta da remoção da linha \( j \) e da coluna \( i \) de \( A \).
🧠 Como calcular \( \operatorname{adj}(A)\vec{b} \)?
O produto \( \operatorname{adj}(A)\vec{b} \) é feito como uma multiplicação padrão de matriz por vetor: linha por coluna.
O elemento da posição \( i \) do vetor resultante é dado por:
$$\left( \operatorname{adj}(A) \vec{b} \right)_i = \sum_{j=1}^n c_{ij} b_j$$
Ou seja:
- Pegamos a linha \( i \) da adjunta (que contém os cofatores relacionados às colunas da matriz original) e fazemos o produto escalar com o vetor \( \vec{b} \).
Expandindo explicitamente:
$$\left( \operatorname{adj}(A) \vec{b} \right)_i = c_{i1}b_1 + c_{i2}b_2 + \cdots + c_{in}b_n$$
Portanto, substituindo na equação para \( \vec{x} \), temos:
$$x_i = \frac{1}{\det(A)} \left( c_{i1}b_1 + c_{i2}b_2 + \cdots + c_{in}b_n \right)$$
ou, em forma resumida:
$$x_i = \frac{1}{\det(A)} \sum_{j=1}^n c_{ij} b_j$$
Cada componente \( x_i \) da solução é uma combinação linear dos termos de \( \vec{b} \), ponderados pelos cofatores da matriz \( A \).
✨ Como essa expressão se torna \( \det(A_i) \)?
Agora vem o ponto chave: por que a expressão
$$\sum_{j=1}^n c_{ij} b_j$$
é igual a \( \det(A_i) \)? Vamos entender:
- A matriz \( A_i \) é obtida substituindo a \( i \)-ésima coluna de \( A \) pelo vetor \( \vec{b} \).
- Expandimos o determinante de \( A_i \) pela coluna \( i \), usando a Regra de Laplace, que diz:
$$\det(A_i) = \sum_{j=1}^n b_j \cdot C_{ji}$$
onde:
- \( b_j \) são os elementos da nova coluna \( i \) (vindos de \( \vec{b} \)),
- \( C_{ji} \) são os cofatores correspondentes.
Como \( A_i \) é igual a \( A \) fora da coluna \( i \), os cofatores \( C_{ji} \) de \( A_i \) são exatamente os mesmos cofatores \( c_{ij} \) de \( A \).
Assim, podemos reescrever:
$$\det(A_i) = \sum_{j=1}^n b_j c_{ij}$$
Ou seja:
$$\boxed{\sum_{j=1}^n c_{ij} b_j = \det(A_i)}$$
✅ Portanto, o somatório que aparece naturalmente ao calcular \( \operatorname{adj}(A)\vec{b} \) é justamente o determinante da matriz \( A_i \).
🎯 Passo 4: Conclusão Final
Substituindo esse resultado, obtemos:
$$x_i = \frac{1}{\det(A)} \det(A_i)$$
o que confirma, com rigor, a famosa Regra de Cramer:
$$\boxed{x_i = \frac{\det(A_i)}{\det(A)}}$$
✨ Assim, mostramos que, para qualquer sistema linear \( A\vec{x} = \vec{b} \) com \( \det(A) \neq 0 \), a solução pode ser explicitamente encontrada substituindo as colunas de \( A \) e usando determinantes.
📣 Gostou da demonstração?
Se você curtiu este passeio pela álgebra linear, compartilhe o post com seus amigos e colegas de estudo!
Ficou com alguma dúvida? Tem outra abordagem que gostaria de ver explicada? ✍️ Deixe seu comentário abaixo! Vamos construir juntos um espaço de matemática claro, rigoroso e inspirador! 🚀
Comentários
Postar um comentário
Não postar comentários ofensivos e que contenham palavrões. Comente sobre o assunto da postagem que você leu.