Visualizações de página dos últimos 30 dias

Demonstração da Regra de Cramer

Se você já ouviu falar na Regra de Cramer para resolver sistemas lineares, talvez tenha se perguntado: como essa fórmula elegante é provada de forma rigorosa?
Hoje, vamos construir essa demonstração passo a passo, usando conceitos fundamentais de matriz inversa e matriz dos cofatores. Prepare-se para ver a matemática brilhar em toda sua beleza!


🌟 Relembrando a Regra de Cramer

Considere um sistema linear:

$$A\vec{x} = \vec{b}$$

em que:

  • \( A \) é uma matriz quadrada de ordem \( n \) com \( \det(A) \neq 0 \),
  • \( \vec{x} \) é o vetor incógnita,
  • \( \vec{b} \) é o vetor dos termos constantes.

A Regra de Cramer afirma que a solução de cada incógnita \( x_i \) é dada por:

$$x_i = \frac{\det(A_i)}{\det(A)}$$

onde \( A_i \) é a matriz obtida substituindo a \( i \)-ésima coluna de \( A \) pelo vetor \( \vec{b} \).

Nosso objetivo é provar essa fórmula elegantemente, usando a teoria de matrizes.


🧩 Passo 1: Começando pelo Sistema Linear

Partimos do sistema:

$$A\vec{x} = \vec{b}$$

Como \( \det(A) \neq 0 \), sabemos que \( A \) é invertível. Assim, podemos multiplicar ambos os lados da equação por \( A^{-1} \):

$$\vec{x} = A^{-1}\vec{b}$$

Mas como podemos expressar \( A^{-1} \) de forma mais concreta? Aí entra a matriz adjunta!


✨ Passo 2: Expressando a Inversa com a Matriz Adjunta

Pela teoria das matrizes, a matriz inversa de \( A \) pode ser escrita como:

$$A^{-1} = \frac{1}{\det(A)} \operatorname{adj}(A)$$

em que:

  • \( \operatorname{adj}(A) \) é a matriz adjunta de \( A \),
  • a matriz adjunta é, por definição, a transposta da matriz dos cofatores de \( A \).

Substituindo essa expressão na nossa equação:

$$\vec{x} = \frac{1}{\det(A)} \operatorname{adj}(A) \vec{b}$$

Nosso próximo passo é entender melhor o produto \( \operatorname{adj}(A)\vec{b} \).


🔥 Passo 3: O Produto da Adjunta pelo Vetor dos Termos Independentes (Detalhado)

Chegamos à expressão:

$$\vec{x} = \frac{1}{\det(A)} \operatorname{adj}(A) \vec{b}$$

Agora, precisamos entender o que significa multiplicar a matriz adjunta \( \operatorname{adj}(A) \) pelo vetor \( \vec{b} \), e como isso nos levará à fórmula da Regra de Cramer.


🎯 O que é a Matriz Adjunta?

A matriz adjunta \( \operatorname{adj}(A) \) é definida como a transposta da matriz dos cofatores de \( A \).
Ou seja:

  • Cada elemento \( c_{ij} \) da adjunta é o cofator do elemento que está na posição \( (j,i) \) da matriz \( A \) original.

Matematicamente:

$$\operatorname{adj}(A) = (c_{ij}), \quad \text{onde} \quad c_{ij} = (-1)^{i+j} \det(M_{ji})$$

Aqui:

  • \( M_{ji} \) é a matriz que resulta da remoção da linha \( j \) e da coluna \( i \) de \( A \).

🧠 Como calcular \( \operatorname{adj}(A)\vec{b} \)?

O produto \( \operatorname{adj}(A)\vec{b} \) é feito como uma multiplicação padrão de matriz por vetor: linha por coluna.

O elemento da posição \( i \) do vetor resultante é dado por:

$$\left( \operatorname{adj}(A) \vec{b} \right)_i = \sum_{j=1}^n c_{ij} b_j$$

Ou seja:

  • Pegamos a linha \( i \) da adjunta (que contém os cofatores relacionados às colunas da matriz original) e fazemos o produto escalar com o vetor \( \vec{b} \).

Expandindo explicitamente:

$$\left( \operatorname{adj}(A) \vec{b} \right)_i = c_{i1}b_1 + c_{i2}b_2 + \cdots + c_{in}b_n$$

Portanto, substituindo na equação para \( \vec{x} \), temos:

$$x_i = \frac{1}{\det(A)} \left( c_{i1}b_1 + c_{i2}b_2 + \cdots + c_{in}b_n \right)$$

ou, em forma resumida:

$$x_i = \frac{1}{\det(A)} \sum_{j=1}^n c_{ij} b_j$$

Cada componente \( x_i \) da solução é uma combinação linear dos termos de \( \vec{b} \), ponderados pelos cofatores da matriz \( A \).


✨ Como essa expressão se torna \( \det(A_i) \)?

Agora vem o ponto chave: por que a expressão

$$\sum_{j=1}^n c_{ij} b_j$$

é igual a \( \det(A_i) \)? Vamos entender:

  1. A matriz \( A_i \) é obtida substituindo a \( i \)-ésima coluna de \( A \) pelo vetor \( \vec{b} \).
  2. Expandimos o determinante de \( A_i \) pela coluna \( i \), usando a Regra de Laplace, que diz:

$$\det(A_i) = \sum_{j=1}^n b_j \cdot C_{ji}$$

onde:

  • \( b_j \) são os elementos da nova coluna \( i \) (vindos de \( \vec{b} \)),
  • \( C_{ji} \) são os cofatores correspondentes.

Como \( A_i \) é igual a \( A \) fora da coluna \( i \), os cofatores \( C_{ji} \) de \( A_i \) são exatamente os mesmos cofatores \( c_{ij} \) de \( A \).

Assim, podemos reescrever:

$$\det(A_i) = \sum_{j=1}^n b_j c_{ij}$$

Ou seja:

$$\boxed{\sum_{j=1}^n c_{ij} b_j = \det(A_i)}$$

✅ Portanto, o somatório que aparece naturalmente ao calcular \( \operatorname{adj}(A)\vec{b} \) é justamente o determinante da matriz \( A_i \).


🎯 Passo 4: Conclusão Final

Substituindo esse resultado, obtemos:

$$x_i = \frac{1}{\det(A)} \det(A_i)$$

o que confirma, com rigor, a famosa Regra de Cramer:

$$\boxed{x_i = \frac{\det(A_i)}{\det(A)}}$$

✨ Assim, mostramos que, para qualquer sistema linear \( A\vec{x} = \vec{b} \) com \( \det(A) \neq 0 \), a solução pode ser explicitamente encontrada substituindo as colunas de \( A \) e usando determinantes.


📣 Gostou da demonstração?

Se você curtiu este passeio pela álgebra linear, compartilhe o post com seus amigos e colegas de estudo!
Ficou com alguma dúvida? Tem outra abordagem que gostaria de ver explicada? ✍️ Deixe seu comentário abaixo! Vamos construir juntos um espaço de matemática claro, rigoroso e inspirador! 🚀

Comentários

Mais visualizadas nos últimos 30 dias

Mais visualisadas