Introdução
Equações Lineares são equações da forma a1x1 + a2x2
+ ... + anxn = b, onde a1...an são constantes
chamados coeficientes, x1...xn são variáveis, e b é o
termo constante. Esta equação é uma equação linear em n variáveis As variáveis
também são muitas vezes vistas como x, y, z, etc. Equações lineares envolvem
apenas as variáveis de grau 1 (sem expoentes ou raízes das variáveis), e
envolvem apenas montantes e múltiplos constantes de variáveis, sem quaisquer
produtos de variáveis.
As equações seguintes são lineares:
As equações seguintes Não são
lineares:
Uma solução de uma equação linear é um
vector composto por valores [s1,...,sn], Onde, e quando
podemos substituir x1 = s1, ..., xn = sn
para obter uma equação correcta. Uma equação de uma variável (exemplo, 2x = 6) tem
apenas uma solução (um ponto na linha de números reais, neste caso x = 6). Uma
equação linear de duas variáveis tem soluções geometricamente que formam uma
linha no plano. Uma equação linear em três variáveis tem as soluções, que
formam um plano. Para equações lineares de mais variáveis, as interpretações
geométricas não são tão claras, mas elas ainda têm um conjunto infinito de
soluções.
Sistemas de equações lineares são grupos de mais do que uma equação linear. Resolver o
sistema refere-se a encontrar uma solução comum para todas as equações
lineares nos sistemas. Existem apenas três possibilidades:
1)
O sistema tem uma solução única (um sistema consistente)
2) O sistema tem infinitas soluções (também um sistema consistente)
3) O sistema não tem soluções (um sistema inconsistente)
Geometricamente, uma solução pode
ser interpretada geometricamente como o ponto em que várias linhas, planos,
etc. definidos pelas equações lineares intersectam. Infinitamente muitas soluções
ocorrem quando as equações definem as linhas e/ou planos que se intersectam
numa linha ou plano, como a intersecção de dois planos ou duas linhas iguais. Um
sistema inconsistente pode ser geometricamente interpretado como linhas e/ou
planos, que nunca se intersectam, como linhas paralelas no plano, paralelas ou
de linhas ou planos em 3 dimensões. Em 3 dimensões, que pode também ter linhas
de inclinação, as quais não são paralelos, mas nunca se intersectam.
Os métodos de resolução de sistemas
Quando for confrontado com um
sistema de equações lineares, que temos sempre interesse em resolver estes
sistemas. Aqui, vários métodos de resolução destes sistemas são vistos, com
importantes definições e teoremas apresentados ao longo do caminho. O que é
importante lembrar é que os sistemas de solução requerem prática, e serão dados
vários exemplos.
Voltar
há substituição
Voltar há substituição é o método
mais simples de se encontrar a solução para o sistema, e é também o último
passo dos métodos mais poderosos que os sistemas de resolução, como veremos
mais há frente. Voltar há substituição envolve isolar uma única variável, e
substituindo-a de volta em outra equação para isolar uma outra variável, e
continuando até que tenhamos resolvido para todas as variáveis.
Para usar novamente a substituição,
é necessário um sistema como descrito acima, onde a variável esteja isolada, ou
em que se possa expressar uma variável em termos de outra, como no exemplo a
seguir.
Não é sempre que o nosso sistema de
equações está no estado onde podemos ir directamente para fazer a substituição.
Precisamos obter o nosso sistema de equações ao ponto onde temos variáveis
isoladas. Podemos fazer isso utilizando operações
elementares de linha. As operações elementares de linha podem ser usadas
para modificar o sistema para um que podemos utilizar em substituição de volta,
sem alterar a solução. Se denotamos a linha 1 por R1, linha 2 por R2,
etc., e k é um escalar, as três operações elementares de linha são as seguintes:
1)
Trocar duas linhas (equações), denote R1↔R2 (isso
iria trocar as linhas 1 e 2)
2) Multiplicar uma linha por um escalar diferente de zero, indicando kR1
(isso seria multiplicar a linha 1 por k)
3) Adicionar um múltiplo de uma linha para outra linha, indicando R1
+ kR2 (isso seria adicionar k vezes a linha 2 para a linha 1, e
substituir a linha anterior 1)
Operações elementares de linha deve
de estar familiarizado em resolver sistemas em cursos de matemática do ensino
médio Ao introduzir o conceito de uma matriz
aumentada, podemos simplificar o nosso trabalho sobre o sistema, e combinar
isso com as operações elementares de linha e substituição de volta para definir
um outro método de resolução de sistemas.
(Se as matrizes não são familiares
para si, gostaria de rever o assunto, veja o tutorial matrizes) Uma matriz
completa é uma matriz que contém os coeficientes e os termos constantes do
nosso sistema de equações lineares. Ao colocar os sistemas nesta matriz,
precisa apenas se concentrar no que é importante, essas constantes, já que as
próprias variáveis nunca são operadas. Uma matriz completa é da seguinte
maneira
Eliminação
de Gauss
A eliminação de Gauss é um método de
três passos para os sistemas de resolução equações lineares:
1)
Escreva o sistema com uma matriz aumentada (Utilize os zeros para uma variável
em particular do sistema se ele não aparecer em uma das equações)
2) Use operações elementares de linha para reduzir a matriz de forma
escalonada da linha (veja abaixo)
3) Use a substituição de volta para resolver o sistema
Forma escalonada ocorre quando a
matriz está em formulário da seguinte forma:
1)
A primeira entrada em cada linha (chamada a entrada líder) tem apenas zeros na
coluna abaixo dela.
2) Quando uma linha de entrada tem um líder, a entrada de referência em todas
as linhas acima que estão em colunas à esquerda da entrada principal.
As seguintes matrizes estão na forma
escalonada:
Vamos levar o sistema a seguir e
executar as etapas envolvidas na eliminação de Gauss.
Depois de colocar o sistema em uma
matriz aumentada, realizamos operações elementares de linha no sistema até que
colocamos em forma escalonada de linha, conforme descrito em cima. Isto permite
realizar a substituição de volta, a partir da linha de fundo no sistema, a fim
de encontrar a solução. Desta forma, a eliminação de Gauss nos fornece um
algoritmo de classificação para resolver um sistema de equações lineares. Em
baixo, vamos resolver o sistema de cima, usando a eliminação de Gauss.
Eliminação
de Gauss- Jordan
Podemos melhorar o método de cima,
adicionando uma outra condição para a eliminação de Gauss. Eliminação de Gauss-Jordan
envolve as mesmas etapas da eliminação de Gauss, mas continuamos a operações
elementares de linha até chegar à matriz aumentada da forma escalonada da
linha reduzida (rref), conforme definido a seguir.
A matriz está na forma escalonada da
linha reduzida se:
1)
A entrada principal em cada linha (se houver) é um.
2) Não existem entradas na coluna acima ou abaixo de qualquer entrada principal.
3) Todas as entradas principais consecutivas estão à direita de uma entrada
principal em uma linha acima.
Com a eliminação Gauss-Jordan,
evitamos a necessidade da substituição de volta. Quando a nossa matriz é em
rref, nosso líder 1 especificamos a variável em questão, com a nossa última
coluna e ela nos dá o valor para essa variável. Nós especificamos um teorema
sobre rref antes de realizar a eliminação de Gauss-Jordan em um sistema abaixo.
Teorema: A forma de uma matriz escalonada reduzida A, indicada por
rref (A), é única.
O posto de uma matriz A, classifique
(A), é igual ao número de linhas não nulas na rref (A). Usando esta informação,
podemos afirmar o seguinte teorema: O número de variáveis livres num
sistema de equações lineares, em n variáveis com a matriz aumentada A é
encontrada pela fórmula
Número
de variáveis livres = n – classifique (A)
Variáveis livres são aquelas que não
estão associadas a uma entrada que conduz na forma escalonada de linha de A,
enquanto que aquelas com uma entrada principal são variáveis importantes. Quando
temos um sistema consistente com variáveis livres, isso significa que as nossas
linhas geometricamente ou planos se cruzam em infinitamente muitos lugares (uma
linha ou plano), em vez de um único ponto. As variáveis livres podem ser
configuradas para qualquer coisa, e as variáveis dependem dessas variáveis
livres.
Vamos ver um exemplo dessa ideia de
variáveis livres.
Sistemas
Homogéneos
Sistemas de equações lineares
homogéneos são os sistemas em que o termo constante em cada equação é zero. Portanto,
eles têm forma [A|0], onde A é a matriz dos coeficientes das variáveis
no sistema de equações. Sistemas deste tipo têm sempre uma solução. Há sempre a
solução trivial onde [x1, x2, ..., xn] =
[0,0,...0]. Isto pode ser interpretado como um ponto na origem do espaço Rn.
Além disso, o sistema pode ter um número infinito de soluções. Vamos olhar para
sistemas homogéneos.
Num sistema homogéneo, se o número
de equações é menor do que o número de variáveis no sistema, o sistema terá
sempre infinitamente muitas soluções. Isto ocorre porque um sistema homogéneo
tem que ser consistente, a nossa fórmula para variáveis livres garante pelo
menos uma variável livre. Em conjunto, isto significa que o nosso sistema homogéneo
terá infinitamente muitas soluções como é mostrado em baixo.
Independência
Linear
Um conjunto de vectores é
considerado linearmente dependente cada vector no conjunto pode ser
expresso com uma combinação linear dos outros. Isto equivale a dizer que não é
uma combinação linear não trivial (nem todos os escalares são zero) deste
conjunto de vectores que equivale 0. Se os vectores não são linearmente
dependentes, eles são também chamados linearmente independentes. Resolvendo
as questões que envolvam a dependência linear envolve a colocação dos nossos
vectores num sistema aumentado, e em seguida, resolva o sistema. Alguns
exemplos a seguir.
Podemos ver em cima que, se um
sistema de equações lineares é colocado em forma aumentada [A|b], então
ele tem uma solução se b é uma combinação linear de colunas de A. Além
disso, se criar uma matriz B, em que as linhas de B são vectores em forma de
linha, esses vectores são linearmente dependentes (se e somente se) Indicando (B)<m,
onde m é o número de vectores. Vamos levar os nossos exemplos de cima e mostrar
como funcionam.
Finalmente, qualquer conjunto de
vectores em Rn é linearmente dependente se o número de
vectores (m) é maior do que a dimensão do espaço (n), que é, m>n.
Abrangendo
Conjuntos
Intimamente ligada à ideia de
dependência linear é a ideia de que abrange conjuntos. Digamos que temos um
conjunto de vectores em Rn, onde S = {v1, v2,
..., vk}. O conjunto de todas as possíveis combinações lineares
dos vectores neste conjunto S é chamado o espaço de S. Está denotada extensão
de (v1, v2, ..., vk) ou espaço (S). Se
o espaço (S) = Rn, então S é denominado espaço que define
para Rn. S também se pode estender por subconjuntos de todo o
espaço, como uma linha, plano, etc. Vejamos um exemplo de como fazer o teste
para ver se S é um conjunto gerador.