Introdução

Equações Lineares são equações da forma a1x1 + a2x2 + ... + anxn = b, onde a1...an são constantes chamados coeficientes, x1...xn são variáveis, e b é o termo constante. Esta equação é uma equação linear em n variáveis As variáveis também são muitas vezes vistas como x, y, z, etc. Equações lineares envolvem apenas as variáveis de grau 1 (sem expoentes ou raízes das variáveis), e envolvem apenas montantes e múltiplos constantes de variáveis, sem quaisquer produtos de variáveis.

As equações seguintes são lineares:

As equações seguintes Não são lineares:

Uma solução de uma equação linear é um vector composto por valores [s1,...,sn], Onde, e quando podemos substituir x1 = s1, ..., xn = sn para obter uma equação correcta. Uma equação de uma variável (exemplo, 2x = 6) tem apenas uma solução (um ponto na linha de números reais, neste caso x = 6). Uma equação linear de duas variáveis tem soluções geometricamente que formam uma linha no plano. Uma equação linear em três variáveis tem as soluções, que formam um plano. Para equações lineares de mais variáveis, as interpretações geométricas não são tão claras, mas elas ainda têm um conjunto infinito de soluções.

Sistemas de equações lineares são grupos de mais do que uma equação linear. Resolver o sistema refere-se a encontrar uma solução comum para todas as equações lineares nos sistemas. Existem apenas três possibilidades:

1) O sistema tem uma solução única (um sistema consistente)
2) O sistema tem infinitas soluções (também um sistema consistente)
3) O sistema não tem soluções (um sistema inconsistente)

Geometricamente, uma solução pode ser interpretada geometricamente como o ponto em que várias linhas, planos, etc. definidos pelas equações lineares intersectam. Infinitamente muitas soluções ocorrem quando as equações definem as linhas e/ou planos que se intersectam numa linha ou plano, como a intersecção de dois planos ou duas linhas iguais. Um sistema inconsistente pode ser geometricamente interpretado como linhas e/ou planos, que nunca se intersectam, como linhas paralelas no plano, paralelas ou de linhas ou planos em 3 dimensões. Em 3 dimensões, que pode também ter linhas de inclinação, as quais não são paralelos, mas nunca se intersectam.

 

Os métodos de resolução de sistemas

Quando for confrontado com um sistema de equações lineares, que temos sempre interesse em resolver estes sistemas. Aqui, vários métodos de resolução destes sistemas são vistos, com importantes definições e teoremas apresentados ao longo do caminho. O que é importante lembrar é que os sistemas de solução requerem prática, e serão dados vários exemplos.

Voltar há substituição

Voltar há substituição é o método mais simples de se encontrar a solução para o sistema, e é também o último passo dos métodos mais poderosos que os sistemas de resolução, como veremos mais há frente. Voltar há substituição envolve isolar uma única variável, e substituindo-a de volta em outra equação para isolar uma outra variável, e continuando até que tenhamos resolvido para todas as variáveis.

Para usar novamente a substituição, é necessário um sistema como descrito acima, onde a variável esteja isolada, ou em que se possa expressar uma variável em termos de outra, como no exemplo a seguir.

Não é sempre que o nosso sistema de equações está no estado onde podemos ir directamente para fazer a substituição. Precisamos obter o nosso sistema de equações ao ponto onde temos variáveis isoladas. Podemos fazer isso utilizando operações elementares de linha. As operações elementares de linha podem ser usadas para modificar o sistema para um que podemos utilizar em substituição de volta, sem alterar a solução. Se denotamos a linha 1 por R1, linha 2 por R2, etc., e k é um escalar, as três operações elementares de linha são as seguintes:

1) Trocar duas linhas (equações), denote R1↔R2 (isso iria trocar as linhas 1 e 2)
2) Multiplicar uma linha por um escalar diferente de zero, indicando kR1 (isso seria multiplicar a linha 1 por k)
3) Adicionar um múltiplo de uma linha para outra linha, indicando R1 + kR2 (isso seria adicionar k vezes a linha 2 para a linha 1, e substituir a linha anterior 1)

Operações elementares de linha deve de estar familiarizado em resolver sistemas em cursos de matemática do ensino médio Ao introduzir o conceito de uma matriz aumentada, podemos simplificar o nosso trabalho sobre o sistema, e combinar isso com as operações elementares de linha e substituição de volta para definir um outro método de resolução de sistemas.

(Se as matrizes não são familiares para si, gostaria de rever o assunto, veja o tutorial matrizes) Uma matriz completa é uma matriz que contém os coeficientes e os termos constantes do nosso sistema de equações lineares. Ao colocar os sistemas nesta matriz, precisa apenas se concentrar no que é importante, essas constantes, já que as próprias variáveis nunca são operadas. Uma matriz completa é da seguinte maneira

Eliminação de Gauss

A eliminação de Gauss é um método de três passos para os sistemas de resolução equações lineares:

1) Escreva o sistema com uma matriz aumentada (Utilize os zeros para uma variável em particular do sistema se ele não aparecer em uma das equações)
2) Use operações elementares de linha para reduzir a matriz de forma escalonada da linha (veja abaixo)
3) Use a substituição de volta para resolver o sistema

Forma escalonada ocorre quando a matriz está em formulário da seguinte forma:

1) A primeira entrada em cada linha (chamada a entrada líder) tem apenas zeros na coluna abaixo dela.
2) Quando uma linha de entrada tem um líder, a entrada de referência em todas as linhas acima que estão em colunas à esquerda da entrada principal.

As seguintes matrizes estão na forma escalonada:

Vamos levar o sistema a seguir e executar as etapas envolvidas na eliminação de Gauss.

Depois de colocar o sistema em uma matriz aumentada, realizamos operações elementares de linha no sistema até que colocamos em forma escalonada de linha, conforme descrito em cima. Isto permite realizar a substituição de volta, a partir da linha de fundo no sistema, a fim de encontrar a solução. Desta forma, a eliminação de Gauss nos fornece um algoritmo de classificação para resolver um sistema de equações lineares. Em baixo, vamos resolver o sistema de cima, usando a eliminação de Gauss.

Eliminação de Gauss- Jordan

Podemos melhorar o método de cima, adicionando uma outra condição para a eliminação de Gauss. Eliminação de Gauss-Jordan envolve as mesmas etapas da eliminação de Gauss, mas continuamos a operações elementares de linha até chegar à matriz aumentada da forma escalonada da linha reduzida (rref), conforme definido a seguir.

A matriz está na forma escalonada da linha reduzida se:

1) A entrada principal em cada linha (se houver) é um.
2) Não existem entradas na coluna acima ou abaixo de qualquer entrada principal.
3) Todas as entradas principais consecutivas estão à direita de uma entrada principal em uma linha acima.

Com a eliminação Gauss-Jordan, evitamos a necessidade da substituição de volta. Quando a nossa matriz é em rref, nosso líder 1 especificamos a variável em questão, com a nossa última coluna e ela nos dá o valor para essa variável. Nós especificamos um teorema sobre rref antes de realizar a eliminação de Gauss-Jordan em um sistema abaixo.

Teorema: A forma de uma matriz escalonada reduzida A, indicada por rref (A), é única.

O posto de uma matriz A, classifique (A), é igual ao número de linhas não nulas na rref (A). Usando esta informação, podemos afirmar o seguinte teorema: O número de variáveis livres num sistema de equações lineares, em n variáveis com a matriz aumentada A é encontrada pela fórmula

Número de variáveis livres = n – classifique (A)

Variáveis livres são aquelas que não estão associadas a uma entrada que conduz na forma escalonada de linha de A, enquanto que aquelas com uma entrada principal são variáveis importantes. Quando temos um sistema consistente com variáveis livres, isso significa que as nossas linhas geometricamente ou planos se cruzam em infinitamente muitos lugares (uma linha ou plano), em vez de um único ponto. As variáveis livres podem ser configuradas para qualquer coisa, e as variáveis dependem dessas variáveis livres.

Vamos ver um exemplo dessa ideia de variáveis livres.

Sistemas Homogéneos

Sistemas de equações lineares homogéneos são os sistemas em que o termo constante em cada equação é zero. Portanto, eles têm forma [A|0], onde A é a matriz dos coeficientes das variáveis no sistema de equações. Sistemas deste tipo têm sempre uma solução. Há sempre a solução trivial onde [x1, x2, ..., xn] = [0,0,...0]. Isto pode ser interpretado como um ponto na origem do espaço Rn. Além disso, o sistema pode ter um número infinito de soluções. Vamos olhar para sistemas homogéneos.

Num sistema homogéneo, se o número de equações é menor do que o número de variáveis no sistema, o sistema terá sempre infinitamente muitas soluções. Isto ocorre porque um sistema homogéneo tem que ser consistente, a nossa fórmula para variáveis livres garante pelo menos uma variável livre. Em conjunto, isto significa que o nosso sistema homogéneo terá infinitamente muitas soluções como é mostrado em baixo.

Independência Linear

Um conjunto de vectores é considerado linearmente dependente cada vector no conjunto pode ser expresso com uma combinação linear dos outros. Isto equivale a dizer que não é uma combinação linear não trivial (nem todos os escalares são zero) deste conjunto de vectores que equivale 0. Se os vectores não são linearmente dependentes, eles são também chamados linearmente independentes. Resolvendo as questões que envolvam a dependência linear envolve a colocação dos nossos vectores num sistema aumentado, e em seguida, resolva o sistema. Alguns exemplos a seguir.

Podemos ver em cima que, se um sistema de equações lineares é colocado em forma aumentada [A|b], então ele tem uma solução se b é uma combinação linear de colunas de A. Além disso, se criar uma matriz B, em que as linhas de B são vectores em forma de linha, esses vectores são linearmente dependentes (se e somente se) Indicando (B)<m, onde m é o número de vectores. Vamos levar os nossos exemplos de cima e mostrar como funcionam.

Finalmente, qualquer conjunto de vectores em Rn é linearmente dependente se o número de vectores (m) é maior do que a dimensão do espaço (n), que é, m>n.

Abrangendo Conjuntos

Intimamente ligada à ideia de dependência linear é a ideia de que abrange conjuntos. Digamos que temos um conjunto de vectores em Rn, onde S = {v1, v2, ..., vk}. O conjunto de todas as possíveis combinações lineares dos vectores neste conjunto S é chamado o espaço de S. Está denotada extensão de (v1, v2, ..., vk) ou espaço (S). Se o espaço (S) = Rn, então S é denominado espaço que define para Rn. S também se pode estender por subconjuntos de todo o espaço, como uma linha, plano, etc. Vejamos um exemplo de como fazer o teste para ver se S é um conjunto gerador.