Loading AI tools
termo da álgebra linear Da Wikipédia, a enciclopédia livre
Em matemática, mais especificamente em álgebra linear e análise funcional, o núcleo (kernel, em inglês) ou espaço nulo de uma transformação linear L : V → W entre dois espaços vetoriais V e W, é o conjunto de todos os elementos v de V para os quais L(v) = 0, em que 0 denota o vetor nulo de W.[1] Em outras palavras,
O núcleo de L é um subespaço vetorial do domínio V.[2] Para uma transformação linear L : V → W, dois elementos de V têm a mesma imagem em W se, e somente se, a sua diferença reside no núcleo de L: Segue-se que a imagem de L é isomorfa ao quociente de V pelo núcleo: Isto implica o teorema do posto e nulidade: onde, por posto entende-se a dimensão da imagem de L, e por nulidade, a dimensão do núcleo de L.
Quando V é um espaço com produto interno, o quociente V / ker(L) pode ser identificado com o complemento ortogonal de ker(L) em V. Esta é a generalização para operadores lineares do espaço linha, ou coimagem, de uma matriz.
A noção de núcleo aplica-se aos homomorfismos de módulos, sendo estes últimos uma generalização dos espaços vetoriais sobre um corpo para um anel. O domínio da função passa a ser um módulo, e o núcleo constitui um "submódulo". Aqui, os conceitos de posto e de nulidade, não se aplicam necessariamente.
Se V e W são espaços vetoriais topológicos (e, W é de dimensão finita) então um operador linear L: V → W é contínuo se, e somente se, o núcleo de L é um subespaço fechado de V.
Considere uma transformação linear representada como uma matriz A de ordem m × n com coeficientes em um corpo K (normalmente o corpo dos números reais ou dos números complexos) e atuando sobre vetores coluna x com n componentes sobre K. O núcleo desta transformação linear é o conjunto de soluções para a equação A x = 0, em que 0 é entendido como o vetor nulo. A dimensão do núcleo de A é chamada de nulidade de A. Em notação de conjuntos, A equação matricial é equivalente a um sistema de equações lineares homogêneas:
Assim, o núcleo de A é o mesmo que o conjunto solução para o sistema homogêneo acima.
O núcleo de uma matriz A de ordem m × n sobre um corpo K é um subespaço vetorial de Kn. Isto é, o núcleo de A, o conjunto Ker(A), tem as seguintes três propriedades:
O produto Ax pode ser escrito em termos do produto escalar de vetores da seguinte forma: Aqui a1, ... , am indicam as linhas da matriz A. Segue-se que x está no núcleo de A se, e somente se, x é ortogonal (ou perpendicular) a cada um dos vetores linha de A (porque quando o produto escalar de dois vetores é igual a zero, eles são, por definição, ortogonais).
O espaço linha, ou coimagem, de uma matriz A é o espaço gerado pelos vetores linha de A. Pelo raciocínio acima, o núcleo de A é o complemento ortogonal para o espaço linha, ou seja, um vetor x está no núcleo de A se, e somente se, ele é perpendicular a cada vetor no espaço linha de A.
A dimensão do espaço linha de A é chamada de posto de A e a dimensão do núcleo de A é chamada de nulidade de A. Estas grandezas estão relacionadas pelo teorema do posto e da nulidade:
O espaço nulo à esquerda, ou conúcleo, de uma matriz A consiste de todos os vetores x tais que xTA = 0T, em que T denota a transposição de um vetor coluna. O espaço nulo à esquerda de A é o mesmo que o núcleo de AT. O espaço nulo à esquerda de A é o complemento ortogonal do espaço de coluna de A, e é dual do conúcleo da transformação linear associada. O núcleo, o espaço linha, o espaço coluna, e o espaço nulo à esquerda de A são os quatro subespaços fundamentais associados à matriz A.
O núcleo também desempenha um papel na solução de um sistema linear não homogêneo:
Se u e v são duas soluções possíveis da equação acima, então,
Assim, a diferença entre duas soluções da equação Ax = b pertence ao núcleo de A.
Disto resulta que qualquer solução da equação Ax = b pode ser expressa como a soma de uma soluço fixa v e um elemento arbitrário do núcleo, isto é, o conjunto solução para a equação Ax = b é
Geometricamente, isto diz que o conjunto solução de Ax = b é a translação do núcleo de A pelo vetor v. Ver também a alternativa de Fredholm e flat (geometria).
Nesta seção, é exemplificado o processo para determinar o núcleo de uma matriz (ver a seção sobre o Cálculo por eliminação gaussiana abaixo para métodos mais adequados para cálculos mais complexos). Também é mencionado o espaço linha e a sua relação com o núcleo.
Considere a matriz O núcleo desta matriz consiste de todos os vetores (x, y, z) ∈ R3 para os quais
o que pode ser expresso como um sistema de equações lineares homogêneas envolvendo x, y, e z:
o que pode ser escrito em forma de matriz, como:
A eliminação de Gauss–Jordan reduz esta matriz a:
Reescrevendo, obtém-se:
Agora podemos expressar um elemento do núcleo: em que c é um escalar.
Como c é uma variável livre, a solução também pode ser expressa como
O núcleo de A é, precisamente, o conjunto de soluções para estas equações (neste caso, uma reta que passa pela origem em R3); o vetor (-1,-26,16)T constitui uma base do núcleo de A. Assim, a nulidade de A é igual a 1.
Note também que os seguintes produtos escalares são nulos:
o que ilustra que os vetores no núcleo de A são ortogonais a cada um dos vetores linha de A.
Esses dois vetores linha (linearmente independentes) geram o espaço linha de A, um plano ortogonal ao vetor (-1,-26,16)T.
Com o posto de A sendo 2, a nulidade de A sendo 1, e a dimensão de A sendo 3, tem-se a ilustração do teorema do posto e da nulidade.
Uma base do núcleo de uma matriz pode ser calculada por meio da eliminação de Gauss.
Para este efeito, dada uma matriz A de ordem m × n, pode-se construir a matriz aumentada por linhas em que I é a matriz identidade de ordem n × n.
Calculando-se sua forma escalonada reduzida por colunas através da eliminação de Gauss (ou qualquer outro método apropriado), obtém-se uma matriz Uma base do núcleo de A consiste nas colunas não-nulas de C tais que a coluna correspondente de B é uma coluna nula.
Na verdade, o cálculo também pode ser interrompido assim que a matriz superior estiver na forma escalonada por colunas: o restante do cálculo consiste em alterar a base do espaço vetorial gerado pelas colunas cuja parte superior é zero.
Por exemplo, suponha que Então Colocando-se a parte superior na forma escalonada por colunas por meio de operações sobre as colunas de toda a matriz resulta que
As três últimas colunas de B são nulas. Portanto, os três últimos vetores de C,
formam uma base do núcleo de A.
A demonstração de que o método fornece o núcleo é a seguinte: Como as operações sobre as colunas correspondem a multiplicação à direita por matrizes invertíveis, o fato de que se reduz a significa que existe uma matriz invertível tal que com na forma escalonada por colunas. Assim, e consequentemente Um vetor coluna pertence ao núcleo de (ou seja, ) se, e somente se, onde Como está na forma escalonada por colunas, se, e somente se, as entradas de diferentes de zero correspondem às colunas nulas de Multiplicando por pode-se deduzir que este é o caso se, e somente se, é uma combinação linear das colunas correspondentes de
O problema de calcular o núcleo em um computador depende da natureza dos coeficientes.
Se os coeficientes da matriz são números exatos, a forma escalonada reduzida por colunas da matriz pode ser calculada pelo algoritmo de Bareiss mais eficientemente do que com a eliminação de Gauss. É ainda mais eficiente usar a aritmética modular e o teorema chinês do resto, que reduz o problema a vários similares sobre corpos finitos (isso evita a sobrecarga induzida pela não-linearidade da complexidade computacional da multiplicação de inteiros). [carece de fontes]
Para coeficientes em um corpo finito, a eliminação de Gauss funciona bem, mas para as matrizes grandes que ocorrem em criptografia e no cálculo de bases de Gröbner, são conhecidos algoritmos melhores, que têm aproximadamente a mesma complexidade computacional, mas são mais rápidos e comportar-se melhor no hardware de computadores modernos. [carece de fontes]
Para matrizes cujas entradas são números de ponto flutuante, o problema de calcular o núcleo só faz sentido para matrizes em que o número de linhas é igual ao seu posto: devido aos erros de arredondamento, uma matriz de ponto flutuante quase sempre tem um posto cheio, mesmo quando é uma aproximação de uma matriz com um posto muito menor. Mesmo para uma matriz de posto cheio, só é possível calcular o seu núcleo se ela for bem condicionada, ou seja, se tem um número de condicionamento baixo.[3]
Mesmo para uma matriz de posto completo bem condicionada, a eliminação gaussiana não se comporta corretamente: ela introduz erros de arredondamento que são grandes demais para a obtenção de um resultado significativo. Como o cálculo do núcleo de uma matriz é um caso especial da solução de um sistema homogêneo de equações lineares, o núcleo pode ser calculado por qualquer um dos vários algoritmos projetados para resolver sistemas homogêneos. Um software do estado da arte para esta finalidade é a biblioteca Lapack. [carece de fontes]
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.