Loading AI tools
Da Wikipédia, a enciclopédia livre
Em teoria da probabilidade e estatística, um processo gaussiano é um modelo estatístico em que as observações ocorrem em um domínio contínuo, por exemplo, tempo ou espaço. Em um processo gaussiano, cada ponto em algum espaço de entrada contínua está associada com uma variável aleatória com distribuição normal. Além disso, cada conjunto finito dessas variáveis aleatórias tem uma distribuição normal multivariada. A distribuição de um processo gaussiano é a distribuição conjunta de todas as infinitas variáveis aleatórias, e, como tal, é uma distribuição de funções com um domínio contínuo.
Visto como um algoritmo de aprendizado de máquina, um processo gaussiano utiliza "aprendizagem preguiçosa" e uma medida da similaridade entre os pontos (a função kernel) para prever o valor de um ponto invisível a partir de dados de treinamento. A previsão não é apenas uma estimativa para esse ponto, mas tem também a informação da incerteza. É uma distribuição gaussiana unidimensional (que é uma distribuição marginal nesse ponto).[1]
Em algumas funções kernel, a álgebra de matrizes pode ser usada para calcular as previsões, como descrito no artigo krigagem. Quando um kernel parametrizado é utilizado, o software de otimização é tipicamente usado para ajustar um modelo de processo gaussiano.
O conceito de processos gaussianos tem o nome de Carl Friedrich Gauss, porque se baseia na noção da distribuição gaussiana (distribuição normal). Processos gaussianos podem ser visto como uma generalização infinito-dimensional de distribuições normais multivariadas.
Processos gaussianos são úteis na modelagem estatística, beneficiando-se de propriedades herdadas do normal. Por exemplo, se um processo aleatório é modelado como um processo gaussiano, as distribuições de várias derivadas de grandezas podem ser obtidas de forma explícita. Tais grandezas incluem o valor médio do processo em um dado intervalo de tempo e o erro na estimativa da média usando valores de amostra de um curto intervalo de tempo.
Um processo gaussiano é uma distribuição estatística Xt, t ∈ T, para qual qualquer combinação linear finita de amostras tem uma distribuição gaussiana conjunta. Mais precisamente, qualquer funcional linear aplicado à função de amostra Xt terá um resultado distribuído normalmente. Para notação, pode-se escrever X ~ GP(m,K), ou seja, a função aleatória X é distribuída como um processo gaussiano com a média m e função de covariância K.[2] Quando o vetor de entrada t é bi- ou multi-dimensional, um processo gaussiano pode ser também conhecido como um campo aleatório gaussiano.[3]
Alguns autores[4] assumem que as variáveis aleatórias Xt tem média zero; isto simplifica os cálculos sem perda de generalidade e permite que as propriedades da média do processo serem inteiramente determinadas pela função de covariância K.[5]
Alternativamente, um processo estocástico de tempo contínuo é gaussiano se e somente se para cada conjunto finito de índices no conjunto indexado
é uma variável aleatória gaussiana multivariada.[6] Usando funções características de variáveis aleatórias, a propriedade gaussiana pode ser formulada da seguinte forma: é gaussiano se e somente se, para cada conjunto finito de índices , existem valores reais , com , tais que a seguinte igualdade é válida para todos os
onde denota o número imaginário .
Os números e podem ser demonstrados serem as covariâncias e médias das variáveis no processo.[7]
Um fato chave nos processos gaussianos é que eles podem ser completamente definidos por suas estatísticas de segunda ordem.[3] Assim, se um processo gaussiano é assumido para ter média zero, definir a função de covariância resulta também na definição completa do comportamento do processo. Importante o definiteness não negativo desta função permite a sua decomposição espectral usando a expansão Karhunen-Loeve. aspectos básicos que podem ser definidos através da função de covariância são o processo 'estacionaridade, isotropia, suavidade e periodicidade.[8][9]
Estacionariedade refere-se ao processo de comportamento em relação à separação de quaisquer dois pontos X e X. Se o processo está parado, que depende da sua separação, x - x ', enquanto que, se não estacionária que depende da posição real dos pontos X e X'. Pelo contrário, no caso especial de um processo de Ornstein-Uhlenbeck, um processo de movimento Browniano, é não-estacionária.
Se o processo depende apenas | x - x '|, a distância euclidiana (não a direção) entre X e X', isotrópico em seguida, o processo é considerado. Um processo que é simultaneamente estacionário e isotrópico é considerada homogêneo;[10] na prática estas propriedades refletem as diferenças (ou a falta delas) no comportamento do processo, dada a localização do observador.
Em última análise, os processos gaussianos traduzem como tendo antecedentes sobre as funções e a suavidade destes antecedentes pode ser induzida pela função de covariância.[8] Se espera-se que para "quase por" pontos de entrada X e X 'os seus correspondentes pontos de saída Y e Y? Ser "quase por" também, em seguida, o pressuposto de continuidade está presente. Se quisermos permitir a deslocação significativa então poderíamos escolher uma função covariância mais áspera. Exemplos extremos do comportamento são a função de covariância Ornstein-Uhlenbeck e o quadrado exponencial, onde os primeiros nunca são diferenciáveis e este último infinitamente diferenciável.
Periodicidade refere-se a padrões de indução periódica dentro do comportamento do processo. Formalmente, isto é conseguido por meio do mapeamento da entrada x de um vector bidimensional U (x) = (cos (x), sen (x)).
Há um número de funções de covariância comuns:[9]
Aqui . O parâmetro é o comprimento escala característica do processo (praticamente, "quão perto" dois pontos e tem que ser para influenciar uns aos outros de forma significativa) , δ é o delta de Kronecker e σ o desvio-padrão das flutuações de ruído. Além disso, é a função de Bessel modificada de ordem e é o função gama avaliadas em . Importante, uma função covariância complicado pode ser definida como uma combinação linear de outras funções de covariância mais simples, a fim de incorporar diferentes percepções sobre a na mão conjunto de dados.
Claramente, os resultados de inferência são dependentes dos valores das θ hiperparâmetros (por exemplo, e σ) definir o comportamento do modelo. Uma escolha popular para θ é para proporcionar o máximo a posteriori (MAP) estimativas de que com alguma escolhido antes. Se o anterior é muito perto uniforme, isto é o mesmo que maximizar a probabilidade marginal do processo; a marginalização sendo feito ao longo dos valores de processo observadas .[9] Esta abordagem também é conhecida como máxima verossimilhança II, a prova de maximização, ou Empirical Bayes. [5]
Um processo de Wiener (também conhecido como movimento browniano) é o integrante de um processo gaussiano de ruído branco. Ele não é estacionária, mas tem incrementos estacionárias.
O processo de Ornstein-Uhlenbeck é um processo gaussiano estacionário.
A ponte Browniano é o integral de um processo gaussiano cuja incrementos não são independentes.
O movimento browniano fracionário é o integrante de um processo gaussiano cuja função covariância é uma generalização do processo de Wiener.
Um processo gaussiano pode ser usado como uma distribuição de probabilidade prévia sobre as funções em inferência Bayesiana.[9][11] Dado qualquer conjunto de N pontos no domínio desejado de suas funções, ter um gaussiano multivariada cujo parâmetro matriz de covariância é a matriz de Gram de seus pontos N com alguns kernel desejado e amostra do que gaussiano.
Inferência de valores contínuos com um processo gaussiano antes é conhecido como regressão processo gaussiano, ou krigagem; estendendo-se regressão do processo gaussiano para as múltiplas variáveis alvo é conhecido como cokrigagem.[11] Os processos gaussianos são assim úteis como um poderoso multivariada interpolação não linear e de extensão de amostra ferramenta.[12] regressão do processo gaussiano pode ser prorrogado para resolver tarefas de aprendizagem, tanto supervisionado (por exemplo, classificação probabilística[9]) e sem supervisão (por exemplo colector de aprendizagem[3]) enquadramentos de aprendizagem.
Quando em causa com um problema de regressão processo gaussiano geral, admite-se que, para um processo gaussiano f observado nas coordenadas x, o vector de valores é apenas uma amostra de uma distribuição gaussiana multivariada de dimensão igual ao número de coordenadas observados | x |. Portanto, sob a suposição de uma distribuição de média zero, , onde é a matriz covariância entre todos os pares possíveis para um determinado conjunto de hiperparâmetros θ.[9] Como tal, a probabilidade marginal log é:
e maximizar essa probabilidade marginal em direção θ fornece a especificação completa do processo gaussiano f. Pode-se notar brevemente neste ponto que o primeiro termo corresponde a um termo de penalidade por falta de um modelo para caber valores observados e o segundo termo a um termo de penalidade que aumenta proporcionalmente à complexidade do modelo. Tendo especificado θ fazer previsões sobre valores não observados nas coordenadas é então apenas uma questão de retirada de amostras da distribuição preditiva , onde a parte posterior estimativa média a é definido como:
e a posterior estimativa de variância B é definido como:
onde é a covariância entre a nova coordenada de estimativa x * e todos outras coordenadas observadas x para um dado θ hiperparâmetro vector, e são definidos como antes e é a variação no ponto como ditada por θ. É importante notar que praticamente o posterior estimativa média (o "ponto de estimativa") é apenas uma combinação linear das observações ; de um modo semelhante a variância de é efectivamente independente das observações . Um gargalo conhecido na predição processo gaussiano é que a complexidade computacional de predição é cúbica do número de pontos | x | e, como tal, pode se tornar inviável para conjuntos de dados maiores.[8] Funciona em processos gaussianos esparsas, que normalmente são baseados na ideia de construir um conjunto representativo para o processo dada f, tentar contornar este problema.[13][14]
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.