Top Qs
Linha do tempo
Chat
Contexto
Princípio mínimo de Pontryagin
Da Wikipédia, a enciclopédia livre
Remove ads
Remove ads
Princípio mínimo de Pontryagin (ou máximo) é utilizado na teoria controle otimizado[nota 1] para encontrar o melhor controle possível para a tomada de sistemas dinâmicos[nota 2] de um estado para outro, especialmente na presença de restrições para os controles de estado ou de entrada. O princípio foi formulada pelo matemático russo Lev Semenovich Pontryagin e seus alunos. Ele tem como um caso especial da equação do cálculo das variações de Euler-Lagrange[nota 3]. O princípio afirma, informalmente, que o Hamiltoniano[nota 4] deve ser minimizado sobre , o conjunto de todos os controles permitidos. Se é o controle ideal para o problema, então o princípio afirma que:
onde é o estado ideal de trajetória e é o coestado[nota 5] ideal de trajetória. [1] O resultado foi aplicado com sucesso em problemas de tempo mínimo onde o controle de entrada é restringido, mas pode também ser útil no estudo de problemas estado limitado. Condições especiais para o Hamiltoniano também podem ser derivadas. Quando o tempo final é fixo e o Hamiltoniano não depende explicitamente do tempo , então:
e se o tempo final é livre, então:
Quando satisfeito ao longo de uma trajetória, o princípio mínimo de Pontryagin é uma condição necessária para um ótimo. A equação HJB[nota 6] fornece condições suficientes para um ótimo, mas essa condição deve ser satisfeita sobre a totalidade do estado do espaço.[2]
Remove ads
Maximização e minimização
O princípio foi inicialmente conhecido como princípio máximo de Pontryagin e sua prova é historicamente baseado na maximização do Hamiltoniano. A aplicação inicial desse princípio foi para a maximização da velocidade terminal de um foguete. Contudo, como foi subsequentemente utilizado principalmente para minimização do índice de desempenho foi então referido como o princípio mínimo. O livro Pontryagin resolveu o problema de minimizar um índice de desempenho.[3]
Remove ads
Anotação
Resumir
Perspectiva
No que segue estaremos fazendo uso da anotação abaixo.
Remove ads
Ver também
Notas
- A teoria do ótimo controle, uma extensão do cálculo das variações, é um método de otimização matemática para derivar políticas de controle. O método é em grande parte devido ao trabalho de Lev Pontryagin e seus colaboradores na União Soviética e Richard Bellman.
- O atractor de Lorenz é um exemplo de sistema dinâmico não-linear. O estudo deste sistema incentivou a criação da teoria do Caos.
- Em condições ideais, os valores máximo e mínimo de uma dada função podem ser localizados ao encontrar os pontos onde sua derivada desaparece (ou seja, é igual a zero). Por analogia, as soluções de simples problemas variacionais podem ser obtidos resolvendo a associada equação de Euler-Lagrange.
- A teoria de controle ótimo hamiltoniano foi desenvolvida por Lev Pontryagin como parte de seu princípio mínimo. A teoria foi inspirada, mas é diferente da mecânica hamiltoniana clássica.
- Equações Coestado estão relacionados às equações de estado utilizadas no controle ideal. Elas são apresentadas como um vetor de equações diferenciais de primeira ordem com o lado direito sendo o vetor de derivadas parciais do negativo do Hamiltoniano no que diz respeito àos estados variáveis.
- A equação de Hamilton-Jacobi-Bellman é uma equação de derivadas parciais(EDP)que é fundamental para a teoria do controle ótimo ou otimizado. A solução da equação HJB é a "função de valor", que dá a relação custo-para-ir ótimo para um dado sistema dinâmico com uma associada função de custo.
Remove ads
Referências
- Pontryagin, L.S. et al. The Mathematical Theory of Optimal Processes, vol. 4. Interscience, 1962. Translation of a Russian book. ISBN 2881240771 and ISBN 978-2881240775
- See p.13 of the 1962 book of Pontryagin et al. referenced below.
Remove ads
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads