From Wikipedia, the free encyclopedia
Metoda najmanjših kvadratov je standardni pristop v regresijski analizi za približek rešitve predeterminiranih sistemov (nizov enačb, v katerih je več enačb kot neznank) z minimiziranjem vsote kvadratov rezidualov (rezidual je razlika med opazovano vrednostjo in ocenjeno vrednostjo, ki jo zagotavlja model), narejeno na podlagi rezultata vsake posamezne enačbe.
Najpomembnejša uporaba je pri prilagajanju podatkov. Kadar ima problem precejšnjo negotovost neodvisne spremenljivke (spremenljivka x), se pojavijo težave pri preprostih regresijskih modelih in metodah najmanjših kvadratov. V takih primerih se lahko za problem prilagajanja podatkov namesto metodologije najmanjših kvadratov uporabi metodologijo modelov napak v spremenljivkah.
Problem najmanjših kvadratov se lahko deli v dve kategoriji: linearni ali navadni najmanjši kvadrati in nelinearni najmanjši kvadrati, odvisno od tega, ali so reziduali linearni pri vseh neznankah ali ne. Linearni problem najmanjših kvadratov se pojavlja pri statistični regresijski analizi, kjer obstaja rešitev eksplicitne oblike. Nelinearni problem se običajno reši z iterativnim izboljševanjem, kjer je pri vsaki iteraciji sistem aproksimiran z linearnim, zato je osnovni izračun v obeh primerih podoben.
Cilj je prilagajanje parametrov funkcije modela, da se najbolje prilegajo naboru podatkov. Preprost nabor podatkov je sestavljen iz n točk (parov podatkov) , i = 1, …, n, kjer je neodvisna spremenljivka in odvisna spremenljivka, katere vrednost se ugotovi z opazovanjem. Funkcija modela ima obliko , kjer je v vektorju shranjenih m nastavljivih parametrov . Cilj je najti vrednosti parametrov za model, ki se "najboljše" prilega podatkom. Prileganje modela podatkovni točki se meri z njegovim rezidualom, opredeljenim kot razlika med opazovano vrednostjo odvisne spremenljivke in vrednostjo, ki jo napoveduje model:
Metoda najmanjših kvadratov najde optimalne vrednosti parametrov z minimiziranjem vsote kvadratov rezidualov, : [1]
Najmanjšo vsoto kvadratov najdemo z enačenjem gradienta z nič. Ker model vsebuje m parametrov, obstaja m gradientnih enačb:in ker postanejo gradientne enačbeEnačbe gradienta veljajo za vse probleme najmanjših kvadratov. Vsak poseben problem zahteva posebne izraze za model in njegove parcialne odvode. [2]
Regresijski model je linearen, ko model obsega linearno kombinacijo parametrov, tj.kjer je funkcija odvisna od .[2]
Predpostavimo in nato vstavimo neodvisne in odvisne spremenljivke v matriki in . Najmanjše kvadrate lahko izračunamo na sledeč način. Upoštevajte, da je množica vseh podatkov. [2][3]Gradient kriterijske funkcije je:Gradient kriterijske funkcije enačimo z nič in nato rešimo za in tako dobimo:[2][3]
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.