modello di regressione nonlineare Da Wikipedia, l'enciclopedia libera
In statistica, il modello logit, noto anche come modello logistico o regressione logistica, è un modello di regressione nonlineare utilizzato quando la variabile dipendente è di tipo dicotomico. L'obiettivo del modello è di stabilire la probabilità con cui un'osservazione può generare uno o l'altro valore della variabile dipendente; può inoltre essere utilizzato per classificare le osservazioni, in base alla caratteristiche di queste, in due categorie.[1]
Il modello logit fa parte della classe dei modelli lineari generalizzati, così come il modello probit ed il modello loglineare, dai quali differisce essenzialmente per la scelta della funzione .[1]
Un modello di regressione dove la variabile dipendente è dicotomica, ossia una variabile che può avere come unici valori 0 e 1 o riconducibili ad essi, calcola la probabilità che questa variabile acquisisca valore 1. Poiché le probabilità per definizione sono limitate ad un intervallo , l'utilizzo di un modello di regressione lineare non sarebbe appropriato, infatti esso restituirebbe dei valori appartenenti all'intero insieme .[2] Si supponga infatti il seguente modello lineare:
essendo costante e uguale al parametro , non permette alla funzione di cambiare pendenza in base al valore di e quindi di poter avere come codominio . Questa caratteristica è invece posseduta, ad esempio, dalle funzioni di ripartizione.[2] L'utilizzo infatti di una funzione non lineare permette di avere una derivata prima dipendente da e quindi in grado di cambiare al variare di questa variabile. Se si considera infatti il seguente modello:
dove la derivata è la seguente
Si nota come la pendenza della curva ora possa variare al variare di , potendo quindi possedere un codominio . Per il modello logit si utilizza come funzione la funzione di ripartizione della distribuzione logistica standard.[1]
La varianza della variabile dipendente risulta dipendere dal vettore dei regressori . Infatti
Effetto marginale
L'effetto sulla variabile dipendente dato da un cambiamento in un regressore , chiamato effetto marginale, è calcolato come la derivata del valore atteso di rispetto a :
dove è il parametro associato al regressore .[1] Per il calcolo della derivata il regressore deve essere continuo.
Per ogni osservazione campionaria si dispone di una determinazione e di determinazioni . Il modello cerca una relazione non lineare, utilizzando la funzione di ripartizione della distribuzione logistica standard, tra la variabile dipendente e variabili indipendenti, stimando il valore dei coefficienti tramite il metodo della massima verosimiglianza.[1]
Nel modello logit la variabile dipendente è dicotomica e con distribuzione . Si consideri un campione di osservazioni dove ciascuna di esse è identificata con . Per la definizione del modello, la probabilità che questa variabile sia 1 per una data osservazione è
Si considera ora l'intero campione e sia assume che siano indipendenti e identicamente distribuite per ogni osservazione . Risulta quindi che la distribuzione di probabilità congiunta di è il prodotto delle probabilità condizionate di ogni osservazione:
Si riprende ora la definizione del modello logit e la si sostituisce al posto di , ottenendo quindi la funzione di verosimiglianza[5]
Stima dei parametri
Per calcolare gli stimatori dei parametri risulta conveniente calcolare la funzione di log-verosimiglianza poiché in questo modo si riesce a eliminare la produttoria. Si applica quindi il logaritmo alla funzione di verosimiglianza:
Gli stimatori calcolati con il metodo della massima verosimiglianza massimizzano la funzione precedente risolvendo il seguente problema:
Per semplificare la scrittura consideriamo un vettore dei parametri , la derivata di , ossia la funzione di densità di probabilità della distribuzione logistica, e il numero di osservazioni nel campione. Le condizioni per la massimizzazione sono due: quella di primo ordine dove la derivata prima rispetto ai parametri deve essere posta uguale a zero per trovare i punti estremanti, la seconda invece pone la derivata seconda, sempre rispetto ai parametri, minore di zero per determinare le concavità della funzione e quindi garantire che quelli trovati siano solo punti di massimo:
Solitamente le soluzioni di queste condizioni non sono semplici da determinare oppure non possono essere trovate affatto, ma per ovviare a questo problema si possono utilizzare dei programmi statistici per computer che, attraverso alcuni algoritmi, trovano delle loro approssimazioni.[6]
Stima della probabilità
Quando è stato calcolato il vettore , ossia la stima del vettore dei parametri , è possibile procedere alla stima della probabilità . Per definizione del modello, questa probabilità è anche il valore atteso di .
L'intera derivazione della funzione di verosimiglianza è consultabile alle pagine qui riportate. (EN) James H. Stock e Mark W. Watson, Regression with a Binary Dependent Variable, in Introduction to Econometrics, 3ªed., Pearson, 2015, pp.465-466, ISBN978-1-292-07131-2.