Max Verosimiglianza 2 [era : Chi lo sa risolvere??]

Analisi, algebra lineare, topologia, gruppi, anelli, campi, ...
Rispondi
Mirkk12
Messaggi: 2
Iscritto il: 07 set 2006, 09:28

Max Verosimiglianza 2 [era : Chi lo sa risolvere??]

Messaggio da Mirkk12 » 07 set 2006, 10:32

Chi sa risolvere questo problema???


Determinare lo STIMATORE DI MASSIMA VEROSIMIGLIANZA del parametro
$ \lambda $ per un campione casuale (x1,….,xn) dove ogni variabile aleatoria Xk ha densità


F(t)=($ \lambda $^3t^2/2)*e-^($ \lambda $t)

per t>0, f(t)=0 per t<0

EvaristeG
Site Admin
Messaggi: 4777
Iscritto il: 01 gen 1970, 01:00
Località: Roma
Contatta:

Messaggio da EvaristeG » 07 set 2006, 12:52

Ma è un'invasione di gente che ha l'esame di statistica??

Cmq, benvenuto anche a te, Mirkk12.
Ti invito a leggere le regole e le faq del forum e soprattutto i consigli su dove postare i post : nella sezione Combinatoria ci andrebbero esercizi (del tipo Olimpiadi della Matematica) di combinatoria, per l'appunto. Un esercizio di statistica come quello che hai proposto può trovare posto in Matematica non Elementare (dove lo sposto ora); inoltre, le prossime volte abbi cura di dare un titolo significativo al thread, "esercizio" o "aiuto per esercizio" sono un po' troppo generici.

Avatar utente
teppic
Moderatore
Messaggi: 684
Iscritto il: 26 ago 2005, 09:50
Località: Parma
Contatta:

Messaggio da teppic » 07 set 2006, 13:34

Penso che intendessi

$ f(t)=\displaystyle\frac{\lambda^3t^2}2e^{-\lambda t},\quad t>0 $

Allora, siccome si tratta di un esercizio del tutto elementare, ti suggerisco di studiare un po' prima di fare certe domande, comunque nel caso che il problema non sia mancanza di studio da parte tua, lo risolvo lo stesso.

Il campione $ x_1,\dots,x_n $ ha densità congiunta

$ f(x_1,\dots,x_n)=\displaystyle\frac{\lambda^3x_1^2}2e^{-\lambda x_1}\cdot\frac{\lambda^3x_2^2}2e^{-\lambda x_2}\cdot\ldots\cdot\frac{\lambda^3x_n^2}2e^{-\lambda x_n}, \quad x_i>0\forall i $

questa formula vista come funzione di $ \lambda $ di chiama likelihood o verosimiglianza.

$ L(\lambda)=\displaystyle\frac{\lambda^{3n}}{2^n}(x_1^2x_2^2\dots x_n^2) e^{-\lambda (x_1+x_2+\dots+x_n)}, \quad \lambda>0 $

Per trovare il $ \lambda_0 $ che la massimizza, bisogna fare la derivata rispetto a $ \lambda $ e studiarne il segno.

Siccome la forma della densità lo suggerisce, invece di massimizzare la likelihood, massimizziamo il suo logaritmo naturale, che tanto ci dà lo stesso valore per $ \lambda_0 $

$ l(\lambda)=\log L(\lambda)= \displaystyle 3n\log\lambda+c-\lambda (x_1+x_2+\dots+x_n) $
$ \displaystyle\frac d{d\lambda}l(\lambda)= \frac{3n}\lambda-(x_1+x_2+\dots+x_n) $

Da qui si vede subito che

$ \displaystyle\lambda_0=\frac{3n}{x_1+x_2+\dots+x_n} $

e quindi lo stimatore di massima verosimiglianza è

$ \displaystyle\hat\Lambda=\frac{3n}{X_1+X_2+\dots+X_n}=3/\overline X $

E ora fila a studiare!

giackk83
Messaggi: 22
Iscritto il: 12 lug 2006, 11:22

Messaggio da giackk83 » 08 set 2006, 09:36

Grazie per la soluzione dell'esercizio.

Il fatto è che nel libro che abbiamo, non spiega come risolvere sti esercizi e anzi anche sul STIMATORE DI MASSIMA VEROSIMIGLIANZA non spiega affatto.

Mi potresti indicare o un sito web o libro che spieghi bene?

Avatar utente
teppic
Moderatore
Messaggi: 684
Iscritto il: 26 ago 2005, 09:50
Località: Parma
Contatta:

Messaggio da teppic » 08 set 2006, 09:48

Io (come docente) uso il libro di Sheldon Ross Probabilità e Statistica per l'Ingegneria e le Scienze, edito da Apogeo, 2003, 34 €.

La parte sugli stimatori di massima verosimiglianza c'è anche se non è molto lunga. Ci sono vari esempi e soprattutto è spiegata la logica, quindi studiando bene le basi e cercando di capire tutti i passaggi, mi sembra più che sufficiente per imparare.

giackk83
Messaggi: 22
Iscritto il: 12 lug 2006, 11:22

Messaggio da giackk83 » 08 set 2006, 10:27

Ok grazie mille.

Quindi guardando in quel libro si dovrebbe imparare abbastanza bene....

grazie ora ci provo.

giackk83
Messaggi: 22
Iscritto il: 12 lug 2006, 11:22

Messaggio da giackk83 » 12 set 2006, 11:11

Ciao a tutti quanti,

l'esercizio poi famoso della massima verosimiglianza lo sono riuscito a capire abb bene.

Ora pero mi trovo un poketto in difficoltà con questo esercizio:

Determinare K in modo che la funzione

$ f(x.y)=\displaystyle\ ke^{-(|x|+|y|)} $

sia la densità di una variabile aleatoria z=(x,y).
Calcolare la densità marginale di x ed y, il valore atteso e varianza.

Mi potreste dare una mano perpiacere?
è un poketto difficelie secondo me queste cose....

giackk83
Messaggi: 22
Iscritto il: 12 lug 2006, 11:22

Messaggio da giackk83 » 13 set 2006, 08:41

Perpiacere un aiutino da qualcuno??

Avatar utente
Marco
Site Admin
Messaggi: 1331
Iscritto il: 01 gen 1970, 01:00
Località: IMO '93

Messaggio da Marco » 19 set 2006, 15:10

Aiutino:

Regola n.0 della teoria delle probabilità: La probabilità di un evento certo è 1.
[i:2epswnx1]già ambasciatore ufficiale di RM in Londra[/i:2epswnx1]
- - - - -
"Well, master, we're in a fix and no mistake."

pippo86
Messaggi: 36
Iscritto il: 29 ago 2006, 21:57

Tenda Esponenziale (Laplace)

Messaggio da pippo86 » 30 ott 2006, 13:54

Determinare lo stimatore di max verosim della legge esponenziale di Laplace:

$ f_x(x;a)={1 \over 2}e^{|x-a|} $

Soluzione (ditemi se è corretta):
$ L(a)=\prod_{i=1}^N {1 \over 2}e^{x-a} $ se $ x>a $
$ L(a)=\prod_{i=1}^N {1 \over 2}e^{a-x} $ se $ x<a $

Da cui otteniamo
$ L(a)=\left( \frac{1}{2} \right)^n e^ {\begin{matrix} \sum_{i=1}^N (x_i-a) \end{matrix}} $
$ L(a)=\left( \frac{1}{2} \right)^n e^ {\begin{matrix} \sum_{i=1}^N (a-x_i) \end{matrix}} $
Applicando il logaritmo, otteniamo

$ lnL(a)=-nln(2)+\begin{matrix} \sum_{i=1}^N (x_i-a) \end{matrix} $
$ lnL(a)=-nln(2)+\begin{matrix} \sum_{i=1}^N (a-x_i) \end{matrix} $

Facendo la derivata rispetto ad $ a $ (dato che lo stimatore si determina come punto di massimo della funzione di verosimiglianza) ottengo dalla prima e seconda equazione $ -1 $ e $ 1 $, che posti uguali a $ 0 $ mi danno un risultato impossibile. Dove ho sbagliato?
CHI NON RISICA NON ROSICA, MA CHI TROPPO RISICA NULLA ROSICA

Lambda
Messaggi: 4
Iscritto il: 31 ott 2006, 02:14

Messaggio da Lambda » 31 ott 2006, 02:30

teppic ha scritto:Penso che intendessi

$ f(t)=\displaystyle\frac{\lambda^3t^2}2e^{-\lambda t},\quad t>0 $

Allora, siccome si tratta di un esercizio del tutto elementare, ti suggerisco di studiare un po' prima di fare certe domande, comunque nel caso che il problema non sia mancanza di studio da parte tua, lo risolvo lo stesso.

Il campione $ x_1,\dots,x_n $ ha densità congiunta

$ f(x_1,\dots,x_n)=\displaystyle\frac{\lambda^3x_1^2}2e^{-\lambda x_1}\cdot\frac{\lambda^3x_2^2}2e^{-\lambda x_2}\cdot\ldots\cdot\frac{\lambda^3x_n^2}2e^{-\lambda x_n}, \quad x_i>0\forall i $

questa formula vista come funzione di $ \lambda $ di chiama likelihood o verosimiglianza.

$ L(\lambda)=\displaystyle\frac{\lambda^{3n}}{2^n}(x_1^2x_2^2\dots x_n^2) e^{-\lambda (x_1+x_2+\dots+x_n)}, \quad \lambda>0 $

Per trovare il $ \lambda_0 $ che la massimizza, bisogna fare la derivata rispetto a $ \lambda $ e studiarne il segno.

Siccome la forma della densità lo suggerisce, invece di massimizzare la likelihood, massimizziamo il suo logaritmo naturale, che tanto ci dà lo stesso valore per $ \lambda_0 $

$ l(\lambda)=\log L(\lambda)= \displaystyle 3n\log\lambda+c-\lambda (x_1+x_2+\dots+x_n) $
$ \displaystyle\frac d{d\lambda}l(\lambda)= \frac{3n}\lambda-(x_1+x_2+\dots+x_n) $

Da qui si vede subito che

$ \displaystyle\lambda_0=\frac{3n}{x_1+x_2+\dots+x_n} $

e quindi lo stimatore di massima verosimiglianza è

$ \displaystyle\hat\Lambda=\frac{3n}{X_1+X_2+\dots+X_n}=3/\overline X $

E ora fila a studiare!
scusate se mi intrometto, sono alle prese anche io con l'esame di statistica... una procedura corretta non dovrebbe prevedere la verifica del segno della derivata seconda? (per determinare se si tratta di un max o di un min)? inoltre, non bisognerebbe considerare (magari non in questo caso, ma piu in generale) il comportamento della funzione negli estremi dello spazio parametrico di $ \lambda $ (ove non c'è derivabilità)? (in questo caso $ \lambda \in \Re $ , giusto?

ultimo quesito sui libri di testo, chiedo a te che insegni, il Casella Berger "Statistical inference" come lo trovi? da me adottano quello, volevo sapere se è da considerarsi un libro "adeguato" ad un primo anno di specialistica (io studio economia, e mi farebbe piacere confrontare il livello dei ns corsi con quelli di facoltà scientifiche in "senso stretto", non solo Fisica, ma già ad esempio ingegneria elettronica, che ne fa uso se non erro in teoria dei segnali).

grazie

Rispondi