Friday 27 October 2017

Media Modello Bayesiano Nel Forex Stata


Analisi bayesiana con Stata Stata Press eBook sono letti utilizzando la piattaforma reg VitalSource Bookshelf. Bookshelf è gratuita e permette di accedere al proprio Stata Press eBook dal computer, smartphone, tablet o eReader. Come accedere al tuo eBook 2) Una volta effettuato l'accesso, fai clic riscattare nell'angolo in alto a destra. Inserisci il tuo codice eBook. Il codice di eBook sarà via e-mail di conferma dell'ordine con il titolo di libri elettronici. 3) L'eBook sarà aggiunto alla libreria. Si può quindi scaricare Bookshelf su altri dispositivi e sincronizzare la libreria per visualizzare l'eBook. Bookshelf è disponibile al seguente: in linea Bookshelf è disponibile on-line da qualsiasi computer collegato a Internet accedendo online. vitalsourceusernew. PC Bookshelf è disponibile per Windows 788,110 (sia a 32 e 64 bit). Scarica il software Bookshelf sul desktop in modo da poter visualizzare i libri elettronici con o senza accesso a Internet. iOS Bookshelf è disponibile per iPad, iPhone e iPod touch. Scarica l'applicazione per cellulare Bookshelf da iTunes Store. Android Bookshelf è disponibile per i telefoni Android e tablet con 4.0 (Ice Cream Sandwich) e più tardi. Scarica l'applicazione per cellulare Bookshelf dal Play Store di Google. Kindle Fuoco Bookshelf è disponibile per il Kindle Fire 2, HD, e HDX. Scarica l'applicazione per cellulare Bookshelf dal Fuoco Kindle App Store. Mac Bookshelf è disponibile per Mac OS X 10.8 o successivo. Scarica il software Bookshelf sul desktop in modo da poter visualizzare i libri elettronici con o senza accesso a Internet. Bookshelf consente di avere 2 computer e 2 dispositivi mobili attivati ​​in qualsiasi momento. Sono rimasto stupito il modo VitalSource di presentare i libri. Tutto sembra perfettamente impaginato, ma ancora è possibile sfogliare il libro nello stesso modo in cui si sfogliare una lunghissima pagina web nel browser web. E meglio di tutti, ogni volta che ho la mia tavoletta con me, i miei libri sono solo un colpo di distanza. mdash Michael Mitchell statistico senior presso l'USC bambini Data Network. autore di quattro libri Stata Press, ed ex consulente statistico UCLA che immaginato e progettato il sito web Resources Consulting UCLA statistici. Politica di ritorno Titolo: Stata Press eBooks sono nonreturnable e non rimborsabile. eBook non disponibile per questo titolo commento dal gruppo tecnico Stata analisi bayesiana con Stata è un compendio di Stata comandi utente-scritto per l'analisi bayesiana. Esso contiene solo materiale teorico e fondazionale abbastanza per essere utile a tutti i livelli di utenti interessati a statistica bayesiana, da neofiti agli appassionati. Il libro è attento a introdurre concetti e strumenti di codifica in modo incrementale in modo che non ci siano zone ripide o discontinuità nella curva di apprendimento. Il contenuto aiuta l'utente a vedere esattamente ciò che i calcoli sono fatti per semplici modelli standard e mostra all'utente come quei calcoli sono implementate. La comprensione di questi concetti è importante per gli utenti, perché l'analisi bayesiana si presta a modelli molto complessi o personalizzati, e gli utenti devono essere in grado di codificare questi stessi. Analisi bayesiana con Stata è meraviglioso perché passa attraverso i metodi computazionali tre timesmdashfirst usando Statas ado-code, quindi utilizzando Mata, e, infine, utilizzando Stata per eseguire le catene MCMC con WinBUGS o OpenBUGS. Questo rafforza il materiale mentre facendo tutti e tre i metodi accessibili e chiare. Una volta che il libro spiega i calcoli ed i metodi sottostanti, soddisfa gli utenti nostalgia per i modelli più complessi, fornendo esempi e consigli su come realizzare tali modelli. Il libro tratta argomenti avanzati, mentre mostra i principi fondamentali di analysismdashwhich bayesiana è un bel risultato. Analisi bayesiana con Stata presenta tutto il materiale utilizzando insiemi di dati reali piuttosto che i set di dati simulati, e ci sono molti esercizi che utilizzano insiemi di dati reali. C'è anche un capitolo sulla convalida il codice per gli utenti che vogliono imparare simulando modelli e recuperando i modelli noti. Questo offre agli utenti l'opportunità di acquisire esperienza nella valutazione e l'esecuzione di modelli bayesiani e insegna agli utenti di fare attenzione quando si fa così. Il libro inizia a discutere i principi di analisi bayesiana e spiegando il processo di pensiero alla base di esso. Si costruisce quindi da zero, mostrando agli utenti come scrivere valutatori per posteriori in modelli semplici e come velocizzare loro utilizzando la semplificazione algebrica. Ovviamente, questo tipo di valutazione è utile solo in modelli molto semplici, così il libro affronta quindi i metodi MCMC usati nel mondo Bayesiano. Ancora una volta, questo inizia dai fondamentali, a cominciare con l'algoritmo MetropolisndashHastings e passando per i campionatori Gibbs. Poiché questi ultimi sono molto più veloce da usare, ma sono spesso intrattabile, il libro spiega a fondo gli strumenti speciali di prelievo Griddy, il campionamento fetta, e il campionamento rifiuto adattivo. Dopo aver discusso gli strumenti di calcolo, il libro cambia la sua attenzione alle tecniche di valutazione MCMC necessarie per una corretta analisi bayesiana questi includono la valutazione della convergenza ed evitare problemi che possono sorgere da catene lentamente miscelazione. Questo è dove viene trattata burn-in, e l'assottigliamento e centraggio vengono utilizzati per i guadagni di prestazioni. Il libro riporta poi la sua attenzione alla computazione. In primo luogo, si mostra agli utenti come utilizzare Mata al posto di Statas ado-codice secondo, dimostra come passare dati e modelli per WinBUGS o OpenBUGS e recuperare la sua uscita. Utilizzando Mata accelera il tempo di valutazione. Tuttavia, utilizzando WinBUGS o OpenBUGS accelera ulteriormente il tempo di valutazione, e ognuno si apre una cassetta degli attrezzi, che riduce la quantità di programmazione personalizzato Stata necessaria per i modelli complessi. Questo materiale è facile per il libro di introdurre e spiegare perché ha già gettato le basi concettuali e computazionali. Il libro termina con i capitoli dettagliate su model checking e la selezione, seguita da una serie di studi di casi che introducono tecniche di modellazione in più e dare consigli su codice specializzato Stata. Questi capitoli sono molto utili perché permettono il libro di essere un'introduzione autonomo per l'analisi bayesiana, fornendo ulteriori informazioni sui modelli che sono normalmente al di là di una introduzione di base. Sommario vista tabella dei contenuti gtgt Elenco delle figure 1 Il problema dei priori 1.1 Caso studio 1: Uno studio del vaccino prima fase 1.2 calcoli bayesiani 1.3 vantaggi di una analisi bayesiana 1.4 selezione di un buon precedenti 1,5 Punti di partenza 1.6 Esercizi 2 Valutare posteriore 2.1 Introduzione di studio 2.2 caso 1: La sperimentazione del vaccino rivisitato 2.3 distribuzioni marginali e condizionate 2.4 caso studio 2: La pressione sanguigna e l'età di studio 2.5 caso 2: BP e l'età hanno continuato 2.6 posteriori di registro generali 2.7 Aggiunta di distribuzioni di logdensity 2.8 Modifica parametrizzazione 2.9 punti di partenza 2.10 Esercizi 3.1 Introduzione 3.2 l'algoritmo di MH in Stata 3.3 MHS comandi studio 3.4 caso 3: Polyp conta 3,5 Scaling la distribuzione proposta 3.6 il mcmcrun comando 3.7 Multiparameter studio modelli 3.8 caso 3: conta polipo continuato 3.9 parametri altamente correlati 3.9.1 centraggio 3.9.2 Blocca l'aggiornamento di studio 3.10 caso 3: Polyp conta ancora una volta 3.11 punti di partenza 3.12 Esercizi 4 Gibbs campionamento 4.1 Introduzione di studio 4.2 caso 4: Un modello di regressione per i punteggi del dolore 4.3 coniugati priori 4.4 Gibbs campionamento con distribuzioni non standard 4.4.1 campionamento Griddy 4.4.2 Fetta campionamento 4.4.3 Adaptive rifiuto 4,5 GBS comandi 4.6 caso di studio 4 ha continuato: Laplace regressione 4.7 punti di partenza 4.8 Esercizi 5 valutare la convergenza 5.1 Introduzione 5.2 Rilevamento precoce deriva 5.3 Rilevamento troppo breve una corsa 5.3.1 assottigliamento della catena 5.4 esecuzione di più catene 5.5 convergenza delle funzioni dei parametri di studio 5.6 caso 5: prove beta-bloccante 5.7 Ulteriori letture 5.8 Esercizi 6 Convalida il codice Stata e una sintesi dei risultati 6.1 Introduzione 6.2 caso di studio 6: la regressione ordinale 6.3 Convalida i software 6.4 sintesi numeriche 6.5 grafica Sintesi 6.6 ulteriore lettura 6.7 Esercizi 7 analisi bayesiana con Mata 7.1 Introduzione 7.2 le basi di Mata 7.3 caso studio 6: Revisited 7.4 Case study 7: germinazione di succiamele 7.4.1 sintonia distribuzioni proposta 7.4.2 Uso distribuzioni condizionate 7.4.3 più efficiente calcolo 7.4.4 gerarchica centraggio 7.4.5 Gibbs campionamento 7.4.6 Fetta, Griddy, e le braccia di campionamento 7.4.7 Tempi 7.4.8 Aggiunta di nuove densità di logdensity () 7.5 Ulteriori letture 7.6 Esercizi 8 Uso WinBUGS per il modello montaggio 8.1 Introduzione 8.2 Installazione del software 8.2. 1 Installazione di OpenBUGS 8.2.1 Installazione WinBUGS 8.3 Preparazione di un'analisi WinBUGS 8.3.1 il file di modello 8.3.2 il file di dati 8.3.3 il file valori iniziali 8.3.4 il file di script 8.3.5 Esecuzione dello script 8.3.6 lettura dei risultati in Stata 8.3.7 Controllo del file di registro 8.3.8 file di dati di lettura WinBUGS studio 8.4 caso 8: la crescita di mucche di mare 8.4.1 WinBUGS o OpenBUGS 8.5 Case study 9: dimensioni Jawbone 8.5.1 Overrelaxation 8.5.2 Cambiare il seme per la di numeri casuali generatore di 8.6 Le caratteristiche avanzate di WinBUGS 8.6.1 dati mancanti 8.6.2 censura e troncamento 8.6.3 non standard verosimiglianze 8.6.4 priori non standard 8.6.5 La funzione di taglio () 8.7 GeoBUGS 8.8 Programmare una serie di bayesiano analizza 8,9 OpenBUGS sotto Linux 8.10 debug WinBUGS 8.11 punti di partenza 8.12 Esercizi 9 Model Checking 9.1 Introduzione 9.2 bayesiana analisi dei residui 9.3 Il comando mcmccheck 9.4 caso studio 10: Modelli di analisi Salmonella 9.4.1 Generare le previsioni in WinBUGS 4.4.2 Tracciare le distribuzioni predittivi 4.4.3 residua trame 4.4.4 trame probabilità empirica 4.4.5 Una trama sintesi 9.5 verifica residuo con Stata 9.6 controllo residuo con Mata 9.7 Ulteriori lette 9.8 Esercizi 10 di selezione dei modelli 10.1 Introduzione 10.2 Case study 11: La scelta di un genetici 10.2.1 modelli plausibili 10.2.2 Bayes fattori di 10.3 Calcolo di un BF 10.4 Calcolo del BFs per il caso di studio NTD 10.5 Robustezza della media di 10,7 criteri di informazione 10.8 DIC per i modelli genetici 10,9 punti di partenza 10.10 Esercizi 11 più ampia casistica 11.1 Introduzione 11.2 Case study 12 BF 10.6 Modello: Modellazione incidenza del cancro 11.3 Case study 13: clearance della creatinina 11.4 Case study 14: microarray esperimento di studio 11.5 caso 15: attacchi di asma ricorrenti 11.6 Esercizi 12 programmi di scrittura Stata per specifiche analisi bayesiana 12.1 Introduzione 12.1 Il bayesiano lasso 12.1 Il Gibbs campionatore 12.1 Il codice Mata 12.1 A adondashfile Stata 12.1 Test il caso di studio del codice 12.1 16: dati diabete 12.1 estensioni del bayesiana programma di lazo 12.1 Esercizi Un post standard distributionsThis è stato scritto in collaborazione con Yulia Marchenko, direttore esecutivo di Statistica, StataCorp. Tabella di teoria della risposta Contenuto Prodotto (IRT) è utilizzato per modellare il rapporto tra le capacità latenti di un gruppo di soggetti e gli elementi di esame utilizzati per misurare le loro abilità. Stata 14 ha introdotto una serie di comandi per i modelli IRT montaggio utilizzando massima verosimiglianza veda, ad esempio, il post del blog Riflettori su IRT da Rafal Raciborski e la IRT manuale Response Theory Articolo per maggiori dettagli. In questo post, dimostriamo come adattare modelli IRT binari bayesiano utilizzando l'opzione di ridefinire () ha introdotto per il comando bayesmh in Stata 14.1. Usiamo anche la possibilità dbernoulli probabilità () disponibile come dell'aggiornamento su 3 marzo 2016 per il montaggio distribuzione di Bernoulli. Se non si ha familiarità con i concetti e il gergo della statistica bayesiana, si consiglia di guardare i video introduttivi sul canale Youtube Stata prima di procedere. Usiamo la versione ridotta della matematica e dei dati scientifici provenienti da Deboeck e Wilson (2004), masc1. Il set di dati comprende 800 risposte degli studenti alle 9 domande del test destinati a misurare la capacità matematiche. La suite IRT si adatta modelli IRT utilizzando i dati sotto forma di larghezza 8211 un'osservazione per soggetto con voci registrate in variabili separate. Per adattare modelli IRT utilizzando bayesmh. abbiamo bisogno di dati in forma lunga, in cui gli elementi sono registrati come osservazioni multiple per ogni soggetto. Abbiamo quindi rimodellare il set di dati in una forma lunga: abbiamo una sola variabile risposta binaria, y. e due variabili indice, voce e id. che identificano gli oggetti e soggetti, rispettivamente. Questo ci permette di formulare i nostri modelli IRT come modelli multilivello. I seguenti comandi di caricamento e preparare il set di dati. Per garantire che includiamo tutti i livelli di voce e id nei nostri modelli, usiamo nessuno di base fvset di mantenere le categorie di base. In ciò che segue, vi presentiamo otto bayesiani modelli IRT binari in aumento in complessità e potere esplicativo. Eseguiamo confronto modello bayesiano al fine di conoscere quale sarebbe il modello più appropriato per i dati a portata di mano. Per i modelli di alta-dimensionale, come modelli IRT, è possibile vedere le differenze nei risultati di stima tra le diverse piattaforme o diversi gusti di Stata a causa della natura del campionamento catena di Markov Monte Carlo (MCMC) e finito precisione numerica. Queste differenze non sono una fonte di preoccupazione saranno nel range di variabilità MCMC e porterà ad analoghe conclusioni inferenziali. Le differenze diminuirà le MCMC crescere della dimensione del campione. I risultati in questo post sono ottenuti da StataSE sulla piattaforma Linux a 64 bit utilizzando il MCMC dimensione del campione di default 10.000. Lasciate che gli elementi essere indicizzati dai (i1, punti, 9) ed i soggetti da (J1, punti, 800). Let (thetaj) essere il latente capacità matematiche di soggetto (j), e lasciare che (Y) sia la risposta del soggetto (j) al punto (i). Nel modello a un parametro logistica (1PL), la probabilità di ottenere una risposta corretta è modellata come una funzione inversa-logit dei parametri di localizzazione (BI), chiamati anche le difficoltà voce, e un parametro pista comune (a), chiamato anche il punto discriminazione: in genere, le capacità si presume essere normalmente distribuito: thetaj sim (0,1) In un quadro multilivello, i (thetaj) 8217s rappresentano effetti casuali. In un contesto bayesiano, si usa il termine effects8221 8220random per riferirsi ai parametri corrispondenti ai livelli di raggruppamento variabili che identificano la gerarchia dei dati. Una formulazione Bayesiano del modello 1PL richiede anche specifiche preventiva per i parametri del modello (a) e (bi). Il parametro di discriminazione (a) viene considerato positivo ed è spesso modellata in scala logaritmica. Perché non abbiamo alcuna conoscenza preliminare sui parametri di discriminazione e di difficoltà, si assume che le precedenti distribuzioni di (ln (a)) e (BI) hanno il supporto su tutta la retta reale, sono simmetriche, e sono centrate a 0. Un normale prima distribuzione è quindi una scelta naturale. Abbiamo inoltre ipotizzare che (ln (a)) e (bi) sono vicini 0 e hanno prima varianza di 1, che è una decisione totalmente personale. Abbiamo quindi assegniamo (ln (a)) e (BI) standard di normali distribuzioni precedenti: Per specificare la funzione di verosimiglianza del modello 1PL in bayesmh. usiamo una specifica equazione non lineare per la variabile di risposta a. La specifica non lineare diretta per questo modello è dove è il parametro di discriminazione (a), siano abilità latenti (thetaj), e sono le difficoltà voce (BI). Il modello logit è utilizzato per la probabilità di un successo, (P (Y 1)). Specifica in quanto sopra espressione non lineare è visto come espressione sostituibili per le combinazioni lineari di indicatori associati con la variabile id e parametri (thetaj). Questa specifica può essere computazionalmente proibitivo con un gran numero di soggetti. Una soluzione più efficace è quella di utilizzare l'opzione ridefinire () per includere gli effetti casuali soggetto (thetaj) nel modello. Lo stesso discorso può applicare alla specifica quando ci sono molti elementi. Così, può essere computazionalmente conveniente trattare i parametri (BI) come 8220random effects8221 nella specifica e utilizzare l'opzione ridefinire () per includerli nel modello. Una specifica più efficiente è quindi dove e nella specificazione lineare rappresentano ora la (thetaj) e parametri (bi), rispettivamente, senza utilizzare espansioni in combinazioni lineari delle variabili indicatore. Qui di seguito, vi mostriamo le specifiche bayesmh completa del modello 1PL e la sintesi di uscita. Nei nostri esempi, trattiamo le abilità come parametri di disturbo e di escludere dai risultati finali. Il parametro del modello di discriminazione deve essere positivo ed è quindi inizializzato con 1. A più lungo periodo di invecchiamento, Burnin (5000). permette più adattamento del campionatore MCMC, necessaria dato l'elevato numero di parametri del modello. Infine, i risultati di stima vengono memorizzati per il confronto modello successivo. L'efficienza di campionamento è accettabile, circa 6 in media, senza alcuna indicazione di problemi di convergenza. Anche se l'ispezione convergenza dettagliata di tutti i parametri è fuori della portata di questo post, si consiglia di farlo utilizzando, ad esempio, il comando di diagnostica bayesgraph. Anche se abbiamo usato priori informativi per i parametri del modello, i risultati delle stime del nostro modello bayesiano non sono così diverse dalle stime di massima verosimiglianza ottenute utilizzando il comando IRT 1 pl (vedi esempio 1 a 1 pl IRT IRT). Ad esempio, la parte posteriore significa stima è 0,86 con un errore standard MCMC di 0,003, mentre 1pl IRT riferisce 0.85 con un errore standard di 0,05. La probabilità di log-marginale è dato per disperso, perché abbiamo escluso i parametri dai risultati della simulazione e lo stimatore di Laplace-Metropolis della probabilità log-marginale non è disponibile in questi casi. Questo stimatore richiede risultati della simulazione per tutti i parametri del modello per calcolare la probabilità di log-marginale. Il modello a due parametri logistici (2PL) estende il modello 1PL, consentendo di discriminazione specifici voce. La probabilità di risposta corretta è ora modellata in funzione di parametri specifici voce pendenza (AI): P (Y 1) frac La specifica preliminare per (thetaj) rimane lo stesso come nel modello 1PL. Noi, tuttavia, si applicano le specifiche precedenti più elaborati per i 8217s (AI) e 8217s (BI). Si tratta di una buona pratica di utilizzare le specifiche precedenti corrette senza sopraffare l'evidenza dai dati. L'impatto priori può essere controllata introducendo iperparametri aggiuntivi. Ad esempio, Kim e bullone (2007) ha proposto l'uso di un normale preventiva per i parametri difficoltà con Sconosciuto media e varianza. Estendendo questo approccio per i parametri di discriminazione e, applichiamo un modello bayesiano gerarchico in cui il (ln (AI)) e (BI) parametri hanno le seguenti caratteristiche precedenti: ln (AI) sim (MUA, sigmaa2) sim bi (MUB , sigmab2) I iperparametri medi, (MUA) e (MUB), e iperparametri varianza, (sigmaa2) e (sigmab2), richiedono specifiche precedenti informative. Assumiamo che i mezzi sono centrati a 0 con una variazione di 0,1: mua, sim MUB (0, 0,1) Per ridurre la variabilità del (ln (ai)) e parametri (bi), si applica un inverso-gamma preventiva forma 10 e scalare 1 per i parametri di varianza: Così, la media precedente di (sigmaa2) e (sigmab2) è di circa 0,1. Nella specifica bayesmh, le iperparametri (MUA), (MUB), (sigmaa2), e (sigmaa2) sono indicati come. . . e . rispettivamente. Usiamo il ridefinire (discrim: i. item) opzione per includere nel modello i parametri di discriminazione (AI), indicati come nella specifica verosimiglianza. Per quanto riguarda la simulazione MCMC, cambiamo alcune delle opzioni predefinite. I iperparametri. . . e sono collocati in blocchi separati per migliorare l'efficienza di simulazione. I parametri di discriminazione deve essere positivo e sono quindi inizializzato con 1s. L'efficienza di simulazione media è di circa 5, ma alcuni dei parametri convergono più lento degli altri, come. che ha il più grande errore standard MCMC (0,02) tra i parametri di difficoltà. Se questo è stato uno studio rigoroso, per abbassare gli errori standard MCMC, si consiglia simulazioni più lunghe con MCMC dimensioni del campione di almeno 50.000. Siamo in grado di confrontare i modelli 1PL e 2PL utilizzando il criterio informazioni devianza (DIC) disponibile con il comando ic bayesstats. DIC è spesso usato nella selezione del modello Bayesiano come alternativa al AIC e BIC criteri e può essere facilmente ottenuto da un campione MCMC. Grandi campioni MCMC produrre stime più affidabili DIC. Poiché diversi campioni MCMC producono diversi valori campione DIC e l'errore di approssimazione del campione nel calcolo DIC non è noto, non si dovrebbe fare affidamento esclusivamente su DIC quando si sceglie un modello. I valori inferiori indicano DIC migliore vestibilità. Il DIC del modello 2PL (8.055) è nettamente inferiore alla DIC del modello 1PL (8122), il che implica una migliore adattamento del modello 2PL. Il modello a tre parametri logistici (3PL) introduce parametri più bassi Asymptote (CI), chiamati anche parametri indovinare. La probabilità di dare una risposta corretta è data da I parametri indovinare può essere difficile stimare con massima verosimiglianza. Infatti, il comando 3pl IRT con l'opzione sepguessing non riesce a convergere, come è possibile verificare digitando sul set di dati originale. E 'quindi importante specificare una prima informativa per (CI). Partiamo dal presupposto che la media prima dei parametri di indovinare è di circa 0,1 e quindi applicare CI sim (10, 1) Analogamente ai parametri di discriminazione e di difficoltà, le (CI) 8217s vengono introdotti come parametri di effetti casuali nella specifica bayesmh e si riferiscono come nella specifica verosimiglianza. A differenza dei modelli 1PL e 2PL, non possiamo usare l'opzione probabilità (logit) per modellare la probabilità di successo perché la probabilità di risposta corretta non è più una trasformazione inversa-logit dei parametri. Invece, usiamo verosimiglianza (dbernoulli ()) per modellare la probabilità di successo di un esito Bernoulli direttamente. Per avere una valida l'inizializzazione del campionatore MCMC, abbiamo assegnare i (CI) 8217s valori iniziali positivi, 0.1. Il posteriore stimato mezzi della gamma (CI) 8217s tra 0,08 e 0,13. Chiaramente, l'introduzione di parametri indovinare ha un impatto sui parametri oggetto discriminazione e difficoltà. Ad esempio, la parte posteriore stimata mezzi di (MUA) e (MUB) passaggio dalla rispettivamente -0.10 e -0.07, per il modello 2PL rispettivamente 0,11 e 0,08, per il modello 3PL. Poiché i parametri indovinare stimati non sono così diverse, ci si può chiedere se i parametri indovinare specifici voce sono veramente necessari. Per rispondere a questa domanda, ci collochiamo un modello con un parametro di indovinare comune. e confrontarlo con il modello precedente. Possiamo confrontare nuovamente i due modelli 3PL utilizzando il comando bayesstats ic: Anche se i dics stimate dei due modelli 3PL sono essenzialmente le stesse, decidiamo a scopo dimostrativo di procedere con il modello con i parametri indovinare specifici elementi. La logistica modello a quattro parametri (4PL) estende il modello 3PL con l'aggiunta di parametri Asymptote superiore specifici per voce (di): P (Y 1) CI (di-ci), ci passi Consulenza Hi Nikolay e Yulia, ho voluto provare utilizzando l'esempio per specificare un modello di Rasch, che sembra corretto (le stime dei parametri sono anche abbastanza vicino a quelli derivati ​​da jMetrik utilizzando gli stessi dati): webuse masc1, qui chiaro: g int id n qui: rimodellare lungo q, i (id ) j (voce) di base fvset voce nessuno ID set di semi 14 d 1PL Esempio da post bayesmh q ((-)), probabilità (logit) ridefinire (diff: i. item) ridefinire (Ogg: i. id) prima (, normale (0, 1)) prima (, lognormale (0, 1)) prima (, normale (0, 1)) init (1) esclude () Burnin (5000) Rasch esempio sulla base di post sul blog bayesmh q (1 (- )), probabilità (logit) ridefinire (diff: i. item) ridefinire (Ogg: i. id) prima (, normale (0, 1)) prima (, normale (0, 1)) escludere () Burnin (5000) Tuttavia, isn8217t altrettanto chiaro come si potrebbe ricavare statistiche infitoutfit, residui per la persona e voce preventivi, o il modo migliore per risolvere la persona stima (ad esempio, utilizzando il punteggio somma attraverso articoli). Sembra che le stime in questo esempio sono tutti i derivati ​​bayesiani dello stimatore MLE marginale, ma c'è un modo per soddisfare gli stessi modelli utilizzando il MLE comune (per i casi in cui i parametri di persona hanno bisogno di essere stimato, allo stesso tempo come il parametri voce) Ultimo, c'è qualche possibilità per un follow-up a questo post che potenzialmente dimostrare come adattare molti modelli sfaccettatura Rasch Andor modelli IRT multidimensionali utilizzando bayesmh (entrambi i casi sarebbe piuttosto sorprendente vedere) Grazie ancora e bel lavoro sulla post sul blog, Billy Vedere le nostre risposte a ciascuna delle vostre domande qui sotto. La vostra specifica del modello di Rasch è corretto. Cioè, per il nostro esempio matematica e la scienza dei dati, un modello di Rasch può essere specificato come. bayesmh y (-), probabilità (logit) gt ridefinire (Ogg: i. id) ridefinire (delta: i. item). Qui, abbiamo etichettato i parametri specifici voce come 8220delta8221 invece di 8220diff8221 come nel nostro esempio 1PL per sottolineare che le stime di questo modello di Rasch saranno diversi rispetto a quelli del modello 1PL montato. Ci sono anche ulteriori dettagli su come adattare un modello di Rasch usando bayesmh e il suo legame con il modello 1PL IRT nell'esempio 28 in BAYES bayesmh. 2. la stima congiunta dei parametri persona - e specifici voce bayesmh non stimare i parametri specifici persona e specifici voce congiuntamente. Nei nostri esempi IRT, non siamo stati interessati alle stime specifiche per persona in modo che abbiamo usato l'opzione di escludere () per escluderli dai risultati finali. Se non si utilizza questa opzione, le stime specifiche per persona verranno salvate con tutte le stime MCMC e verranno visualizzati nella tabella di stima. 3. Outfitinfit statistiche e residui in quadro Bayesiano, modello statistiche di adattamento sono ottenuti utilizzando una distribuzione predittiva cosiddetta posteriori, la distribuzione del risultato Y dato dati osservati y. A p-valore predittivo posteriore associata ad una statistica di interesse è spesso usato per definire l'accesso in forma. Noi non crei un blog di follow-up circa Bayesiano posteriore valutazione predittiva dei modelli IRT. 4. Modelli Rasch Molte facce e modelli IRT multidimensionali visualizzando modelli Rasch molti sfaccettature come avere ulteriori parametri 8220random-effects8221, possiamo estendere le specifiche di base semplicemente aggiungendo più termini degli effetti casuali. Continuando il nostro esempio di un modello di Rasch, supponiamo che ci sia un altro 8220facet8221 rappresentata da un compito variabile nel set di dati. id operazione elemento q 821282128212821282128212- 1 1 1 0 1 1 2 1 8230 100 10 5 0 Abbiamo semplicemente aggiungere i parametri casuali effetti associati con il compito di nostra specifica modello come segue:. fvset base di nessuno elemento attività id. bayesmh q (-), probabilità (logit) gt ridefinire (Ogg: i. id) gt ridefinire (compito: i. task) gt ridefinire (delta: i. item). Nel contesto IRT, il corrispondente modello di IRT 2-dimensionale potrebbe essere in forma come segue. (Usiamo la specificazione di un modello multidimensionale IRT data dalla formula (3) in Reckase (2007, p. 612).). fvset base di nessuno elemento attività id. bayesmh q (), probabilità (logit) gt ridefinire (Ogg: i. id) gt ridefinire (compito: i. task) gt ridefinire (d: i. item). dove i parametri e sono comuni a tutti gli elementi. Se volessimo fare questi parametri oggetto specifico, possiamo usare le seguenti specifiche:. fvset base di nessuno elemento attività id. bayesmh q (), probabilità (logit) gt ridefinire (Ogg: i. id) gt ridefinire (compito: i. task) gt ridefinire (d: i. item) gt ridefinire (a1: i. item) gt ridefinire (A2: i. item). È possibile estendere i modelli di cui sopra in un modo semplice per ospitare più sfaccettature o dimensioni. Reckase, M. D. 2007. Articolo multidimensionale Response Theory. In Vol. 26 del Manuale di Statistica: Psicometria, ed. C. R. Rao e S. Sinharay, 607-642. Amsterdam: Elseiver. 8212 Nikolay e Yulia Hi Nikolay e Yulia, impressionante. Penso we8217re parlare di cose leggermente diverse per quanto riguarda 3. Here8217s estremamente breve spiegazione delle statistiche infitoutfit dalla Rasch prospettiva: rasch. orgrmtrmt162f. htm così come un estratto parzialmente utile da Wright, BD Masters amp, GN (1982) . Valutazione Analisi Scala. Chicago, IL: MESA Press: rasch. orgrmtrmt34e. htm. Le statistiche infitoutfit vengono utilizzati per prendere decisioni circa retainingdropping un elemento dalla bankcalibration scoringitem e in una certa misura gli analoghi persona di queste statistiche potrebbero essere utili per individuare possibili casi di irregolarità di test (ad esempio, uno studente con basso theta rispondendo correttamente e le domande più semplici domande difficili a livelli casuali, etc8230). Niente I8217ve letto finora ha parlato di una bontà stile omnibus di forma, e la discussione (almeno con la gente del campo Rasch) tende ad essere invertita nel testare quanto bene i dati di adattamento del modello (invece di come il modello si adatta i dati). In entrambi i casi, questo è impressionante e tempestivo (c'era un confronto delle capacità Stata8217s bayesiani per JAGS e Stan su Andrew Gelman8217s blog di oggi). Se it8217s possibile per tirare fuori un altro potenziale idea per un futuro post del blog, se isn8217t troppo disturbo qualche cosa che dimostra il montaggio tutti i modelli di classe latente modelli di misurazione della miscela eo sarebbe veramente eccezionale. Grazie ancora, Billy Hi Nikolay e Yulia, come una breve follow-up per quanto riguarda le MLE e InfitOutfit statistiche congiunte, ho messo insieme una rapida dimostrazione di alcune delle differenze che ho osservato. Il programma è un wrapper che passava i dati da Stata in alcune delle classi utilizzate da jMetrik (vedi githubmeyerjp3psychometrics per maggiori informazioni) per adattarsi al modello di Rasch con il comune per la stima di massima verosimiglianza (così come i valori per infitoutfit). Il programma crea anche le variabili nei set di dati in memoria con le stime a livello di persona di theta, SE intorno theta, e le statistiche infitoutfit livello persona: raschjmle rete ist, da (8220paces-consulting. orgstata8221) webuse masc1.dta, Iterazione chiaro Delta verosimiglianza 1 0,502591842208104 -3402,304331969046 2 0,142412255554409 -3397,822027114892 3 0,020979991419945 -3397,719031584525 4 0,003561687956111 -3397,716620516149 5 0,000591506681447 -3397,716599152711 Articolo difficoltà Std. Errore WMS Std. WMS UMS Std. UMS q1 -0,40 0,08 0,85 -4,32 0,84 -2,86 Q2 0,11 0,08 1,03 1,04 1,05 1,04 q3 -1,36 0,10 0,93 -1,39 0,86 -1,39 q4 0,49 0,08 0,99 -0,25 1,02 0,38 Q5 1,66 0,09 0,93 -1,54 1,02 0,28 Q6 0,82 0,08 0,93 -2,05 0.95 -0.82 q7 1,37 0,09 1,10 2,42 1,17 1,99 Q8 -1,87 0,11 0,77 -3,81 0,85 -1.14 q9 -0,81 0,09 1,04 1,04 1,13 1,66 scala di qualità statistica statistiche Oggetti Persone osservato varianza 1,3031 1,4411 osservato Std. Dev. 1,1415 1.2005 Mean Square Error 0,0080 0,7097 0,0894 0,8425 Root MSE rettificato Varianza 1,2951 0,7314 rettificato Std. Dev. 1,1380 0,8552 Indice di separazione 12,7235 1,0151 numero di strati 17,2980 1,6868 0,9939 0,5075 Affidabilità punteggio Theta Std. Err Come abbiamo accennato in precedenza, la formulazione bayesmh del modello di Rasch non stimare i parametri specifici per voce e specifici persona congiuntamente. Le stime bayesiana dei parametri devono essere ragionevolmente vicino a quelli ottenuti utilizzando stima congiunta massima verosimiglianza. Alcuni differenza tuttavia sono consentite dovute all'uso di distribuzioni precedenti informative nella specificazione del modello Bayesiano. Le stime si report utilizzando il comando raschjmle sono significativamente diverso però. Credo che la ragione di questo è che 8216s raschjmle stime sono centrati. Ad esempio, se il centro della posteriori stime medie riportate da bayesmh i risultati sembrano essere d'accordo. Qui di seguito vi mostro l'intero Bayesiano specificazione del modello seme set 14 bayesmh q (1 (-)), probabilità (logit) ridefinire (diff: i. item) ridefinire (Ogg: i. id) prima (, normale (0, 1)) precedente (, normale (0, 1)) escludere () Burnin (5000) punti di risparmio (SIM1, sostituire) Con le seguenti poche righe di codice che ho centrare il stime medie posteriori per le difficoltà voce ed elencarli. matrix MITEM e (media) chiara svmat MITEM, nome (articolo) Articolo summ, meanonly gen voce CITEM - R (media) Lista 82128212821282128212821282128211 item1 CITEM 82128212821282128212821282128211 1. -.6146172 -.4006386 2. -.104734 0,1092,446 mila 3. -1,578288 -1,364309 4. .2841987 .4981773 5. 1,444101 1,65808 82128212821282128212821282128211 6. .6083501 .8223287 7. 1,159187 1,373166 8. -2.090234 -1,876255 9. -1,033772 -.8197934 82128212821282128212821282128211 Grazie ancora per le informazioni aggiuntive. Ho pensato che ci possono essere state differenze più sostanziali tra gli algoritmi MLE marginali e congiunte per la stima dei parametri di voce e di persona, ma questo aiuta sicuramente un bel po '. Grazie ancora, Billy Ciao, apprezzo molto questo post e il lavoro che avete fatto su questi modelli. Ho un problema molto più semplice. Nel tentativo di creare un semplice modello IRT Bayesiano con i dati che ha 37.000 osservazioni con 10 domande ciascuno. Ogni volta che tenta di eseguire il 1PL sopra delineato, ottengo il seguente errore: variabile id è mancante o contiene valori non interi R (198). I8217m sicuro che questo ha qualcosa a che fare con il modo in cui id viene memorizzato, ma I8217ve ancora capire come correggere questo. Bella presentazione alla conferenza Stata Nikolay. Decisamente fresco per ottenere un po 'più spiegazione delle cose e vedere altri usi delle tecniche. Grazie Billy. Era piacere incontrarvi a Chicago. Fare commercio è estremamente redditizio quando si utilizzano le tecniche e le giuste strategie e anche frustrante per coloro che non hanno sistema migliore al commercio e fornitore di segnale. If you need an assistance in doing a beneficiary trade and you are losing out all your investment instead of gaining, there is still a big hope for you to recover all your lost funds.(Some traders will tell you that is either you loose or gain) in my case loosing and failure is not an option8230You can contact me if interested on (adelinamorgan3310gmaildotcom) Your assurance on gaining instead of losing is 95 on binary trade or forex. Take a try and thank me. Hi Nikolay and Yulia, I have a new questionsuggestion for a follow up to this post. How would one go about fitting Bayesian Partial Credit, Graded Response, andor Rating Scale models In particular I8217m thinking about applications related to Many Facet Rasch models where we would want to adjust the estimates of theta for the individual rater effects. Thanks again, Billy Are you generating the id variable as the row indices like the example above (e. g. g id n) That should work fairly consistently. Also, if you post the exact code you used it will be much easier for others to give you advicehelp.

No comments:

Post a Comment