| | 64 | |
| | 65 | Además de la definición de la clase de modelos hay que planificar también la metodología de |
| | 66 | estimación, diagnosis y métodos de inferencia de la forma más general posible: |
| | 67 | |
| | 68 | * Chequeo previo: Comprobación de que el diseño del modelo es coherente con la clase establecida |
| | 69 | * Ausencia de colinealidades |
| | 70 | * Existencia de soluciones factibles |
| | 71 | * Compatibilidad de la región factible con la verosimilitud del modelo |
| | 72 | * Estimación: |
| | 73 | * Simulación MCMC: Generación de cadenas de Markov de Montecarlo. |
| | 74 | * División en bloques de Gibbs: Debe haber un proceso maestro (master) que se encargue de disparar |
| | 75 | la generación de cada bloque según una estrategia dada (secuencial, aleatoria o arbitraria) |
| | 76 | * Generación dentro de cada bloque tipo Metropolis-Hastings y derivados mediante BysSampler, |
| | 77 | basado únicamente en el logaritmo, salvo una constante, de la función de densidad condicionada |
| | 78 | por el resto de bloques. |
| | 79 | * Estimación parcial: |
| | 80 | * Fijación de parámetros |
| | 81 | * Recarga de estimaciones anteriores |
| | 82 | * Implementación de las restricciones de igualdad |
| | 83 | * Máximo probable: Maximizar la verosimilitud conjunta condicionada por la información a priori y |
| | 84 | las restricciones de igualdad y desigualdad lineales y no lineales. |
| | 85 | * Como objetivo en sí mismo en los casos en los que tenga sentido, es decir, cuando la distribución |
| | 86 | asintótica se sabe que es por construcción similar a la distribución a posteriori, pero resulte |
| | 87 | notablemente más rápida. |
| | 88 | * Como paso previo a la simulación desde un punto inicial que acelere la convergencia |
| | 89 | * Como distribución asintótica para generar muestras independientes de forma que la salida sea |
| | 90 | análoga a la de la simulación MCMC para poder ser utilizada por los métodos de diagnosis e |
| | 91 | inferencia baysianas. |
| | 92 | * Diagnosis: |
| | 93 | * Chequeo de convergencia |
| | 94 | * Raftery: Autocorrelación de la muestra |
| | 95 | * Gelman: Muestras paralelas |
| | 96 | * [wiki:OfficialTolArchiveNetworkBysSamplerPostProccess Postprocesado de cadenas] basado en la |
| | 97 | verosimilitud que debe ser almacenada junto con la cadena |
| | 98 | * Chequeo de las hipótesis del modelo |
| | 99 | * Distribución de los parámetros |
| | 100 | * Distribución de los residuos |
| | 101 | * Inferencia bayesiana: hay que potenciar el uso de la inferencia bayesiana, pues de los resultados |
| | 102 | de BSR se está usando sólo la media, lo cual es un desperdicio. |
| | 103 | * Cálculo de estadísticos no lineales mediante MCMC |
| | 104 | * Decisión bayesiana |
| | 105 | |