close
Warning:
Can't synchronize with repository "(default)" (/var/svn/tolp does not appear to be a Subversion repository.). Look in the Trac log for more information.
- Timestamp:
-
Jan 6, 2011, 3:19:14 PM (14 years ago)
- Author:
-
Víctor de Buen Remiro
- Comment:
-
--
Legend:
- Unmodified
- Added
- Removed
- Modified
-
v19
|
v20
|
|
5 | 5 | == Introducción == |
6 | 6 | |
7 | | Los métodos tradicionales de post-procesado de cadenas de simulación basados en el burn-in y el thinning son demasiado arbitrarios para poder parametrizarlos de forma automática sin intervención del usuario. Además no solucionan uno de los principales problemas de los métodos accept-reject basados en paseos aleatorios, que es la alternacia de fases con exceso de repeticiones por usar un tamaño de paso demasiado grande con otras fases en las que se avanza poco en cada iteración por todo lo contrario. |
| 7 | Los métodos tradicionales de post-procesado de cadenas de simulación, basados en técnicas como ''burn-in'' y ''thinning'', son demasiado arbitrarios para poder parametrizarlos de forma automática sin intervención del usuario. Además no solucionan uno de los principales problemas de los métodos ''accept-reject'' con generadores de candidatos sobre paseos aleatorios, que es la alternacia de fases con exceso de repeticiones por usar un tamaño de paso demasiado grande, con otras fases en las que, por todo lo contrario, se avanza poco en cada iteración. |
8 | 8 | |
9 | 9 | Las cadenas simuladas con BysSampler cuentan con una ventaja adicional al conocerse el logaritmo de la verosimiltud de cada punto muestral, salvo una constante aditiva, pues esto permite contrastarla directamente con la masa local empírica, es decir el número de puntos que han sido generados en sus cercanías. |
… |
… |
|
45 | 45 | === Aproximación de la probabilidad del entorno local === |
46 | 46 | |
47 | | La anterior integral sería algo muy costoso de evaluar así que hay que aproximarla por el método de Montecarlo, como el producto de la media de las verosimilitudes en un conjunto de puntos del entorno por el hipervolumen del mismo |
| 47 | La anterior integral sería algo muy costoso de evaluar así que hay que aproximarla por el método de Montecarlo, como el producto del volumen de la hiperesfera |
| 48 | |
| 49 | [[LatexEquation( V\left(\Omega_{i}\right)=\frac{\pi^{\frac{n}{2}}}{\Gamma\left(\frac{n}{2}+1\right)}r_{i,k}^{n} )]] [[BR]] |
| 50 | |
| 51 | por la media de las verosimilitudes en una selección de puntos del entorno por el hipervolumen del mismo |
48 | 52 | |
49 | 53 | [[LatexEquation( p_{i}=\frac{1}{N}\underset{j=1}{\overset{N}{\sum}}\pi\left(z_{i,j}\right)V\left(\Omega_{i}\right)\wedge z_{i,j}\in\Omega_{i}\forall j=1\ldots N\wedge i=1\ldots S' )]] |
50 | | |
| 54 | |
51 | 55 | El error en este tipo de aproximaciones decrece proporcionalmente a la raíz del número de puntos en el que evaluamos la verosimilitud pero sólo tenemos [[LatexEquation( h_{i} )]] puntos interiores. Por otra parte tampoco conocemos la verosimilitud sino una función porporcional a la misma. Es decir, lo único conocemos sin coste adicional es el logaritmo de la verosimilitud, salvo una constante [[LatexEquation(\lambda_0)]] desconocida, evaluado en cada uno de los puntos muestrales, es decir, conocemos |
52 | 56 | [[LatexEquation( \ln\pi_{i}=\ln\pi\left(x_{i}\right)+\lambda_0 )]] [[BR]][[BR]] |
… |
… |
|
62 | 66 | [[LatexEquation( \ln\tilde{\pi}\left(z\right)=\frac{\underset{j=0}{\overset{k}{\sum}}w_{j}\left(z\right)\ln\pi_{i,j}}{\underset{j=0}{\overset{k}{\sum}}w_{j}\left(z\right)}\wedge y_{i,0}=x_{i}\wedge\pi_{i,0}=\pi_{i}\wedge w_{j}\left(z\right)=\left\Vert z-y_{i,j}\right\Vert ^{-2} )]] |
63 | 67 | |
64 | | Si el número [[LatexEquation( k+1 )]] de puntos básicos de la interpolación [[LatexEquation( y_{i,j} \wedge j=0 \dots k)]], es menor o igual que la dimensión del espacio [[LatexEquation( n )]] la anterior aproximación no es lo suficientemente flexible, pero eso es facil de evitar añadiendo más puntos básicos, simplemente tomando sus vecinos, los vecinos de sus vecinos y así sucesivamente hasta que haya al menos [[LatexEquation( n )]] puntos básicos distintos. Gracias al algoritmo KNN esto no supondrá apenas ningún sobrecoste. |
| 68 | En el caso unidireccional cualquier método de interpolación requiere [[LatexEquation( \tau+1 )]] |
| 69 | |
| 70 | Si el número [[LatexEquation( k+1 )]] de puntos básicos de la interpolación [[LatexEquation( y_{i,j} \wedge j=0 \dots k)]], es demasiado pequeño se puede ampliar con sus vecinos, los vecinos de sus vecinos y así sucesivamente hasta que haya suficientes puntos básicos distintos. Gracias al algoritmo KNN esto no supondrá apenas ningún sobrecoste. |
65 | 71 | |
66 | | Como el volumen de la hiperesfera es proporcional a |
67 | | [[LatexEquation( r^n_{i,k} )]] [[BR]] |
68 | | |
69 | | nos queda la fórmula de aproximación |
| 72 | Nos queda finalmente la fórmula de aproximación |
70 | 73 | |
71 | 74 | [[LatexEquation( \ln p_{i}=\mu_{0}+\nu_{i} )]] |
… |
… |
|
93 | 96 | Así pues tendremos el problema de optimización univariante |
94 | 97 | |
95 | | [[LatexEquation(\underset{\mu_{0}}{\max}\left\{ L\left(\mu_{0}\right)\right\} )]] |
| 98 | [[LatexEquation(\underset{\mu_{0}}{\max}\left\{ L\left(\mu_{0}\right) = \underset{i=1}{\overset{S'}{\sum}}s_{i}\left(\ln\left(\begin{array}{c}S\\h_{i}\end{array}\right)+h_{i}\left(\mu_{0}+\nu_{i}\right)+\left(S-h_{i}\right)\ln\left(1-e^{\mu_{0}+\nu_{i}}\right)\right)\right\} )]] |
96 | 99 | |
97 | 100 | Sujeto a |
… |
… |
|
112 | 115 | [[LatexEquation( \mathrm{Pr}\left[\eta_{i}\leq h_{i}\right] )]] |
113 | 116 | |
114 | | sea muy alta habrá que eliminar puntos, empezando por los repetidos, hasta que se entre dentro de un margen razonable ... |
| 117 | sea muy alta habrá que eliminar puntos, empezando por los repetidos, hasta que se entre dentro de un margen razonable ... (a pensar!) |
115 | 118 | |
116 | 119 | == Estrategia de recolonización == |