Verification bias can occur if some of the patients with test results are not selected to receive the gold standard procedure. Unverified cases frequently are not suggestive to be positives. Consequently, the set of verified cases overestimates the number of true positives and underestimates the number of true negatives. The sensitivity and specificity estimates based only on the patients with verified disease are often biased. In this work, we derive unbiased estimators for sensitivity and specificity using a Bayesian approach. Marginal posterior densities of all parameters are estimated using the Gibbs sampler algorithm. An application to the study of accuracy of Hybrid Capture II in the diagnosis of cervical intraepithelial neoplasia grade 2 and 3 illustrates the proposed methodology.
Las regiones de tolerancia son de amplio uso en la industria, siendo quizá la principal aplicaión el Control de Calidad, en donde se busca garantizar, para una multiplicidad de variables en estudio, el cumplimiento de ciertos estándares. Otra importante aplicación consiste en la utilización de las regiones de tolerancia como elementos de decisión sobre la pertenencia de ciertas muestras a determinadas poblaciónes. Aunque para la familia de distribuciónes normal, el problema de las regiones de tolerancia parece resuelto, los procedimientos existentes no son distribuciónalmente robustos ya que son extremadamente sensibles a pequeños alejamientos del supuesto de normalidad. Más precisamente, la presencia de una sola observación atípica puede modificar en gran medida la región hallada, debido a cambios en la estimación de la matriz de covarianza y de la media, alterando la cobertura real de dicha región o el nivel de confianza de la misma. La pregunta es, por lo tanto, si el contenido q es todavía una cota inferior válida para la probabilidad de cobertura de la región de tolerancia basada en la media muestral y la matriz de covarianza muestral. En general, la respuesta es negativa. En el caso univariado, los límites de tolerancia no son ni siquiera aproximadamente válidos cuando nos alejamos de la hipótesis de normalidad, como fue observado por Butler (1982), Canavos & Koutraouvaelis (1984), Fernholz & Gillespie (2001) y las referencias citadas allí. En esta charla abordaremos el problema de estudiar las propiedades de robustez de regiones de tolerancia definidas para datos normales multivariados. Se estudiará el comportamiento de las regiones clásicamente usadas ante la presencia de datos atípicos internos (inliers) y externos (outliers). Dicho estudio permite mostrar la falta de robustez del procedimiento tradicionalmente utilizado. Para resolver, la sensibilidad de estas regiones, se propondrá una version robusta de las regiones clásicas y se calcularán los factores necesarios para la determinación de dichas regiones. Por otra parte, un estudio de la función de influencia permite analizar la sensibilidad a datos atípicos de las propuestas consideradas. Basado en ese hecho y con el objetivo de obtener procedimientos menos sensibles a datos atípicos, propondremos regiones de tolerancia basadas en estimadores robustos de posición y escala. Para el caso particular de los estimadores de Donoho–Stahel, se calculan numéricamente los factores de tolerancia para distintos valores de cobertura y niveles de confianza. Un análisis de sensibilidad preliminar análogo al realizado con el estimador clásico permite mostrar la ventaja de utilizar este tipo de procedimiento. Por último, un estudio de simulación permite comparar la cobertura real de las regiones clasicas y robustas cuando las observaciones provienen de una distribución normal y de distribuciones alternativas.
–
Room P3.31, Mathematics Building
Isabel Rodrigues, Departamento de Matemática, Instituto Superior Técnico
Em alguns métodos estatísticos, como é por exemplo o caso da análise discriminante, poderá ser importante a comparação da estrutura de covariâncias de duas ou mais populações. Muitas vezes a suposição de igualdade das matrizes de covariâncias é claramente inadequada e a estimação das matrizes em separado não respeita o princípio da parcimónia. Com alternativa, alguns autores, com foi o caso de Flury (1988), estudaram modelos com estruturas de covariâncias comuns. Um deste modelos é conhecido como Componentes Principais Comuns (Flury, 1984), por ser uma generalização das Componentes Principais para $k$ grupos e assume que as $k$ matrizes de covariâncias têm valores próprios diferentes mas vectores próprios idênticos. Mais restrito é o modelo proporcional onde se admite que as matrizes de covariâncias diferem apenas de uma constante. Em Flury (1988) foram deduzidos e estudados os estimadores de máxima verosimilhança dos parâmetros destes modelos e construídos testes de razão de verosimilhanças para validar relações entre a estrutura de covariâncias das populações. Contudo, tanto a estimação clássica dos parâmetros com os testes de razão de verosimilhança são em muitas situações sensíveis a observações discordantes. Alternativas robustas de estimação via “plug-in” (PI) e “projection-pursuit” (PP) foram estudadas por Boente, Pires e Rodrigues (2002, 2005a, 2005b). Neste trabalho são propostos alguns procedimentos robustos para testar relações entre as estruturas das covariâncias de k populações.
–
Room P3.31, Mathematics Building
Conceição Amado, Departamento de Matemática, Instituto Superior Técnico
O desenvolvimento de procedimentos inferenciais robustos baseados em reamostragem, quando o modelo gerador dos dados pertence a uma vizinhança de contaminação do modelo central Normal (univariado ou multivariado), é o objectivo deste trabalho. Para isso propõe-se a utilização da função de influência de um funcional de interesse na indução de um mecanismo de controlo no plano de reamostragem. Quando o modelo gerador dos dados não é o modelo central, não é evidente o cálculo de medidas de precisão de estimadores robustos, assim como a determinação da sua distribuição, mesmo que assintótica. A utilização do método de reamostragem bootstrap é uma alternativa para a estimação dessas medidas. Este método apresenta, contudo, vários problemas quando aplicado a estimadores robustos, exigindo assim um procedimento que permita ultrapassar essas dificuldades. Foi com esse intuito que se desenvolveu um novo método de reamostragem que se denominou bootstrap robusto. Através de várias aplicações do novo método mostra-se que ele origina estimativas robustas estáveis e é computacionalmente menos dispendioso que o bootstrap usual de um estimador robusto. Este novo método permite efectuar inferências robustas nas mais variadas áreas da Estatística.
The main obstacle in the application of the mean-variance portfolio selection is the fact that the moments of the asset returns are unknown. In practice the optimal portfolio weights are estimated by replacing these moments with the classical unbiased sample estimators. We provide a comparison of the exact and the asymptotic distributions of these estimated portfolio weights as well as a sensitivity analysis to shifts in the moments of the asset returns. Furthermore the paper compares the classical estimators of the moments of the asset returns with the recently proposed shrinkage estimators within the framework of portfolio selection. It is shown how the uncertainty about the portfolio weights can be introduced into the performance measurement of trading strategies. The methodology explains the bad out-of-sample performance of the classical Markowitz procedures.
About thirty years ago, Quasi-Birth-and-Death processes and Skip-Free Markov chains came to the attention of applied probabilists. One of their prominent features is that their analysis requires the resolution of nonlinear equations, involving matrix-polynomial or matrix power series. At first, these were tackled 'in-house' and very soon several algorithms appeared which had their justification grounded, to a large extent, in probabilistic thinking. Soon, these equations caught the attention of numerical analysts who brought to bear their own special way of thinking about such problems and, not surprisingly, obtained improved algorithms in terms of convergence speed or numerical accuracy. The interaction between the two lines of approach are very exciting and this is an attempt to illustrate how the one meshes into the other.
–
Room P3.31, Mathematics Building
Ana M. Bianco, IC/FCEN - Universidade de Buenos Aires
En este trabajo se propone un test robusto para el parámetro de regresión de un modelo logístico. El test propuesto es un test tipo Wald, basado en una versión pesada del estimador propuesto por Bianco y Yohai (1996) tal como fue implementado por Croux y Haesbroeck (2003). Se estudia la distribución asintótica del estadístico bajo la hipótesis nula y bajo alternativas contiguas. Se realiza un estudio Monte Carlo para investigar la estabilidad del nivel y la potencia del test bajo contaminación y para comparar el comportamiento del test propuesto en el caso de muestras finitas con el test clásico y con otras propuestas robustas. Finalmente, se ilustra la performance del test propuesto sobre un conjunto de datos reales.
Os modelos da classe ARCH (auto-regressivo condicionalmente heterocedástico) modelam a heterocedasticidade constatada em séries temporais económicas. Tal estratégia não apenas melhora a eficiência dos estimadores usuais, mas também fornece uma predição da variância de cada termo do erro. Este trabalho desenvolve uma análise bayesiana do modelo ARCH com potência assimétrica. A análise envolve a estimação de parâmetros, a predição da variância condicional e a selecção de modelos. Os procedimentos de inferência bayesiana são implementados usando-se o Algoritmo de Metropolis-Hastings. O método é aplicado a dados simulados e a uma série de retornos do IBOVESPA.
Molecular phylogeny is the art and science of inferring the family tree and underlying evolutionary parameters relating the molecular sequences from different genes, or viruses, or species and so on. Phylogenetic modeling is computationally challenging and most phylogenetic modeling estimates a single tree to a single set of molecular sequences. We develop a Bayesian hierarchical semi-parametric regression model to combine phylogenetic analyses of sets of HIV-1 nucleotide sequences. We describe several reweighting algorithms for combining completed Markov chain Monte Carlo (MCMC) analyses to shrink parameter estimates while adjusting for data set-specific covariates.
Individual phylogenetic analyses are performed independently using the publicly available software MrBayes (Huelsenbeck and Ronquist, 2001) that fits a computationally intensive Bayesian model using Markov chain Monte Carlo (MCMC) simulation. We place a hierarchical regression model across the individual analyses to estimate parameters of interest within and across analyses. We use a Mixture of Dirichlet processes (MDP) prior for the parameters of interest to relax inappropriate parametric assumptions and to insure the prior distribution for the parameters of interest is continuous. Constructing a large complex model involving all the original data is computationally challenging and would require rewriting the existing stand alone software. Instead we utilize existing MCMC samples from the individual analyses using an iteratively reweighted importance resampling algorithm within MCMC iterations.
Normal assumptions for the latent variable and symmetric item characteristics curves have been used in the last 50 years in many psychometric methods for item-response theory (IRT) models. However this assumption can be restrictive for modeling human behavior. This paper introduces a new family of asymmetric models for item response theory, namely the skew-normal item response theory (SN-IRT) model. This family extends the symmetric ogive normal model by considering: a) an accumulated skew-normal distribution for the item characteristic curve and b) a skew-normal distribution for the latent variables modeling the individuals? abilities. Hence, the SN-IRT is a more flexible model for fitting data sets with dichotomous responses. Bayesian inference methodology using two data augmentation approaches for implementing the MCMC methodology is developed. Model selection is considered by using several Bayesian criteria. An application is conducted and the proposed penalization parameter is interpreted in the context of a data set related to a mathematical test applied to Peruvian students in rural schools.