Title

Cota inferior para la suma de probabilidades de decisiones incorrectas

Author

MARÍA DEL CARMEN RUÍZ MORENO

Contributor

ROLANDO CAVAZOS CADENA (Thesis Adviser)

LUIS RODRÍGUEZ GUTIÉRREZ (Thesis Adviser)

FÉLIX DE JESÚS SÁNCHEZ PÉREZ (Thesis Adviser)

Access level

Open Access

Summary or description

"Este trabajo trata sobre dos aspectos fundamentales en la teoría de prueba de hipótesis para modelos estadísticos paramétricos, a saber, (i) la posibilidad de comenter errores al decidir sobre la validez de una hip ótesis dada o su hipótesis complementaria, y (ii) la noción de insesgamiento de una prueba. Los principales objetivos son (i) establecer una cota inferior para las probabilidades de decidir incorrectamente entre dos hipótesis complementarias dadas, y (ii) demostrar que una prueba de Neyman-Pearson es insesgada en el sentido estricto. La exposición inicia con una descripción breve del problema de prueba de hipótesis en modelos paramétricos, para continuar con una discusión de los posibles errores en que se puede incurrir al tratar de determinar la validez de una hipótesis o de su complementaria basándose en una observación aleatoria; el resultado principal que se obtiene es una cota inferior para la suma de los posibles errores de decisión, mostrando que dicha cota es, generalmente, positiva y que, bajo condiciones menores, es igual a uno. Adicionalmente, se discute la construcción de pruebas de Neyman-Pearson para decidir entre dos hip ótesis simples y se establece el insesgamiento estricto de dichas pruebas."

"This work is concerned with two basic aspects in the theory of hypothesis testing in the context of parametric statistical models, namely, (i) the possibility of taking incorrect decisions when the validity of one of two complementary hypothesis is assessed, and (ii) the idea of unbiased test. The main objectives of the thesis are (i) to establish a lower bound for the probabilities of deciding incorrectly between to given complementary hypothesis, and (ii) to prove that a Neyman- Pearson test is strictly unbiased. La exposition begins with a brief description of the testing problem for parametric models, and continues discussing the potential errors that can occur when a random observation vector is used to decide between to complementary hypothesis; the main result established in this direction is that the sum of the probabilities of the possible errors is bounded below by a number that, generally, is positive and, moreover, under mild conditions it is shown that such a bound is equal to 1. Additionally, the existence and construction of a Neyman-Pearson test is discussed, and it is proved that such a test is strictly unbiased"

Publish date

June 1, 2013

Publication type

Master thesis

Publication version

Published Version

Format

application/pdf

application/pdf

Language

Spanish

Audience

Researchers

Students

Source repository

Repositorio Digital CID-UAAAN

Downloads

160

Comments



You need to sign in or sign up to comment.