Advanced search


Knowledge area




Filter by:

Publication type

Authors

Issue Years

Publishers

Origin repository

Access Level

Language

Subject

Select the topics of your interest and receive the hottest publications in your email

116783 results, page 1 of 10

Solución por análisis espectral múltiple al problema de las falsas correlaciones entre vientos, mareas y corrientes en una laguna costera

Héctor Santiago Vélez Muñoz (1986)

En la laguna costera Ensenada de la Paz, B.C.S. se establecieron las relaciones lineales entre mareas, vientos y corrientes. Identificando a la marea y al viento como los agentes causales de las corrientes, la influencia de cada proceso fué estimada con el análisis de admitancia ordinario. Los resultados indican que las corrientes de marea dominan la energía de las corrientes observadas. Sin embargo, en la región interior se encontró que las corrientes de período diurno (7.5% de la energía total) pueden explicarse tanto por marea (5.0%) o viento (4.9%), produciendose una notoria sobrestimación de la energía al considerar ambos efectos. La correlación, en este caso accidental, entre los agentes causales impide poder cuantificar con el análisis ordinario, la influencia real de cada uno de ellos. Considerando al sistema perturbado simultáneamente por marea y viento, este trabajo muestra que el análisis espectral múltiple ofrece una solución al problema.

N/E

Master thesis

Corriente de mareas, Lagunas - Dinámica, Correlación (Estadística), Teoría espectral (Matemáticas), Ciencias del mar CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA CIENCIAS DE LA TIERRA Y DEL ESPACIO OCEANOGRAFÍA OCEANOGRAFÍA

Continuidad espectral

SALVADOR SANCHEZ PERALES (2011)

“La idea de espectro de un operador en la matemática contemporánea surge de diversos intentos ó de comprender problemas concretos de álgebra lineal que involucran la solución de ecuaciones lineales y sus generalizaciones a dimensiones infinitas. Sin embargo, esta visión es el resultado de la evolución matemática de una serie de ideas a lo largo de tres siglos. La teoríıa espectral es una rama fundamental de las matemáticas que ha tenido un fuerte impacto sobre el análisis matemático y, en particular, sobre el análisis funcional ya que esta ́ relacionado con resultados en las diferentes ́áreas como son ecuaciones diferenciales, ecuaciones integrales, sistemas dinámicos, mecánica cuántica entre otros.”

Benemérita Universidad Autónoma de Puebla

Doctoral thesis

Espacios de Banach Operadores lineales Teoría espectral (Matemáticas)--Investigación Análisis de espectro--Investigación Medidas de Hausdorff Ecuaciones de Fredholm CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA

GENERACIÓN DE PARES DE FOTONES EN FIBRAS DE CRISTAL FOTÓNICO

Gustavo Adolfo Gutiérrez (2019)

"En el presente trabajo se propone establecer una plataforma de diseño, fabricación y caracterización de fibras de cristal fotónico (PCF, por sus siglas en inglés) especiales que se produzcan totalmente en el CIO, para su uso en diversas aplicaciones de óptica e información cuántica, así como en estudios de análogos fotónicos de agujeros negros. Dicha plataforma complementará las capacidades de fabricación disponibles en el laboratorio de estirado de fibra óptica (LEFO) del CIO, fortaleciendo áreas de diseño y principalmente caracterización de las PCF’s fabricadas mediante la medición del parámetro más importante de las PCF’s, la dispersión cromática. De esta forma, un primer objetivo consiste en desarrollar las experimentales para caracterizar la dispersión cromática de las PCF’s que se fabrican en el CIO. La técnica que se usará para caracterizar la dispersión de las PCF’s consiste en la medición de los espectros de generación de parejas de fotones mediante el proceso no lineal y paramétrico de mezcla espontánea de cuatro ondas (SFWM por sus siglas en inglés). Desde una perspectiva de óptica cuántica, dichas parejas de fotones están caracterizadas por la función de intensidad espectral conjunta (JSI por sus siglas en inglés), la cual describe las propiedades de correlación de los estados cuánticos que comparten las parejas. Al determinar teóricamente y medir experimentalmente los espectros de generación de las parejas de fotones, implícitamente se está caracterizando el estado cuántico en el que se generan las parejas. De esta forma, el segundo objetivo consiste en modelar teóricamente y medir experimentalmente la JSI para caracterizar el estado cuántico de parejas de fotones que producen las PCF’s fabricadas en el CIO. Para dar certeza a las técnicas desarrolladas se consideró como referencia la fibra comercial NL-750 de NKT Photonics, la cual se modeló y caracterizó usando las herramientas teórico-experimentales desarrolladas. Se escogió esta PCF pues es la única fibra comercial con longitud de onda de cero de dispersión cercana a la región de 800nm, región espectral requerida para las aplicaciones que se busca desarrollar en trabajos futuros. Usando esta fibra como modelo, se fabricarón tres fibras muestra (F1, F2 y F3) las cuales también se modelaron y caracterizaron."

Master thesis

Four wave mixing Empatamiento de fase Correlación espectral JSI Dispersión CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA FÍSICA ÓPTICA OPTICA NO LINEAL OPTICA NO LINEAL

Análisis de correlación canónica lineal y no lineal

BRENDA CATALINA MATIAS CASTILLO (2017)

El Análisis de Correlación Canónica fue desarrollado por Hotelling en 1936 como un procedimiento para evaluar la relación lineal entre dos conjuntos de variables aleatorias. Dentro del campo de la Estadística Multivariada, el Análisis de Correlación Canónica (ACC) se presenta como un método exploratorio de datos multivariados, y se basa en resultados del álgebra matricial. Su propósito es la exploración de las correlaciones entre dos conjuntos de variables cuantitativas observadas sobre el mismo conjunto de individuos, a través de combinaciones lineales de las variables iniciales, lo que permite reducir la dimensionalidad. El ACC no puede ser llevado a cabo cuando el número de individuos es menor al número de variables. Una manera para tratar con este problema es incluir un paso de regularización en el cálculo del ACC, obteniendo un método llamado Análisis de Correlación Canónica Regularizada (ACCR)[8]. Por otro lado, los tipos de análisis antes mencionados, son utilizados cuando se tienen dos grupos de variables. El Análisis de Correlación Canónica Regularizada Generalizada (ACCRG) es aplicado a tres o más conjuntos de variables, observados en el mismo conjunto de individuos. Todas estas técnicas se han aplicado ampliamente y algunos de esos estudios se encuentran en y No es hasta finales de los años 90’s del siglo pasado que se desarrollaron procedimientos no lineales como generalizaciones de las técnicas clásicas de Análisis Multivariado.

Benemérita Universidad Autónoma de Puebla

Doctoral thesis

Análisis multivariable Correlación canónica Correlación (Estadística) CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA

Un acercamiento al razonamiento inferencial estadístico informal en carreras del área económica y administrativa

JOVAN ISRAEL SEGUNDO ROSAS (2018)

Tesis de maestría en ciencias especialidad matemática educativa

Este trabajo tiene como principal propósito investigar qué llegan a desarrollar los estudiantes de nivel superior de lo que llamaremos Razonamiento Inferencial Estadístico Informal, una vez que estos han llevado un curso universitario de Estadística básica e inician otro en que estudian algunos fundamentos de la Estadística Inferencial para posteriormente introducirse en ésta. El tópico de investigación resulta de interés ante la opinión de que este tipo de razonamiento obstaculizará o favorecerá la comprensión de la Estadística Inferencial, lo que particularmente se vincula tanto con la adquisición de las herramientas requeridas como del sentido que se le otorgue al uso de éstas para emitir juicios, afirmaciones o predicciones acerca de una población a partir de una muestra observada. Con el propósito señalado, hemos considerado que la investigación se guiará hacia el diseño y exploración de cuestionarios, hasta cierto punto actividades didácticas, que capturen información en los estudiantes acerca de las características y/o evolución del razonamiento que se ve involucrado ante situaciones no deductivas para cuya solución se cuenta con datos o productos derivados de estos, información que necesitará de análisis para arribar a conclusiones relevantes a nuestro medio. Para llevar a cabo esta investigación hemos tomado como una referencia central el trabajo sobre el tema reportado por Zieffler, Garfield, delMas y Reading, en 2008, el cual ha sido considerado por diversos investigadores en educación estadística en los últimos años, aunque al retomar sus conceptos para nuestro contexto de estudio resultan necesarios nuevos elementos, dada la madurez de los estudiantes en el nivel educativo que enfocamos, por lo que hemos hecho una pequeña adición a sus ideas para extender un poco las indagaciones emprendidas. Una descripción de las consideraciones iniciales en este trabajo, así como de la problemática, objetivos perseguidos y su justificación se abordan en los primeros capítulos (1, 2 y 3). De las ideas y conceptos en que se sustentan los instrumentos que utilizamos para llevar a cabo esta investigación y así como el diseño de los mismos se presenta una descripción más detallada en los capítulos intermedios (4 y 5). Por último, presentamos resultados obtenidos y llevamos a cabo una evaluación de los resultados obtenidos de esta investigación para, extrayendo conclusiones e implicaciones, poder expresar lo que hemos encontrado sobre el tipo de razonamiento que nos ha interesado en nuestro contexto de estudio, estudiantes de nivel superior, en carreras del área económico administrativa (capítulos 6 y 7).

Master thesis

HA29.5.E8 .S43 Estadística EVALUACIÓN DE ALUMNOS

Extensión del modelo Michaelis-Menten a dimensiones nanométricas por medio de física estadística fuera de equilibrio

JUAN MIGUEL CASTELLANOS JARAMILLO (2017)

Tesis de maestría en nanotecnología

La habilidad para construir nanoestructuras de diversos tipos ha llegado acompañada de la capacidad para realizar experimentos controlados en los que participan cantidades de moléculas cuyo número puede ser desde unos cuantos cientos de miles hasta una sola molécula cuya actividad química puede ser monitoreada. La reducción de los tamaños involucrados también ha dado lugar a que los efectos de volumen ya no sean los únicos relevantes. En su lugar, los efectos de la supercie y la forma de los productos nanométricos han tomado importancia. Por esa razón, también ha requerido revisión teórica la física estadística tradicional, que ha sido formulada sobre la base de que la forma del sistema físico no inuye sobre sus propiedades termodinámicas. Lo mismo ocurre con las reacciones químicas que antes se realizaban únicamente en moles o en fracciones de moles. Ahora que la cantidad se puede reducir a millares, a cientos, o a decenas de moléculas participantes, la presencia de las uctuaciones aleatorias crece en importancia. Éste es el caso del modelo de Michaelis-Menten para la descripción de reacciones enzimáticas. El objetivo de este trabajo es analizar las uctuaciones aleatorias en la concentración de sustrato y de enzima-sustrato en el modelo de catálisis de Michaelis-Menten. Éste es de mucha utilidad en bioquímica y describe la velocidad de reacción, V , denida como la derivada temporal del producto.

Master thesis

QP601.3 .C38 Cinética enzimática Nanotecnología ESTADÍSTICA

Determinación del epicentro de un sismo por medio del algoritmo EM-DPD

César Hernández Sánchez (2019)

Esta investigación determina el epicentro de un sismo a través del algoritmo EM-DPD propuesto por Tzoreff & Weiss (2017), así mismo, está basado en el algoritmo EM propuesto por Dempster, Laird, & Rubin (1977); la investigación inicial de Tzoreff & Weiss está enfocada a la localización de un misil. Para este proyecto, la posición del misil es asociada a la determinación del epicentro de un sismo. Esto es importante dentro del estudio de los sismos, ya que se puede aproximar la zona en la que podrían observarse mayores afectaciones que van desde daños estructurales hasta la pérdida de vidas humanas. Si bien, existen una gran variedad de métodos para aproximar el epicentro de un sismo, esta propuesta genera una localización más exacta, además de identificar características de la fuente y del medio de propagación. En la determinación del epicentro por medio del algoritmo EM-DPD se utilizaron los registros sísmicos de la red K-Net de Japón, por el hecho de contar con una gran red de sensores distribuidos, aproximadamente cada 20 kilómetros. Las estaciones sísmicas que se toman en cuenta para el desarrollo de esta investigación son las cercanas al epicentro del sismo ocurrido en Japón el 14 de junio del 2008 con magnitud de 7.2 en la escala local. Para la adaptación del algoritmo EM-DPD a los sismos se aplican las bases de las transformadas de Fourier, la transformada de Hilbert, en gran parte la estadística inferencial y las distribuciones gaussianas entre otras. Durante el desarrollo del método EM-DPD se propusieron los puntos semilla que dan pie a la aproximación del epicentro, tales puntos fueron las posiciones de 6 estaciones cercanas al epicentro, la dirección del movimiento utilizado es Este-Oeste, se obtuvieron sus transformadas correspondientes y se introdujeron al algoritmo. El resultado del cálculo de epicentro por medio del algoritmo fue en longitud x = 480,936 m, y latitud y = 4,351,816 m y el epicentro correspondientemente del evento proporcionado por la red K-NET de Japón es x= 489,613 m, y = 4,319,891 m. La diferencia en línea recta es de 33,337 m; además, es sabido que el margen de error en el cálculo de los epicentros es de 20,000 km aproximadamente. Así mismo, se espera que al aumentar el número de señales correspondientes a las estaciones la aproximación del epicentro por el algoritmo EM-DPD sea más exacta.

Master thesis

INGENIERÍA Y TECNOLOGÍA Geofísica Sismología Estadística Transformada de Fourier Transformada de Hilbert

Caracterización de generadores de números aleatorios por medio de pruebas estadísticas

TONATIUH GARCIA CHAVEZ (2016)

"Básicamente, un generador de bits aleatorios es un sistema capaz de procesar algún tipo de fuente de señal para generar, a la salida, una palabra digital de n bits, los cuales deben ser aleatorios. En estadística, un numero aleatorio es un resultado de una variable al azar donde todos sus componentes tienen la misma probabilidad de ser escogidos, por lo tanto el resultado no puede ser determinado antes de que éste se produzca"

Benemérita Universidad Autónoma de Puebla

Master thesis

Complejidad computacional Estadística INGENIERÍA Y TECNOLOGÍA