Advanced search


Knowledge area




6112 results, page 1 of 10

Procesamiento digital de video en tiempo real y video wall, con la PC

Ukranio Coronilla Contreras (2005)

130 páginas. Maestría en Ciencias de la Computación.

En el desarrollo de la presente tesis se abordaron tres tipos de problemas, el primero fue establecer el hardware mínimo necesario para llevar acabo el despliegue de una imagen de video en forma de videowall (arreglo cuadrado de monitores que presenta una sola imagen), haciendo uso de la PC y con cuatro monitores. El segundo problema consiste en hacer uso del sistema operativo para controlar las cuatro tarjetas de video, lo cual corresponde a un procesamiento de escalamiento en la imagen, y finalmente el problema fundamental de construir el software que permita el procesamiento de video en tiempo real, el cual se apoya en el sistema de desarrollo SDK de DirectX ® y en particular la herramienta DirectShow. Se elaboraron procesamientos básicos de video que consisten en filtrado de componentes de color, adición de ruido a la imagen, superposición de imagen al video, eliminación de color, posterizado y realce.

Master thesis

Real-time data processing. Digital video. Procesamiento de datos en tiempo real. Digital video. QA76.54 INGENIERÍA Y TECNOLOGÍA CIENCIAS TECNOLÓGICAS TECNOLOGÍA DE LOS ORDENADORES SISTEMAS EN TIEMPO REAL

A massive bubble of extremely metal-poor gas around a collapsing Lyα blob at z = 2.54

Andrew Humphrey Itziar Aretxaga (2013)

Using long-slit optical spectroscopy obtained at the 10.4 m Gran Telescopio Canarias, we have examined the gaseous environment of the radio-loud quasar TXS 1436+157 (z = 2.54),previously known to be associated with a large Lyαnebula and a spatially extended Lyα-absorbing structure. From the Lyαnebula, we measure kinematic properties consistent withinfall at a rate of ∼10–100 M⊙ yr⁻¹ – more than sufficient to power a quasar at the top of theluminosity function.The absorbing structure lies outside of the Lyαnebula, at a radius of ≳40 kpc from thequasar. Against the bright unresolved continuum and line emission from the quasar, we detectin absorption the NVλλ1239, 1241, CIVλλ1548, 1551 and Si IVλλ1394, 1403 doublets, withno unambiguous detection of absorption lines from any low-ionization species of metal. Themetal column densities, taken together with the HI column density measurement from the literature, indicate that the absorbing gas is predominantly ionized by the quasar, has a massof hydrogen of ≳1.6 × 10¹¹ M⊙, a gas density of ≤18 cm⁻³, a line-of-sight thickness of≥18 pc and a covering factor approaching unity. While this absorbing structure is clearly notcomposed of pristine gas, it has an extremely low metallicity, with ionizationmodels providinga 3σ limit of 12+log(O/H) ≤ 7.3.To explain these results, we discuss a scenario involving starburst-driven superbubbles andthe creation of infalling filaments of cold gas which fuel/trigger the quasar. We also discussthe possibility of detecting large-scale absorbers such as this in emission when illuminated bya powerful quasar.

Article

Galaxies: active Galaxies: evolution Galaxies: ISM Quasars: absorption lines Qasars: emission lines Quasars: individual: TXS 1436+157 CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA ASTRONOMÍA Y ASTROFÍSICA ASTRONOMÍA Y ASTROFÍSICA

Realidad virtual en fenómenos del espacio interestelar

ANTONIO LUCIANO HERNANDEZ PADILLA FIDEL CRUZ PEREGRINO Rodrigo Ramírez Ramírez (2019)

Coordinación de Posgrado de Ciencias y Artes para el Diseño

En la actualidad la realidad virtual puede llegar a ser utilizada para dar a conocer temas importantes como fenómenos del espacio interestelar y poder adentrarse en la sensación de poder estar en el espacio sin salir de casa. Este es un caso en donde se busca crear la interacción correcta con el usuario para adentrarlo en temas del espacio.

Nowadays, virtual reality can be used to publicize important topics such as interstellar space phenomena and provide the feeling of being in space without leaving home. In this work the aim is to create the correct interaction with the user to introduce him to space issues.

Book part

Realidad virtual, hoyo negro, cuásar, púlsar, exoplaneta, espacio. Virtual reality, black hole, quasar, pulsar, exoplanet, space. Virtual reality. Realidad virtual. Simulación por computadora. Simuladores espaciales. QA76.9.V5 INGENIERÍA Y TECNOLOGÍA CIENCIAS TECNOLÓGICAS TECNOLOGÍA DE LOS ORDENADORES

Sistema de visión artificial para el monitoreo de motores de inducción eléctrica y la cadena cinemática mediante termografía infrarroja

EMMANUEL RESENDIZ OCHOA (2020)

Las estrategias de monitoreo de condición y evaluación de fallas juegan un papel importante para garantizar la disponibilidad del motor de inducción en el proceso industrial; a este respecto, es deseable que la mayoría de los motores de inducción sean monitoreados por diferentes sensores para garantizar la integridad del equipo industrial. Sin embargo, las principales técnicas utilizadas para el análisis de fallas en los motores de inducción son limitadas porque no son capaces de detectar todas las fallas presentes en un motor de inducción, lo que provoca un tiempo de inactividad no deseado con pérdidas financieras significativas y esfuerzos humanos. Hoy en día, la detección no invasiva representa una herramienta adecuada para llevar a cabo el monitoreo de condición y la evaluación de fallas de equipos industriales en condiciones de operación continua. Una técnica complementaria que ayuda en el diagnóstico de fallas en motores de inducción es la termografía infrarroja que tiene la característica de instalarse fuera de la maquinaria o del proceso industrial bajo evaluación. Esta tesis propone una nueva metodología no invasiva para el diagnóstico y clasificación de diferentes fallas en el motor de inducción y cadena cinemática a través del análisis térmico con imágenes infrarrojas. La novedad del método propuesto incluye el procesamiento de imágenes para la segmentación automática de las regiones caliente presentes en la imagen termográfica, el cálculo de características estadísticas en el dominio del tiempo a partir de imágenes infrarrojas, la consideración de una etapa de reducción de dimensionalidad por medio del análisis discriminante lineal y el diagnóstico automático de fallas realizado por una red neuronal artificial. El método propuesto se evalúa bajo un conjunto de datos de laboratorio experimental, que se compone del análisis de fallas de cinco condiciones en el motor de inducción y la cadena cinemática: saludable, una barra rota del rotor, daño del rodamiento, desalineación y severidad de desgaste uniforme en engranajes (25%, 50% y 75% de desgaste uniforme). Los resultados obtenidos representan un diagnóstico de falla de alto rendimiento para la evaluación de un motor de inducción y la cadena cinemática bajo diferentes condiciones de operación.

Doctoral thesis

INGENIERÍA Y TECNOLOGÍA LÓGICA LÓGICA

Controlador modular y reconfigurable para máquina de inyección de plástico basado en FPGA

BENIGNO MUÑOZ BARRON (2021)

El plástico ha sido parte de la vida moderna por varias décadas. La industria del moldeo por inyección consume alrededor del 32% de todos los plásticos, por lo tanto una máquina de inyección por moldeo es una de las herramientas existentes más significativas para procesar materiales plásticos. Hay muchos tipos diferentes de máquinas de inyección de plástico, las dos más populares son la de fase simple y la de dos fases. Sin embargo, todas estas máquinas desempeñaban plastificación, inyección, post inyección, enfriamiento y retiro de la parte moldeada. El moldeo por inyección de plástico es un proceso complejo que involucra muchas variables tales como: presión, posición, velocidad, temperatura y varios eventos discretos de entradas y salidas, lo cual necesita una alta capacidad de cómputo para poder controlar todas las variables continuas y los eventos discretos. Otro problema en los controladores comerciales para inyección es su arquitectura cerrada que condiciona el desempeño y eficiencia del proceso. Una manera de resolver el problema de cómputo intensivo y el problema de arquitecturas cerradas es utilizar un dispositivo de alto desempeño tal como un FPGA (Field Programmable Gate Array) para implementar un PLC (controlador lógico programable). Este trabajo presenta la implementación de un PLC basado en FPGA, controladores difusos y una red de microprocesadores para controlar una máquina de inyección de plástico. La arquitectura propuesta expone una manera de implementar una carga computacional intensiva en un dispositivo de bajo costo que contiene un grupo de bloques colaborativos. El sistema fue desarrollado de una manera modular con elementos para el control de eventos continuos y eventos discretos, así como módulos de comunicación. El sistema fue probado en una máquina de inyección Husky, que se encuentra en el laboratorio de la Facultad de Ingeniería. Los resultados obtenidos demostraron la eficiencia del sistema para llevar a cabo el proceso completo de inyección. El sistema desarrollado es una excelente opción para que pequeñas y medianas empresas dedicadas al rubro del plástico, a fin de que realicen la reconversión de su maquinaria y con esto puedan incrementar el nivel de productividad y extender la vida de las máquinas; es decir, hacer máquinas convencionales más eficientes y productivas.

Plastic has been a part of modern life for several decades. Injection molding industry consumes about 32% of all this plastics, therefore an injection molding machine (IMM) is one of the most significant existing tools for processing plastic materials. There are many different types of IMM's, the two most popular are the single stage and the two stage. However, these machines all perform plasticizing, injection, after filling, cooling and molded-part release. Plastic injection molding is a complex process that involves many variables such as: pressure, position, speed, temperature, and several discrete input/output events, which represent a big computational load for the control of all the variables and discrete events. Another problem in the commercial controllers is the close architecture, which conditions the process performance and efficiency. A way to solve the computational-intensive problem is to use a high performance device such a field programmable gate array (FPGA) to implement a PLC (Programmable Logic Controller). This work presents a FPGA-based PCL, fuzzy controllers, and a microprocessor network to control a plastic injection molding machine. The proposed architecture exposes a way to implement an intensive computational load into a low cost device that contains collaborative microprocessors blocks. The system was developed on a modular way and includes several control modules for continuous events, a processor for discrete events control, as well as communication modules. The system was tested on a Husky injection molding machine, which is located in the laboratory of the School of Engineering. The result obtained showed the efficiency of the system to perform the injection process. The system developed is an excellent option for small and medium enterprises (SME's), dedicated to the plastic industry, in order to carry out machinery conversion, so an increment in the productivity and in the extension of the machine's life can be achieved; that is, making conventional machines more efficient and productive

Master thesis

INGENIERÍA Y TECNOLOGÍA LÓGICA

Una propuesta de política pública para la formalización de los trabajadores domésticos en México

MARTA CEBOLLADA GAY (2016)

Esta tesis pretende analizar las razones institucionales, políticas y estructurales que generan que el trabajo doméstico en México se realice en condiciones de especial precariedad laboral. Los supuestos comprobados en esta tesis fueron la existencia de discriminación en la Ley Federal del Trabajo y Ley sobre el Seguro Social al limitar los derechos de los trabajadores del hogar y prever su adscripción al seguro social como voluntaria. También se comprobó la falta de agenda política para elaborar una política pública orientada a la mejora de las condiciones de trabajo de los trabajadores domésticos y la firma del convenio internacional existente en la materia. Finalmente el tercer hallazgo fue la existencia de un problema estructural en el trabajo doméstico debido a que su dispersión en los hogares obstaculiza la visibilidad de sus problemas y la organización de los trabajadores. En consecuencia, y basándose en estándares internacionales y la comparación con dos casos de éxito – Argentina y Uruguay- , este trabajo propone un modelo de política pública multifactorial para la mejora de la situación de los trabajadores del hogar que atiende a los diferentes tipos factores generadores de precariedad laboral.

Master thesis

Trabajo Doméstico Legislación Trabajadoras Domésticas Políticas Públicas Igualdad de Remuneración Condiciones Sociales Aspectos Socieconómicos México CIENCIAS SOCIALES CIENCIAS SOCIALES

Patrones heteroticos y habilidad combinatoria en líneas de maíz tropical con alta calidad de proteína

FIDENCIO ANTONIO GUERRA ROCA (2000)

"Con el objetivo de desarrollar mejores alternativas que permitan explotar el germoplasma de maíz para obtener nuevas variedades con mejor calidad de proteína y mayor adaptación en la región tropical, se evaluaron 8 líneas elite QPM en sus siglas en ingles, en un experimento y 17 en un segundo experimento, dichas líneas del programa de maíz tropical del Centro Internacional de Mejoramiento de Maíz Y Trigo (CIMMYT). En el primer experimento se formo un dialelo 8x8 obteniendose 28 cruzas simples; en el segundo experimento, 11 líneas fueron cruzadas con las 6 restantes para obtener 66 cruzas simples. En ambos experimentos se incluyó cuatro testigos de maíz normal y se evaluaron durante 1999 en 8 localidades: dos localidades en Centro América (San Andrés, El Salvador y Cuyuta, Guatemala) y seis localidades de México (Cardel, Cotaxtla (Ciclo A y B), Poza Rica (Ciclo A y B), Veracruz y Tlaltizapán, Morelos), todos los ambientes fueron tropicales a excepción de Tlaltizapán. Los objetivos del estudio fueron: (i) confirmar los patrones heteróticos de las líneas involucradas para rendimiento de grano, (ii) estimar los efectos de habilidad combinatoria de las líneas de maíz, (iii) estimar los componentes de varianza para rendimiento y características agronómicas, (iv) identificar las cruzas más sobresalientes. Los dos experimentos se establecieron bajo un diseño de bloques incompletos (alfa látice), el primero 4x8 y el segundo 7x10, ambos con dos repeticiones, 2 surcos por parcela; la densidad de siembra fue de 66,000 plantas por hectárea. Los datos se analizaron como un modelo mixto, para el diseño genético se utilizo el método IV modelo I de Griffing (1956) para el primer experimento y el Diseño II de Carolina del Norte propuesto por Comstock y Robinson (1948) para el segundo. Las líneas que mostraron los mejores efectos de aptitud combinatoria general (ACG) para rendimiento fueron 2 y 3 con 0.62 y 0.64 ton ha-1 y porcentaje de triptófano de 0.095 y 0.103 respectivamente para el primer experimento; mientras que 1 y 11 con 0.68 y 1.32 ton ha-1 y triptófano de 0.095 y 0.103 respectivamente para el segundo experimento. Las cruzas 1x4, 1x6, 2x4, 2x8, mostraron los mejores efectos de aptitud combinatoria especifica (ACE) (0.67. 0.62, 0.55 y 0.57 ton ha-1) para rendimiento de grano en el primer experimento y las cruzas 11x14, 13x16, 1x17, 7x13, 5x15, 4x17 y 9x17 con 1.48, 0.72, 0.69, 0.69, 0.50, 0.39 y 0.39 ton ha-1 para rendimiento en el segundo experimento. Se confirmó que las líneas 1, 2, 3, 7 y 8 derivadas de la población 62 pertenecen al grupo heterótico "B" y las líneas 4, 5 y 6 de la población 63 al grupo heterótico "A". La varianza aditiva para rendimiento de grano fue mayor que la varianza de dominancia, con una proporción de 67 y 33 por ciento respectivamente en el segundo experimento. Las mejores cruzas en rendimiento de grano en el primer experimento fueron 2x4, 2x8, 2x5, 2x3, 2x6, 3x4, 3x7 con un rango de 7.99 a 8.46 ton ha -1 siendo similares estadísticamente a la cruza de maíz normal CML 247 x CML 254 con 8.38 ton ha-1 y con porcentaje de triptófano en un rango de 0.096 a 0.106 superando al testigo que obtuvo 0.056 por ciento; para el segundo, fueron las cruzas 11x16, 1x16, 11x12, 11x14, 1x12, 11x17, 11x13, 1x13, 11x15 con un rango de 7.65 a 8.11 ton ha-1 , las cuales fueron estadísticamente similares a la cruza de maíz normal CML 247 x CML 254 con 8.36 ton ha-1 y con porcentaje de triptófano en un rango de 0.091 a 0.106 siendo superiores al testigo CML 247xCML 254 con 0.056. Para ambos experimentos; las cruzas mencionadas superaron a los testigos comerciales utilizados. Los resultados indican nuevas alternativas para el uso de germoplasma QPM con la finalidad de mejorar la calidad de proteína y adaptabilidad de los materiales a través de una serie de ambientes"

"With the objective of developing better alternatives that allow to exploit the germoplesm of corn to obtain new varieties with better protein quality and better adaptation to the tropical region, 8 elite unes were evaluated in one experiment, 17 elite unes in a second experiment, these unes from the tropical maize program of International Maize and Wheat Improvement Center (CIMMYT). The first experiment included 28 single crosses obteined from a 8x8 diallel; in the second experiment, 11 unes were crossed with the other six to obtained 66 single crosses. Four checks of normal maize were included to both experiments, which were evaluated in 8 enviroment during 1999: two environments in Central American (San Andrés, El Salvador and Cuyuta, Guatemala) and six environments of Mexico (Cardel, Cotaxtla (Cycle A and B), Poza Rica (Cycle A and B), Veracruz and Tlaltizapan, Morelos), all environments were tropical with the exception of Tlaltizapán. The objectives of the study were: (i) to confirm the heterotic patterns of the lines involved for grain yield, (ii) to estimate the combining ability effects of the lines of maize, (iii) to estimate the variance components for yield and other agronomic characteristic, (iv) to identiffy the best singles crosses. The two experiments were planted under an incompleted block design (alpha latice), 4x8 the first and 7x10, the second with two replications, 2 rows per plot; with a plant density of 66,000 plants per hectare. The data were analyzed as a mixed model, for the genetic design, the method IV model I of Griffing (1956) was used for the first experiment, and the Design II of North Carolina proposed by Comstock and Robinson (1948) for the second. The lines that showed the best effects of ACG for yield were 2 and 3 with 0.62 and 0.64 ton ha .-1 with triptophan percentage of 0.095 and 0.103 respectively for the first experiment; while 1 and 11 with 0.68 and 1.32 ton ha -1 and triptophan of 0.095 and 0.103 respectively for the second experiment. The crosses 1x4, 1x6. 2x4, 2x8, showed the best effects for ACE (0.67, 0.62, 0.55 and 0.57 ton ha-i) for grain yield in the first experiment and the crosses 11 x14, 13x16, 1x17, 7x13, 5x15, 4x17 and 9x17 with 1.48, 0.72, 0.69, 0.69, 0.50, 0.39 and 0.39 ton ha-1 for yield in the second experiment. It wes confirmed that the unes 1, 2, 3, 7 and 8 derived from population 62 belong to the heterotic group "B" and the Enes 4, 5 and 6 derived from the population 63 to the heterotic group " A. The additive variance for grain yield was bigger than the dominance variance, with a proportion of 67 and 33 percent respectively in the second experiment. The best crosses for grain yield in the first experiment were 2x4, 2x8, 2x5, 2x3, 2x6, 3x4, 3x7 with a range of 7.99 to 8.46 ton ha-1 being statistically similar to the cross of normal corn CML 247 x CML 254 with 8.38 ton ha.-1 , with triptophan percentage ranged from 0.096 to 0.106 overcoming the check that obtained 0.056 percent; for the second experiment, the best crosses were 11x16, 1x16, 11x12, 11x14, 1x12, 11x17, 11x13, 1x13, 11x15 with a range of 7.65 to 8.11 ton ha= i, which were statistically similar to the cross of normal corn CML 247 x CML 254 with 8.36 ton with tryptophan percentage ranged from 0.091 to 0.106 being superior to the check CML 247xCML 254 with 0.056. For both experiments, the crosses mentioned overcame the commercial checks used. The results indicate than new alternatives can be used to improve the protein quality of QPM germplasm with the purpose of improving the protein and adaptability of maize germplasm through a series of enviroments"

Master thesis

Maíz Líneas Proteínas CIENCIAS AGROPECUARIAS Y BIOTECNOLOGÍA

DESARROLLO DE UN SISTEMA INTELIGENTE PARA MONITOREO DE FALLA EN PROCESOS DE FRESADO EN MÁQUINA CNC

GEORGINA DEL CARMEN MOTA VALTIERRA (2019)

Uno de los objetivos principales de cualquier empresa es satisfacer las necesidades del cliente mediante la producción de productos de alta calidad, la optimización de costos al mejorar los procesos de fabricación. Para lograr las especificaciones de calidad es importante eliminar las variaciones durante los procesos de producción. Para las empresas manufactureras, el uso de sistemas de monitoreo de condición de herramientas en línea es esencial para detectar roturas o artículos de herramientas para evitar piezas de producción de baja calidad debido al estado de las herramientas de corte e incluso evitar daños a las máquinas.

Las redes neuronales artificiales es uno de los métodos más comunes e informados utilizados en los sistemas de monitoreo que clasifica el estado de la herramienta, es ampliamente utilizado debido a su aprendizaje adaptativo, auto organización, tolerancia a fallas y operación en tiempo real, proporcionando buenas soluciones para la clasificación o problemas para tomar decisiones.

Existe una correlación entre las fuerzas de corte (estáticas y dinámicas) y el desgaste de la herramienta , y esos parámetros pueden estudiarse en varias formas, como la basada en los cambios de la fuerza de fricción entre las herramientas de corte y las piezas de trabajo. En varios trabajos se ha decidido analizar las fuerzas de corte para determinar el nivel de desgaste de la herramienta. Para evaluar las fuerzas de corte se desarrollaron modelos de simulación que determinan las fuerzas de corte con más precisión que los modelos analíticos debido a la aplicación del Perceptrón de múltiples capas.

El uso de sensores es común, sin embargo, su aplicación es limitada debido al estrecho rango operativo definido por el fabricante, y generalmente los diseños de los sistemas se realizan considerando condiciones de trabajo específicas, que no permiten ajustes de las operaciones de fabricación. En muchas ocasiones es necesario realizar modificaciones en la máquina para colocar sensores. Todos esos aspectos negativos no se presentan en el sistema propuesto debido a su funcionamiento sin sensores. Se presenta la propuesta de un sistema inteligente, de bajo costo y fácil incorporación al proceso original para clasificar la condición física de la herramienta de corte en una máquina fresadora, ayudando a prevenir defectos en las piezas de trabajo y evitando daños severos en la máquina herramienta.

Doctoral thesis

INGENIERÍA Y TECNOLOGÍA LÓGICA ELECTRÓNICA

Estrategia tecnológica para la comprensión de los requerimientos de software aplicados a la industria automotriz

MONICA DEL CARMEN ROMERO MORALES (2019)

Diseñar y construir software basados en requerimientos desorganizados y no verificados origina que el producto final resuelva problemas equivocados que no satisfacen las necesidades de nadie; si se tienen errores al momento del levantamiento de requisitos y no se toman medidas para su pronta corrección, perdurarán hasta la puesta en marcha volviéndose extremadamente costoso solventar su corrección. Por lo tanto, la elección de una estrategia tecnológica dirigida a la detección, predicción y corrección de errores para el software empresarial se convierte en una actividad altamente rentable y necesaria. En el presente trabajo se explora el efecto resultante de elegir una estrategia tecnológica para validar los requerimientos del software utilizando como herramienta la inteligencia artificial con el fin de reducir la ambigüedad entre lo solicitado por el cliente con lo interpretado por los ingenieros especializados en el desarrollo de software empresarial aplicado al sector automotriz. Para el desarrollo de la investigación es utilizada una metodología tipo mixta (cualitativa y cuantitativa); dado que, se requirió de las fortalezas de ambos tipos de indagación. El proceso de diseñar la estrategia tecnológica se divide en cinco etapas, las cuales son: 1) Identificar la empresa y sus tecnologías de valor cuyo objetivo es la caracterización del sujeto experimental. 2) Determinar el cambio en la tecnología para proponer el proceso de creación de software nuevo y realizar la comparativa con él anterior. 3) Evaluar el costo de mejora obteniendo como resultado el comparativo en tiempo real contra el estimado por los ingenieros especializados en desarrollo de software. 4) Seleccionar la estrategia tecnología a través del diseño del formato maestro para la estimación y evaluación de proyectos de software, así como el detalle de la clasificación realizada por los tres métodos de algoritmos de aprendizaje automático supervisado, y por último 5) Reforzar la estrategia tecnológica seleccionada cuya finalidad es la aceptación y puesta en marcha de los formatos propuestos y el algoritmo de aprendizaje automático supervisado electo.

Master thesis

INGENIERÍA Y TECNOLOGÍA LÓGICA Otro

Implementación en Hardware de un Algoritmo de Dehazing

MIGUEL ANGEL MONCADA MALAGON (2020)

En este trabajo de investigación se presenta una arquitectura de hardware para realizar dehazing en imágenes únicas.

En ocasiones, las imágenes capturadas por un sensor, una cámara convencional, muestran defectos en las imágenes ocasionados por cuestiones atmosféricas como pueden ser neblina, contaminación, smog, lluvia entre otros. Por medio de los algoritmos de dehazing se pueden eliminar estos defectos, en particular en este proyecto se utilizó un algoritmo de dehazing basado en el DCP.

Los dispositivos programables FPGA son capaces de ejecutar operaciones en paralelo debido a su arquitectura interna y con esto se logra un mayor rendimiento en el procesamiento de imágenes.

La metodología se dividió en 3 etapas. En la primera etapa, se generaron imágenes con haze sintético a partir de una base de datos con imágenes relacionadas a vehículos autónomos. En la segunda etapa se creó una arquitectura para realizar procesamiento de imágenes en general. Y por último se crearon los bloques lógicos encargados de procesar y aplicar las funciones del algoritmo de dehazing.

El proyecto se encuentra orientado para tareas de visión por computadora relacionadas con vehículos autónomos y sistemas de conducción avanzada (ADAS).

Master thesis

INGENIERÍA Y TECNOLOGÍA LÓGICA ELECTRÓNICA