Ingeniería de Sistemas y Computación

Entérate cómo entregar tus trabajos de titulación
Permanent URI for this community
Browse
Browsing Ingeniería de Sistemas y Computación by Author "Aguilar Jaramillo, Jorge Arturo"
Now showing 1 - 5 of 5
Results Per Page
Sort Options
Item Restricted
Base de datos goreferenciada para sismicidad del volcán Cotopaxi (GEODATABASE)(PUCE - Quito, 2006) Echeverría, María Fernanda; Tapia, Nadya; Aguilar Jaramillo, Jorge ArturoEl Instituto Geofísico inicio el desarrollo de la Base de Datos en el 2004, con la base de datos regional, que corresponde a los datos sísmicos e información complementaria, a nivel nacional, y luego con los datos de los observatorios volcánicos lo que corresponde a las bases de datos volcánicas, esta última comparte características comunes con los la base regional en lo referente a los datos sísmicos, pero tienen además datos de los diferentes sensores que monitorean un volcán como por ejemplo de deformación, gases, temperatura, imágenes. En este sentido, este trabajo pretende contribuir a este proyecto con el desarrollo de parte de las herramientas para la implementación de la Base de Datos Volcánica, en lo referente a los datos sísmicos del Volcán Cotopaxi. El sistema completo por parte del IG está pensado para el análisis de la información en el contento de la investigación y toma de decisiones.Un sistema que ayude en las tareas de investigación requiere que estos datos estén organizados y también de las herramientas para su análisis.Item Restricted
Predicción del volumen de ventas de un local comercial de expendio de alimentos y bebidas utilizando redes neuronales artificiales(PUCE - Quito, 2001) Espín Páez, Joseph Ricardo; Ruiz, Patricia; Aguilar Jaramillo, Jorge ArturoEn el campo de la computación neuronal como en el mundo financiero, existe un creciente interés en la posibilidad del uso de redes neuronales para el pronóstico de futuros cambios en los precios de acciones, predicciones de ventas, intercambio de valores y productos, etc. Desde que las redes neuronales han llegado ha demostrar que son capaces de modelar las estructuras fundamentales de una serie de tiempo, (Hoptroff, 1992, LeBaron,1993) se han tratado de explotar estas capacidades para llevar a cabo un análisis técnico de dichos casos. Existe una incredulidad justificable alrededor de la idea de que es posible hacer dinero de la predicción del cambio de valores en un mercado dado; basado únicamente en el comportamiento pasado y en indicadores económicos disponibles. Ignorando los casos que contienen esta información, el escepticismo existe por muchas razones, muchas de las cuales son explicadas por las hipótesis de mercados eficientes. Las hipótesis están basadas primordialmente en la certeza de que los mercados siguen un camino randómico, el cual no puede ser predicho desde valores pasados.Item Restricted
Reconocimiento de patrones manuscritos (vocales) usando redes neuronales(PUCE - Quito, 2009) González Ortiz, Juan Carlos; Aguilar Jaramillo, Jorge ArturoEn muchas aplicaciones informáticas se requiere interpretar información como señales, voz, sonido, etc., para esto existen diversas técnicas. Se presenta aqui una propuesta para el reconocimiento de caracteres vocales basado en matrices como los datos de entrada, luego estas matrices se transformaran como vectores y con la ayuda de las redes neuronales en específico las redes de base radial, se obtendrá un reconocedor que permita identificar vocales mayúsculas y minúsculas, escritas a mano alzada po cualquier usuario.....Item Open Access
Simulador de un computador cuántico utilizando el algoritmo de Shor para factorizar números enteros(PUCE - Quito, 2016) Herrera Manosalvas, Christian Javier; Aguilar Jaramillo, Jorge ArturoEl computador representa la culminación de años de avances tecnológicos empezando por las tempranas ideas de Charles Babbage y la eventual creación del primer computador. Pero sorprendentemente la alta velocidad de los computadores modernos no es diferente de sus ancestros de 30 toneladas equipados con 18000 tubos al vacío y 200 kilómetros de cables. A pesar de que los computadores han llegado a ser más compactos y considerablemente más rápidos en cumplir su tarea, esta tarea es la misma: manipular e interpretar una codificación de bits para obtener un resultado computacional útil. Este avance tecnológico tiene un límite, del cual deriva la computación cuántica. Esta se refiere a los fenómenos que tendrá que enfrentar la tecnología de las computadoras cuando el tamaño de sus componentes rebase un límite inferior determinado, para el cual las leyes de la física son fundamentalmente diferentes a las que se aplican en el mundo macroscópico. El computador actual se basa en los bits. Un bit es la unidad fundamental de la información, clásicamente representado por 1 o 0 en un computador digital. Cada bit clásico es físicamente representado en un sistema físico macroscópico, como la magnetización en un disco duro o la carga en un capacitor. En un computador cuántico la unidad fundamental de información (llamada bit cuántico o qubit) no es binaria, sino más bien cuaternaria en naturaleza. Las propiedades del qubit surgen como consecuencia directa de su adherencia a las leyes de la mecánica cuántica, las cuales difieren radicalmente de las leyes de la física clásica. Un qubit puede existir no solamente en un estado correspondiente a los estados lógicos 0 o 1 como en un bit clásico, sino también en estados correspondientes a una combinación o superposición de estos estados clásicos. En otras palabras, un qubit puede existir como un cero, un uno, o simultáneamente como ambos 0 y 1, con un coeficiente numérico representando la probabilidad de cada estado. La computación cuántica está basada en las interacciones del mundo atómico, y tiene elementos como el bit cuántico, las compuertas cuánticas, los estados confusos, la tele transportación cuántica, el paralelismo cuántico, y la criptografía cuántica. Sus implementaciones aún están en los laboratorios de investigación pero ya se tienen resultados alentadores, como el desarrollo de la computadora cuántica de cinco qubits desarrollado por Steffen. Estas características, entre otras, hacen que la investigación actual en computación cuántica no sea solamente una continuación de la idea actual de un computador, sino una rama entera del pensamiento.Item Open Access
Sistema para determinación de eventos sísmicos en una secuencia de tiempo(PUCE - Quito, 2019) Ginez Ordoñez, Daniel Alejandro; Aguilar Jaramillo, Jorge ArturoEn la actualidad existen varios métodos para la detección automatizada de eventos sísmicos, sin embargo, ninguno logra determinar todos los eventos registrados por los sensores. Dificultades como: el ruido de fondo y eventos muy seguidos que llegan a solaparse limitan la eficiencia en la detección. Por lo tanto , es importante probar y desarrollar otros sistemas y herramientas informáticas que mejoren la detección de eventos sísmicos con mayor eficacia. Además, el uso abundante de sensores, proporciona una gran cantidad de datos que impide al usuario hacer un seguimiento exhaustivo de los mismos. La determinación semi-automática consume mucho tiempo de trabajo humano y es propensa a errores, por lo que un sistema de detección automática proporciona el elemento base, el sismo, para análisis más detallados y libera tiempo para ampliar nuestro entendimiento de la geodinámica de las placas tectónicas y del riesgo que implican.( Ross et al., 2019) La identificación de eventos sísmicos requiere un grado alto de experiencia, de conocimiento correcto y claro para poder determinar el inicio y fin de un sismo. Esto demanda recursos humanos y mucho tiempo y se convierte en un problema, porque el análisis es un seguimiento semi-automático que no se logra cubrir porque existen grandes cantidades de datos y no todos son procesados. La forma en que se describe un evento sísmico incluye diversidad de variables, como son: onda sísmica, presencia de ruido al entrar a los sismógrafos y diferentes ocurrencias en las fases que hay dentro de un sismo; lo que genera un gran volumen de informaciòn compleja. Las soluciones actuales para analizar la gran cantidad de datos, según Akazawa (2004), en su mayoría han sido estadísticas, como por ejemplo el uso directo de STA/LTA, Ruud y Husebye, Tarvainen y la auto represión -Akaike Information Criterion (AR-AIC), sin embargo en grandes cantidades de datos estos métodos suponen una pérdida representativa de eventos sísmicos. El sistema de consola planteado en el presente trabajo determina de forma automática los tiempos de inicio y fin de un evento, reduce los tiempos de trabajo, crea objetos digitales y presenta resultados. Estos procesos facilitan la clasificación, el estudio y la aplicación de cualquier proceso deseado a eventos sísmicos ya determinados.
