FCEIA-ECEN-DCC- Trabajos Finales de Grado (trabajos finales, proyectos y tesinas)
URI permanente para esta colección
Examinar
Examinando FCEIA-ECEN-DCC- Trabajos Finales de Grado (trabajos finales, proyectos y tesinas) por Título
Mostrando 1 - 20 de 82
Resultados por página
Opciones de ordenación
Ítem Acceso Abierto Abordando el problema del anclaje de símbolos para la clasificación semiautomática de imágenes satelitales(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2013-08-02) Alonso, Walter Alexis; Zanni-Merk, Cecilia H.Este trabajo se sitúa en el contexto de investigación del equipo de BFO1 (bioinformatique théorique, fouille de données, optimisation stochastique) del laboratorio ICube2 (Laboratoire des sciences de l'ingénieur, de l'informatique et de l'imagerie) de la Universidad de Estrasburgo y del CNRS, en los dominios de la representación de conocimientos (inteligencia artificial), y del tratamiento de imágenes satelitales. El objetivo general de este trabajo es contribuir al diseño de un sistema de reconocimiento automático de objetos geográficos relativos a un contexto urbano (edificios, caminos, vegetación, etc.) extraídos de imágenes satelitales. Para ello se tiene que relacionar dos estructuras independientes de representación de estos objetos urbanos, que ya han sido definidas. La primera estructura de representación se obtiene a partir de un proceso de clasificación no supervisada de una imagen de satélite. Esta estructura describe la imagen bajo la forma de « clusters », que agrupan objetos de mismas características físicas (superficie, longitud, anchura, perímetro, índice de Morton, firma espectral, etc.). La segunda estructura de representación se obtiene a partir de una descripción lingüística de las características de los objetos urbanos, elaborada por expertos geógrafos bajo la forma de un diccionario. Estos conceptos han sido formalizados mediante una ontología OWL2. Este trabajo consistirá en tratar de establecer una correspondencia entre la primera y la segunda estructura de representación. Para tal fin se realizará un estudio detallado de los atributos de ambas estructuras y con esta información se adquirirá un conjunto de reglas expertas que las relacione, es decir que traduzcan las características físicas de los objetos extraídos de la imagen en descripciones conceptuales. A su vez, se desarrollará un programa que extraiga los atributos de la imagen a partir de una archivo .arff, ejecute las reglas e instancie las descripciones conceptuales en una ontología. Por último, mediante un editor de ontologías, se clasificarán las instancias con un razonador y se identificarán a qué objetos urbanos pertenecen. Finalmente, en esta tesina, se pudo lograr el desarrollo de un programa para obtener una instanciación automática de las características físicas traducidas a las descripciones conceptuales en la ontología. 1 http://icube-bfo.unistra.fr/fr/index.php/Accueil . 2 http://icube.unistra.fr/Ítem Acceso Abierto Adaptación de arquitecturas profundas a problemas no estacionarios(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2013-03-22) Morelli, Leonardo R.; Grinblat, Guillermo L.; Granitto, Pablo M.; Granitto, Pablo M.En Aprendizaje Automatizado, la mayoría de los métodos de análisis de datos utilizados asumen como premisa básica la estacionaridad de los mismos (es decir, que el fenómeno bajo análisis no cambia en el tiempo). Sin embargo, muchos sistemas reales de gran interés práctico son claramente no estacionarios como por ejemplo cualquier propiedad relacionada a la meteorología o el problema de detección temprana de fallas en líneas de producción. Otra característica que presentan estos métodos es que se basan en lo que puede definirse como arquitecturas poco profundas (Redes Neuronales con una capa oculta, SVM, Árboles de Decisión, etc.), aunque desde hace bastante tiempo se sabe que las arquitecturas profundas, como las Stacked Restricted Boltzmann Machines (SRBM), pueden ser mucho más eficientes a la hora de representar ciertas funciones. En este trabajo se estudia el rendimiento de estas arquitecturas en el ámbito de los problemas no estacionarios y su adaptación a los mismos. Para ello se propone una forma en que se puede integrar la información aportada por los datos antiguos al entrenamiento de un modelo de mayor profundidad que al mismo tiempo sea capaz de adaptarse rápidamente a cambios observados. Para validar la nueva técnica se compara su desempeño con métodos tradicionales sobre problemas no estacionarios diseñados a partir de dos datasets ampliamente usados y conocidos, MNIST y NORB.Ítem Acceso Abierto Alef: un cálculo de efectos algebraicos con tipado bidireccional(2020-07-13) Locascio, Antonio; Jaskelioff, Mauro; Rivas, ExequielEl modelado de efectos computacionales mediante teorías matemáticas es un instrumento fundamental para facilitar el razonamiento sobre programas y poder garantizar su correctitud. Uno de estos modelos es el basado en la teoría de efectos algebraicos, que representa los efectos mediante operaciones de una teoría algebraica que captura su comportamiento. Para incorporar este modelo al diseño de lenguajes de programación se introducen los sistemas de efectos, que extienden los sistemas de tipos con información acerca de los efectos que pueden ser causados por un programa. Sin embargo, las implementaciones de estos sistemas suelen ser muy complejas, perdiendo en gran medida la claridad conceptual provista por los fundamentos teóricos. En esta tesina se describe un sistema de efectos implementable para un cálculo básico con efectos algebraicos y handlers, usando una nueva variación del tipado bidireccional para preservar la claridad y la estrecha relación con la teoría matemática subyacente. Este sistema se prueba seguro respecto a la semántica operacional y se lo implementa en Haskell, mostrando tanto la simplicidad de su formulación como su gran poder expresivo.Ítem Acceso Abierto Algoritmo divisivo de clustering con determinación automática de componentes(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2014-04-11) Vidal, Erica; Bayá, Ariel; Granitto, Pablo M.Cluster analysis es el estudio de algoritmos y métodos cuyo objetivo es encontrar una forma conveniente y válida de organizar un conjunto de datos en grupos. Entre sus múltiples aplicaciones se encuentran la segmentación de imágenes, la clasificación automática de documentos o archivos multimedia, la detección de comunidades en redes sociales y la identificación de genes con funciones similares, por nombrar algunas. En este trabajo exploramos soluciones a problemas abiertos del área de cluster analysis y como resultado desarrollamos un nuevo algoritmo de clustering, DHclus, que descubre clusters con formas arbitrarias en los datos, determina automáticamente la cantidad de componentes presentes en los datos (incluso cuando hay clusters a diferentes escalas en un mismo problema) y además selecciona los parámetros que afectan su performance. Además implementamos el algoritmo como un paquete de software libre para el entorno de programación R y se encuentra disponible para toda la comunidad.Ítem Acceso Abierto Análisis de calidad y confianza en los metadatos de objetos de aprendizaje recuperados(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2011-05-11) Álvarez Machicote, Damián; Deco, Claudia; Bender, CristinaEl importante crecimiento que ha tenido Internet y en particular la World Wide Web, se debe a su habilidad para facilitar la posibilidad de compartir e intercambiar información y recursos. Con la necesidad de tener acceso a esta gran cantidad de información han surgido diversos problemas en su recuperación. Este problema también sucede en el escenario de los repositorios educacionales. Sin embargo aquí no sólo se busca la documentación relevante sino que también se exige una cuidada calidad de contenido y que la misma presente ciertas características de interés o de necesidad para el usuario. Los elementos a recuperar se llaman objetos de aprendizaje, los cuales son elementos para la instrucción, aprendizaje o enseñanza basada en computadora. Los mismos se encuentran almacenados en contenedores conocidos como Repositorios de Objetos de Aprendizaje donde el objetivo principal es organizarlos y mantenerlos disponibles para diferentes usos. En este trabajo se propone medir la calidad y confiabilidad de objetos de aprendizaje con el fin de que los recursos electrónicos de mayor calidad y confianza escalen las primeras posiciones en los resultados de búsqueda y que además se personalicen al perfil del usuario que realiza la búsqueda. La medición de la calidad de los objetos de aprendizaje es llevada a cabo por un fuerte y completo análisis de los metadatos siguiendo el estándar de metadatos LOM (Learning Object Metadata) y la medición de la confiabilidad se obtiene mediante el análisis de las calificaciones otorgadas por los usuarios. Para la implementación de este trabajo se ha desarrollado una aplicación web prototipo que permite realizar búsquedas en un repositorio mediante palabras claves. El objetivo principal será la verificación de la mejora de calidad y confiabilidad de los objetos de aprendizaje recuperados.Ítem Acceso Abierto Análisis de modelos de memoria en plataformas de virtualización. Formalización de un prototipo funcional de plataforma con Cache y Tlb(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2012-04-13) Chimento, Jesús Mauricio M.; Luna, Carlos D.La virtualización es una técnica que se utiliza para correr múltiples sistemas operativos en una sola máquina física, pero creando la ilusión de que en realidad cada uno de estos sistemas operativos corre dentro de una Máquina Virtual diferente. El Monitor de Máquinas Virtuales es el encargado de administrar los recursos compartidos por los sistemas operativos que corren en las Maquinas Virtuales de manera que todos se puedan ejecutar adecuadamente. En particular, el acceso y uso de la Memoria Principal (i.e. Memoria RAM) es un aspecto crítico que el Monitor de Máquinas Virtuales debe controlar. En este trabajo se presenta un modelo formal idealizado de un Monitor de Máquinas Virtuales, sobre el cual se demuestran propiedades que garantizan el uso correcto de las acciones provistas por dicho Monitor a los distintos sistemas operativos virtualizados y el correcto acceso y uso de la Memoria Principal por parte de estos sistemas operativos. Además, se utiliza el asistente de pruebas de Coq para las demostraciones y posterior extracción de una versión ejecutable del modelo.Ítem Acceso Abierto Análisis Formal de la Instalación de Aplicaciones en MIDP 3.0.(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2014-12-19) Prince, Cristián Germán; Luna, Carlos DanielHoy en día, la telefonía celular se ha vuelto imprescindible para el desarrollo de la vida cotidiana. Además de sus servicios básicos de comunicación, los dispositivos móviles permiten almacenar datos confidenciales y, descargar y ejecutar aplicaciones, lo que conlleva un riesgo para la integridad y privacidad de la información que uno tiene. Es por ello que la seguridad pasa a tener un rol fundamental en el desarrollo y en el éxito de las tecnologías móviles. En la plataforma Java Micro Edition, el ambiente de ejecución estándar para teléfonos celulares está provisto por el Perfil para Dispositivos de Información Móviles (MIDP, por sus siglas en Inglés). Para la versión 2.0 de MIDP, Zanella, Luna y Betarte, propusieron la primera especificación formal de su modelo de seguridad. Se construyó un modelo abstracto en el Cálculo de Construcciones Inductivas (CIC) del estado de un dispositivo y de los posibles eventos que inducen cambios en dicho estado. Además, se han demostrado propiedades deseables para cualquier implementación del estándar, lo que lo convierte en una poderosa herramienta para razonar sobre el modelo de seguridad y facilitar su comprensión. Una primera extensión de este modelo fue realizada por Gustavo Mazeikis, quien realizó la formalización del Modelo de Autorización para MIDP 3.0 (la más reciente versión del perfil) y demostró la preservación de las propiedades de seguridad consideradas para MIDP 2.0. En este trabajo se presenta una nueva extensión de la especificación formal referida. Este proyecto conserva las propiedades de seguridad demostradas por Mazeikis e incorpora el manejo y almacenamiento de vendedores y certificados en el dispositivo que son utilizados al momento de la instalación, como así también cambios sustanciales sobre la definición de este evento crítico. El aporte principal de este trabajo es la verificación sobre el vendedor de una aplicación y su certificado asociado, abarcando el caso en que éste no posea uno. De esta manera, un usuario puede instalar aplicaciones de vendedores cuyos certificados autentican que son confiables o aplicaciones de vendedores que no poseen dicha certificación, como podría ser el caso de un programador que desarrolla una aplicación para uso propio o compartido. En el marco del formalismo extendido, se propone un algoritmo para realizar la instalación de una aplicación y se demuestra su corrección.Ítem Acceso Abierto Aplanado eficiente de grandes modelos Modélica(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2015-08-19) Botta, Mariano; Bergero, Federico; Kofman, ErnestoModelica es un lenguaje de modelado de todo tipo de sistemas. Gracias a su metodología de programación orientada a objetos y a la posibilidad de vectorizar los medelos, mediantes arreglos y ecuaciones for, Modelica facilita la escalabilidad de modelos. Las herramientas existentes de compilación de modelos Modelica desaprovechan estas características de los modelos, expandiendo las ecuaciones for y eliminando la vectorización del mismo desde las primeras etapas de compilación. Esto reduce gravemente la performance del compilador. En esta tesina, desarrollamos un algoritmo de aplanado que mantiene la vectorización de los modelos, conservando los arreglos y las ecuaciones for. También fue necesario crear un algoritmo de resolución de componentes conexas en un grafo vectorizado para poder resolver las conexiones existentes en los modelos.Ítem Acceso Abierto Aplanado eficiente de grandes sistemas de ecuaciones algebraico-diferenciales(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2020-12) Marzorati, Denise; Kofman, Ernesto; Fernandez, JoaquínDiversas ramas de la ciencia y de la técnica utilizan modelos matemáticos de los sistemas que estudian. Sobre estos modelos matemáticos se realizan simulaciones para analizar el comportamiento de dichos sistemas. Dado que estas técnicas son aplicadas a sistemas cada vez más complejos y grandes, permanentemente surgen nuevos desafíos. Los sistemas dinámicos continuos suelen ser representados mediante sistemas de ecuaciones diferenciales algebraicas (EDAs), y su simulación requiere de la resolución numérica de dichas ecuaciones, que puede hacerse a través de algoritmos específicos conocidos como solvers. Los solvers requieren que los sistemas de ecuaciones estén escritos y ordenados de cierta forma, que generalmente no coincide con la manera en la que un/una especialista describe los modelos. Para convertir los modelos desde una representación orientada a objetos, tal como la usada por los lenguajes de modelado modernos, en una representación de ecuaciones ordenadas y estructuradas, como la requieren los solvers, se recurre a diversos algoritmos que conforman un "compilador de modelos". Estos algoritmos están basados, en su mayor parte, en la Teorı́a de Grafos. En esta tesina se describe la formulación e implementación de nuevos algoritmos para convertir modelos orientados a objetos de gran escala en sistemas de ecuaciones. Estos algoritmos están principalmente basados en la teorı́a de grafos y tienen la propiedad de lograr un costo computacional constante con respecto al tamaño de los arreglos involucrados. Para esto, hacen uso de una nueva categoría de grafos denominados "Grafos Basados en Conjuntos", que permiten representar y manipular conjuntos de vértices y aristas de manera compacta.Ítem Acceso Abierto Aplicación bioinformática para predicción de genes regulados por microARNs en plantas(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2011-05-11) Chorostecki, Uciel; Palatnik, Javier; Bulacio, PilarLos microARNs (o miARNs) son ARN no codificantes que regulan la expresión génica en animales y plantas, implicados en procesos biológicos muy variables, como el desarrollo, la diferenciación y el metabolismo. Estos pequeños ARNs de aproximadamente 21 nucleótidos reconocen secuencias parcialmente complementarias en los ARNm blanco, provocando su corte o arresto de la traducción. Los microARNs han saltado rápidamente a la primera plana del interés de la comunidad científica como un nuevo nivel en el control de la expresión génica en eucariotas. Estudios recientes han puesto de manifiesto que los microARNs están estrechamente involucrados en distintas enfermedades de importancia. Algunos tienen relación con distintos tipos de Cáncer y otros están relacionados con enfermedades cardíacas donde los niveles de expresión de microARNs específicos cambian en el corazón humano cuando están presentes dichas enfermedades. Los cálculos actuales consideran que entre el 20% y el 40% de los genes de humanos se encuentran regulados por microARNs. Este trabajo propone estudiar en forma automatizada a los microARNs en plantas, su biogénesis y los genes que regulan, a través de un enfoque multidisciplinario. Para esto presentaremos una estrategia bioinformática para la identificación de genes blancos de microARNs y además una herramienta web para el análisis y selección de los mejores genes blancos candidatos. Considerando que muchos de estos ARNs pequeños están ampliamente distribuidos en plantas, la herramienta a desarrollar estará basada principalmente en la conservación durante la evolución de la interacción del par microARN-gen blanco en distintas especies. Además, al estar los microARNs utilizados en este proyecto conservados en especies de interés agronómico las aplicaciones potenciales de este trabajo propuesto podrían ser inmediatas.Ítem Acceso Abierto Aprendizaje multiclase de videoimágenes deportivas con arquitecturas profundas(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2016-03-08) Escarrá, Martín; Grinblat, Guillermo; Granitto, PabloLas arquitecturas profundas permiten representar de manera compacta funciones altamente no lineales. Entre ellas, las redes convolucionales han adquirido gran protagonismo en la clasificación de imágenes debido a la invarianza traslacional de sus features. Este trabajo propone investigar un abordaje naïve para la clasificación de videoimágenes con redes profundas, comparar la performance de redes pre-entrenadas con la de redes ad-hoc y finalmente crear un mecanismo de visualización de la representación interna de la arquitectura. Como ejemplo de aplicación se utilizarán segmentos de videos deportivos con diferentes acciones grupales.Ítem Acceso Abierto Aproximando los escalares de un lambda-cálculo algebraico mediante cotas inferiores(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2011-12-14) Buiras, Pablo; Jaskelioff, MauroEl lambda-cálculo algebraico es un cálculo no tipado en el que se pueden realizar combinaciones lineales de términos, con aplicaciones a la computación probabilística, la computación paralela y la computación cuántica. La reducción en este cálculo está dada por un sistema de reescritura sujeto a varias restricciones que garantizan su confluencia. Existen varios sistemas de tipos para este cálculo, cada uno de los cuales representa un paso más en la dirección a un cálculo algebraico tipado general. En este trabajo, se presenta un sistema de tipos para el lambda-cálculo algebraico que se basa en la idea de aproximar los escalares que aparecen en los términos mediante cotas inferiores, reflejando esta información en los tipos. Se demuestra que este cálculo tiene subject reduction y normalización fuerte, y como corolario se obtiene una forma más sencilla de demostrar la confluencia del sistema de reescritura, eliminando las restricciones a la reducción de la versión no tipada.Ítem Acceso Abierto Asistente para el depósito de documentos en Repositorios utilizando extracción semiautomática de metadatos(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2015-09-18) Fontanarrosa, Santiago; Casali, Ana; Deco, ClaudiaEl desarrollo de Repositorios Institucionales de Acceso Abierto es prioritario para la preservación y diseminación de conocimiento abierto y accesible para toda la ciudadanía. En particular, la creación de repositorios de objetos digitales educativos en las universidades públicas de Argentina, es una prioridad en el marco de las políticas del Ministerio de Ciencia, Tecnología e Innovación y el Consejo Interuniversitario Nacional. El objetivo de estos repositorios es viabilizar de una forma eficiente el almacenamiento, clasificación, búsqueda y reutilización de estos recursos educacionales. En este trabajo se propone facilitar el proceso de depósito de objetos digitales educativos en repositorios modificando el flujo de carga estándar de plataformas tales como DSpace. Ademas, se ha propuesto una arquitectura de un Asistente para la Extracción Automática de algunos metadatos de los documentos. Estos metadatos extraídos automáticamente son validados por el usuario en el proceso de descripción del objeto. Para el asistente, se analizaron distintas herramientas de extracción y en particular se propuso utilizar una combinación de las mismas. Un prototipo de este asistente se implementará en el Repositorio RepHip de la Universidad Nacional de Rosario. De esta forma se espera ayudar al usuario en el proceso de carga disminuyendo así su trabajo y mejorando la cantidad y la calidad de los metadatos cargados.Ítem Acceso Abierto Brecha de dualidad y límites de tipo Ramsey para familias de grafos de intersección de rectángulo(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2021-03-10) Capretto, Margarita; Chalermsook, Parinya; Torres , PabloEn teoría de grafos, el problema de encontrar el conjunto independiente máximo (MIS, por sus siglas en inglés), y el problema de encontrar el conjunto de golpe mínimo (MHS), son de vital relevancia en el campo de estudi. En cuanto a la complejidad computacional, ambos son NP difíciles (incluso de aproximación) para grafos en general. En esta tesina, nos centramos en las familias de grafos de rectángulos, cuadrados y de ganchos, que son entradas más simples para esta problemática. Estudiamos, asimismo, algunos problemas combinatorios extremales, y analizamos de qué manera pueden utilizarse para obtener algoritmos de aproximación para MIS y MHS en estas clases de grafos.Ítem Acceso Abierto Búsqueda de mejoras en la detección automática de estrellas variables(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2021-05) Rodríguez, Jeremías; Granitto, Pablo M.; Cabral, Juan B.La astronomía está atravesando una profunda transformación debido al desarrollo de modernos telescopios terrestres y satelitales, que han fomentado la realización de enormes relevamientos astronómicos. Ante la abrumadora cantidad y calidad de los datos generados, se vuelve imprescindible el uso de procedimientos automatizados. Consecuentemente, diversas técnicas de aprendizaje automatizado y minería de datos surgen como una elección natural a la hora de analizar y extraer información de modernos datasets astronómicos. En este trabajo se hará uso de mediciones generadas por el relevamiento VVV del infrarrojo cercano (realizado en Parnal, Chile), que relevó aproximadamente 109 estrellas durante un período de 5 años. Se aplicarán diversas técnicas de aprendizaje automatizado con el objeto de identificar estrellas de tipo RR Lyrae, las cuales son extremadamente valiosas pues permiten estimar distancias a viejas poblaciones estelares. En concreto, se hará uso de clasificadores de tipo Random Forest y Support Vector Machine, haciendo ́énfasis en comprender por qué los primeros parecen tener significativamente mejor performance en este tipo de datasets astronómicos.Ítem Acceso Abierto Clasificación semántica de objetos urbanos en imágenes satelitales. Una ontología para la interpretación de regiones urbanas basada en sus relaciones espaciales(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2014-12-11) Cravero, Maximiliano; Zanni-Merk, Cecilia; Marc-Zwecker, StellaLa información de la cobertura y el uso del suelo en objetos urbanos observados a diferentes escalas espaciales y temporales es de particular interés para planificadores urbanos y expertos geógrafos. Adquirir automáticamente esta información en entornos complejos, como por ejemplo áreas urbanas, es una tarea difícil que consume mucho tiempo si se utilizan fuentes de datos tradicionales (técnicas de agrimensura). La amplia disponibilidad de imágenes satelitales de alta resolución espacial representa una excelente oportunidad para identificar y caracterizar estos entornos. Mediante la descomposición de imágenes en objetos y regiones, es posible utilizar métodos que formalicen el conocimiento del dominio para automatizar el reconocimiento de objetos urbanos, es decir, calles, edificios, parques, etc. Adquirir y representar conocimiento es muchas veces una tarea tediosa. Los múltiples pasos involucrados en la creación de una base de conocimiento pueden ser diferentes para un mismo dominio en estudio, lo que lleva a una heterogeneidad de la información. Sin embargo, si se hiciera correctamente, permitiría producir sistemas inteligentes basados en el uso del conocimiento adquirido. Las ontologías representan una alternativa interesante para construir una base de conocimiento. Su uso creciente en los últimos años ha permitido desarrollar diferentes lenguajes los cuales proveen diferentes facilidades para poder construir ontologías. El más utilizado, OWL 2.0, basado en lógica de descripción, es apto para el razonamiento automático. Este proyecto plantea el desarrollo de una ontología de objetos urbanos que ayude a los expertos en el proceso de reconocimiento de los mismos. Adicionalmente, para cumplir con los estándares utilizados por los expertos geógrafos, se utilizó la teoría del modelo RCC8 (Region Connection Calculus) para representar relaciones espaciales entre regiones, lo cual añade mayor expresividad, mejorando el razonamiento sobre la ontología. Para finalizar, y ante la ausencia de un software de procesamiento de imágenes que se ajuste a las necesidades del proyecto, se desarrolló una aplicación que permite que un usuario pueda delimitar las regiones de interés en una imagen satelital, simulando el comportamiento de un software especializado. Por medio de la interfaz gráfica, es posible ingresar información sobre las regiones dibujadas, la cual será incorporada a la ontología, para posteriormente, mediante el uso de un razonador lógico, inferir nuevos resultados.Ítem Acceso Abierto Codificación y reconstrucción de rostros con redes adversarias generativas(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2020) Zanetti, Álvaro; Uzal, LucasSe ha observado que en una arquitectura GAN en general es difícil obtener una función inversa del generador (G), es decir, una función tal que dada una imagen se obtenga el vector Z que le permita al generador reconstruir tal imagen. El objetivo de esta tesina es estudiar este procedimiento de inversión considerando un dataset de rostros conformado por una única identidad, entendiendo que esta restricción simplificaría dicho proceso. Además, se desea comparar los resultados obtenidos con otros datasets de identidades diversas y mayor complejidad. Se desea investigar si esta simplificación del dataset permite lograr mejores reconstrucciones con el procedimiento anteriormente descripto. Por otro lado, e independientemente de lo anterior, el entrenamiento adversario de un generador que permita obtener imágenes de una determinada identidad abre la posibilidad de diversas aplicaciones como la generación y animación de rostros sintéticos de una determinada persona, representación visual de chatbots, y en términos de seguridad informática, suplantación de identidad en sistemas de validación por reconocimiento facial en video. Por lo tanto, un objetivo secundario, es evaluar el potencial de estas técnicas para las mencionadas aplicaciones.Ítem Acceso Abierto Combinando Métodos para Búsquedas en Espacios Métricos Anidados(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2011-12-20) Gercek, Hugo Adrián; Reyes, Nora; Deco, ClaudiaLa mayoría de los métodos de búsqueda en espacios métricos asumen que la topología de la colección de objetos es razonablemente regular. Sin embargo, se sabe de la existencia de los Espacios Métricos Anidados - Nested Metric Spaces, que son algunos espacios métricos en donde los objetos de la colección pueden agruparse en clusters o subespacios. Aquí diferentes dimensiones o variables explican las diferencias entre los objetos dentro de cada subespacio anidado dentro de un espacio métrico más general. En este trabajo se presenta una estructura de índice de dos niveles para procurar resolver problemas de búsquedas en espacios de esta topología, intentando aprovechar las virtudes de un conjunto de técnicas de indexación ya conocidas. La idea es que un primer nivel posea una Lista de Clusters (LC), donde se tienen identificadas y ordenadas estas agrupaciones utilizando el Sparse Spatial Selection (SSS) y técnicas de Listas de Clusters; y en un segundo nivel se tenga un índice por cada cluster denso, basado en selección de pivotes, empleando el SSS. Además, se propone adaptar los índices del segundo nivel a las búsquedas que se están realizando, aplicando la “Selección Dinámica de Pivotes que se Adaptan a las Búsquedas en Espacios Métricos”, con el objetivo de adaptar los pivotes para mejorar las futuras búsquedas usando la información brindada por las búsquedas ya realizadas.Ítem Acceso Abierto Compilación del lambda cálculo con matrices densidad en la máquina cuántica IBM-Q(2023-12) Villagra, Martín; Díaz-Caro, Alejandro; Martínez López , Pablo E.El cálculo λρ introducido por Díaz-Caro en 2017 es un lenguaje basado en el lambda cálculo con extensiones para la computación cuántica donde se utiliza un modelo de control clásico y datos cuánticos. Los estados cuánticos se describen mediante matrices de densidad, que permite operar con estados cuánticos mixtos. En esta tesina se provee un algoritmo para tipar λρ. Utilizando este algoritmo probamos que el tipado es NP-completo bajo condiciones de minimización de los tipos. Seguidamente analizamos la relación entre λρ y las aplicaciones actuales de la computación cuántica al definir una traducción de una versión modificada de λρ a Python y haciendo uso de la biblioteca de Qiskit. Además de probar su correctitud, implementamos estos algoritmos en el lenguaje funcional Haskell.Ítem Acceso Abierto Concretización a Perl de casos de prueba abstractos generados a partir de especificaciones Z(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2020-11) Bonet, Javier; Cristiá, MaximilianoLa investigacíón entorno a la especificación de sistemas de software se ha acrecentado los últimos años y se debe a la importancia que tienen éstas tanto para la construcción como para el mantenimiento de sistemas. La característica que hace a las especificaciones un punto clave en el desarrollo de software es la de proveer las herramientas necesarias para formalizar los requerimientos funcionales, comúnmente expresados en lenguaje natural y, por lo tanto, muy propensos a contener ambigüedades. La etapa de testing de software es otra de las áreas que se ve beneficiada por las especificaciones funcionales ya que el testing basado en modelos (MBT la siglas de su traducción del inglés Model-Based Testing) permite la generación de casos de prueba a partir de una especificación del sistema que se desea testear. Para su tesina de grado Pablo Rodríguez Monetti presenta una primera implementación de TTF (Test Template Framework) llamada Fastest. Esta herramienta es un framework de MBT que toma especificaciones en lenguaje Z como punto inicial del proceso. Esta implementación permite generar casos de prueba abstractos partiendo de una especificación Z. En sus respectivas tesinas de grado Diego Ariel Hollmann y Pablo Damián Coca extienden Fastest con módulos que permiten el refinamiento de casos de prueba abstractos, generados por Fastest, a casos concretos en los lenguajes C y Java, respectivamente. En su tesina Diego Ariel Hollmann presentó Test Case Refinement Language (TCRL de ahora en más), un lenguaje de refinamiento utilizado en ambos trabajos para establecer la correspondencia entre las variables de especificación y las de implementación. En esta tesina se presenta el lenguaje de refinamiento ATCAL, creado por el actualmente graduado en Licenciatura en Ciencias de la Computación Cristian Rosa como parte de un trabajo realizado para un post-doctorado. A éste, el autor hizo los agregados necesarios para completar su definición. En comparación con TCRL, se simplifican algunas de sus estructuras y se extiende su expresividad. Además, se implementa un nuevo módulo de Fastest que refina los casos abstractos de prueba a casos concretos en Perl. Junto con este desarrollo se presentan casos de estudio para ejemplificar el uso del lenguaje ATCAL como medio para describir los mapeos entre especificación funcional e implementación, además de los casos concretos generados, de modo tal que se hace posible realizar una comparación directa respecto a sus correspondientes casos abstractos.