2024-03-28T13:11:37Zhttp://ri.uaemex.mx/oai/requestoai:ri.uaemex.mx:20.500.11799/326872016-04-16T00:26:13Zcom_20.500.11799_22030com_20.500.11799_21941com_20.500.11799_40546col_20.500.11799_22429
Diseño y construcción de un sistema automatizado para la apertura y cierre de persianas
Hernández Epigmenio, Miguel Ángel
diseño
El presente trabajo está enfocado a generar una comodidad más para la sociedad, así
como minimizar el consumo de energía eléctrica y lo que se paga por ella. El sistema de
control de apertura y cierre de persianas propuesto está basada en la noción de
conceptos de control moderno como finalidad de aprovechar nuestra energía solar y optar
por seguir utilizando la teoría del control para así generar más proyectos que sean de
utilidad y de gran beneficio en la sociedad.
Actualmente el surgimiento de nuevas tecnologías y avances han generado que
los proyectos como métodos o propuestas sean del todo más sofisticadas, la mayoría de
estos proyectos están enfocados a mejoras continuas como sistemas de nuevas
propuestas y seguimientos por generaciones que están por venir
Para un servidor es del todo compartir con mucha gratitud esta tesis, esperando
que sea de mucha utilidad para usted
2016-02-25T15:55:40Z
2016-02-25T15:55:40Z
2015
Tesis de Licenciatura
http://hdl.handle.net/20.500.11799/32687
spa
openAccess
Universidad Autónoma del Estado de México
oai:ri.uaemex.mx:20.500.11799/326912016-04-13T18:41:33Zcom_20.500.11799_22030com_20.500.11799_21941com_20.500.11799_40546col_20.500.11799_22429
Estudio y diseño de un sistema autónomo de iluminación mediante sensores fotorreceptores para su uso en la domótica
Camacho Altamirano, Ulices
estudio
Determinar la frecuencia de Depresión en pacientes diabéticos e hipertensos en el Centro de Salud Rural Disperso de Portezuelos Jiquipilco Estado de México de Agosto del 2013 a Junio del 2014.
2016-02-25T16:01:56Z
2016-02-25T16:01:56Z
2015
Tesis de Licenciatura
http://hdl.handle.net/20.500.11799/32691
spa
openAccess
oai:ri.uaemex.mx:20.500.11799/326932019-03-11T20:12:28Zcom_20.500.11799_22030com_20.500.11799_21941com_20.500.11799_40546col_20.500.11799_22429
Reciclaje mecánico y por radiación gamma de envases de Tetra Pak Brik Aseptic para la modificación de propiedades físicas y mecánicas y su reuso como sustituto de agregado fino en concreto
Nieves Flores, Jesica Jazmín
Ávila Córdoba, Liliana Ivette
Martínez Barrera, Gonzalo
reciclaje
Los envases de Tetra Pak Brik Aseptic® se han convertido en uno de los más importantes para el sector de envase y embalaje, ya que el tipo de materiales empleados aportan grandes beneficios a los productos para los que se destinan, permiten transportar alimentos con facilidad, lo que significa un ahorro de espacios de almacenamiento.
2016-02-25T16:07:11Z
2016-02-25T16:07:11Z
2015
Tesis de Licenciatura
http://hdl.handle.net/20.500.11799/32693
spa
openAccess
Universidad Autónoma del Estado de México
oai:ri.uaemex.mx:20.500.11799/327022017-06-10T00:19:51Zcom_20.500.11799_22030com_20.500.11799_21941com_20.500.11799_40546col_20.500.11799_22429
Caracterización de nanocompuestos pead para el aligeramiento de botellas de pead
Pérez Santana, María del Pilar
Flores Vázquez, Ana Lilia
nanocompuestos pead
El objetivo principal de esta tesis es desarrollar nanocompuestos de PEAD mediante el proceso de extrusión, posteriormente caracterizar con la realización de pruebas mecánicas y reológicas, Para encontrar la formulación óptima y fabricas envases plásticos más ligeros. DE esta manera no se limita el uso en el secot de envase. Para ellos se ha empleado diferentes nanoarcillas como son: halloysita y Montmorillonita....
2016-02-25T16:35:25Z
2016-02-25T16:35:25Z
2014
Tesis de Licenciatura
http://hdl.handle.net/20.500.11799/32702
spa
openAccess
Universidad Autónoma del Estado de México
oai:ri.uaemex.mx:20.500.11799/327352016-04-15T23:44:26Zcom_20.500.11799_22030com_20.500.11799_21941com_20.500.11799_40546col_20.500.11799_22429
Sistema para la gestión y recuperación de datos informativos multimedia in-situ de espacios universitarios
García Aguilar, Abraham
Sistema
recuperación
multimedia
universitarios
se muestra la información más relevante para poder conocer
sobre el problema de la necesidad de información sobre los espacios físicos
con los que cuenta la UAP Tianguistenco. De esta manera se presenta el
planteamiento del problema, la justificación, los objetivos, la delimitación del
problema, la hipótesis y la metodología a aplicar para poder resolver la
problemática que se presenta a continuación.
2016-02-25T19:57:10Z
2016-02-25T19:57:10Z
1/02/2015
Tesis de Licenciatura
http://hdl.handle.net/20.500.11799/32735
spa
openAccess
Universidad Autónoma del Estado de México
oai:ri.uaemex.mx:20.500.11799/327372016-04-13T18:41:33Zcom_20.500.11799_22030com_20.500.11799_21941com_20.500.11799_40546col_20.500.11799_22429
DISEÑO DE UN SISTEMA DE MONITOREO DE TEMPERATURA DE UN INVERNADERO PARA EL CULTIVO DE FRIJOL
MEJIA VALERO, JULIA ISABEL
SISTEMA
TEMPERATURA
FRIJOL
MONITOREO
DESDE QUE SE TIENE CONOCIMIENTO DE LA EXISTENCIA DEL HOMBRE, ESTE HA DESARROLLADO DIVERSAS TECNICAS Y MÉTODOS EMPÍRICOS O CIENTÍFICOS QUE LE PERMITEN TENER UN MEJOR ESTILO DE VIDA, SIEMPRE BUSCANDO UN OBJETIVO, ADAPTARLO A SU MEDIO Y A SU VEZ TENER CONTROL DE SU FUNCIONAMIENTO
2016-02-25T20:18:16Z
2016-02-25T20:18:16Z
2014-10
Tesis de Licenciatura
http://hdl.handle.net/20.500.11799/32737
spa
openAccess
oai:ri.uaemex.mx:20.500.11799/334072017-06-10T00:19:54Zcom_20.500.11799_22030com_20.500.11799_21941com_20.500.11799_40546col_20.500.11799_22429
Sistema para la gestión y recuperación de datos informativos multimedia in-situ de espacios universitarios
García Aguila, Abraham
García Hernández, René Arnulfo
García Aguila, Abraham
Sistema para la gestión
recuperación de datos informativos
in-situ
En este capítulo se presentó una breve introducción sobre la importancia de la
información que existe entorno a los espacios físicos : así como lo
imprescindible que ésta es para la comunidad de la UAP Tianguistenco. De
esta manera se sustenta el grave problema de la necesidad de información qué
surge in-situ y que crece de forma exponencial. Así, conociendo los datos más
relevantes sobre la problemática es cómo podemos abordar al segundo
capítulo en el cual se proporcionarán conocimientos técnicos y a partir de estos
conocimientos se mostrará el sistema con el que se podrá dar solución a la
problemática expuesta en este capítulo.
2016-03-12T02:03:54Z
2016-03-12T02:03:54Z
2015-02
Tesis de Licenciatura
García Aguilar, A. (2015). Sistema para la gestión y recuperación de datos informativos multimedia in-situ de espacios universitarios. LICENCIATURA. UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO.
http://hdl.handle.net/20.500.11799/33407
spa
spa
openAccess
oai:ri.uaemex.mx:20.500.11799/334092017-06-10T00:19:56Zcom_20.500.11799_22030com_20.500.11799_21941com_20.500.11799_40546col_20.500.11799_22429
"Diseño de un sistema de monitoreo de Temperatura de un Invernadero para el cultivo de frijol"
Mejia Valero, Julia Isabel
Mejia Valero, Julia Isabel
Sistema
Monitoreo
Temperatura
Invernadero
Frijol
Cultivo
Este trabajo estudia los elementos principales que intervienen en la producción del frijol centrándose principalmente en la temperatura. Se demostró que la variación de temperatura es crucial para un buen desarrollo de la leguminosa. Por medio de una tarjeta de adquisición de datos se monitoreo la temperatura llevando un registro preciso de la temperatura contra el crecimiento de la leguminosa. De esta manera se obtuvo un registro de datos que nos ayudan a comprender como se desarrollan los cultivos de frijoles con respecto a las variaciones de temperatura. AL final del proyecto se plantean propuestas futuras en las cuales si el cultivo lo justifica económicamente se podría por medio de la implementación de actuadores mantener la temperatura, luminosidad, humedad relativa y humedad superficial en los ragos deseados.
2016-03-12T02:14:11Z
2016-03-12T02:14:11Z
2014-10
Tesis de Licenciatura
Mejia Valero, J. (2014). "Diseño de un sistema de monitoreo de Temperatura de un Invernadero para el cultivo de frijol". Licenciatura. Universidad Autónoma del Estado de México, Unidad Académica Profesional Tianguistenco.
http://hdl.handle.net/20.500.11799/33409
spa
spa
openAccess
Universidad Autónoma del Estado de México, Unidad Académica Profesional Tianguistenco
oai:ri.uaemex.mx:20.500.11799/404102017-06-10T00:20:00Zcom_20.500.11799_22030com_20.500.11799_21941com_20.500.11799_40546col_20.500.11799_22429
IMPLEMENTACIÓN DE LA NORMA CQI-8 LPA´s, EN EL PROCESO DE INYECCIÓN DE CERA PERDIDA
YAÑEZ LENDIZABAL, ALEJANDRA EMILSEN
FONSECA MUNGUÍA, ADRIANA
IMPLEMENTACIÓN
PROCESO
INYECCIÓN DE CERA PERDIDA
La aplicación de la norma CQI-8 LPA´s se llevará a cabo en una empresa automotriz que obtiene sus productos mediante el proceso de fundición a la cera perdida, específicamente en el proceso de inyección de cera. Los datos serán analizados considerando los antecedentes e información para el estudio correspondiente.
Las empresas manufactureras industriales, principalmente las automotrices, en su esfuerzo por mantenerse competitivos en el mercado, trabajan para estar en conformidad con los estándares de las certificaciones de los sistemas de gestión: ISO (International Organization for Standardization) 9001:2008, ISO/TS 16949, Norma CQI-8 Layered Process Audit (Auditorías de Procesos por Capas (o niveles)).
2016-03-17T17:14:57Z
2016-03-17T17:14:57Z
2015-06
Tesis de Licenciatura
ALEJANDRA EMILSEN, Y. (2015). IMPLEMENTACIÓN DE LA NORMA CQI-8 LPA´s, EN EL PROCESO DE INYECCIÓN DE CERA PERDIDA. LICENCIATURA. UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO.
http://hdl.handle.net/20.500.11799/40410
spa
openAccess
Universidad Autónoma del Estado de México
oai:ri.uaemex.mx:20.500.11799/494792018-08-27T18:16:31Zcom_20.500.11799_40546com_20.500.11799_22030com_20.500.11799_21941col_20.500.11799_68136col_20.500.11799_22429
Generación automática de resúmenes independientes del lenguaje
MATIAS MENDOZA, GRISELDA ARELI; 559868
MATIAS MENDOZA, GRISELDA ARELI
LEDENEVA, YULIA NIKOLAEVNA; 213954
García-Hernández, René Arnulfo
SIDOROV, Grigori
LEDENEVA, YULIA NIKOLAEVNA
generación de resúmenes
independencia del lenguaje
corpus en español
algoritmos genético
n-gramas
INGENIERÍA Y TECNOLOGÍA
En la actualidad la información en formato digital crece de manera exponencial y ante ello surgen diversas problemáticas, como la sobrecarga de información, redundancia de información, pérdida de información, entre otras. Este tipo de problemas puede ocasionar en los usuarios deficiencia en su trabajo, al no tener el tiempo disponible necesario, para procesar toda la información, ante esto surge la importante necesidad de contar con métodos que permitan la generación automática de resúmenes. Pero además de contar con un método que nos permite generar resúmenes, sería ideal que los métodos generaran resúmenes en cualquier lenguaje, principalmente en el lenguaje que domina el usuario (en nuestro caso el español). Un método de generación automática de resúmenes independientes del lenguaje, trata de contrarrestar los efectos negativos de la sobrecarga de información, además de que permite generar un resumen, independientemente del lenguaje en el que se encuentre el texto original. Según (Ledeneva, 2008) un resumen es un texto corto que transmite la información más importante de un documento de origen. Actualmente existen métodos del estado del arte que dicen ser independientes del lenguaje, pero solo prueban en el lenguaje inglés. Existen otros que son independientes del lenguaje y prueban más de una colección de documentos, pero no en español. Entre los métodos del estado del arte que dicen ser independientes del lenguaje está el propuesto por (Matias, 2013), el cual obtienen buenos resultados para el lenguaje inglés y puede trabajar con otros lenguajes. Entonces con referencia a los resultados que se obtienen con el método de (Matias, 2013), en este trabajo se propone el método en los lenguajes: inglés, portugués y español. Además se ajustaron los parámetros de las etapas: pre-procesamiento, modelo de texto, importancia de las oraciones, función de aptitud y el operador de selección, para tratar de mejorar la calidad de los resúmenes. Las colecciones de documentos utilizadas en este trabajo son, para inglés la colección DUC2002, para portugués la colección TeMário y para el lenguaje español TER. La colección TER es una aportación de este trabajo, la cual es una colección de noticias de un periódico mexicano (La crónica) especialmente para el uso de resúmenes. Los resúmenes resultantes son evaluados con la herramienta ROUGE la cual permite comparar los resúmenes generados a partir del método con los resúmenes generados por un humano. Los resultados obtenidos de los experimentos con cada una de las colecciones se comparan con los resultados obtenidos con los resúmenes generados con las herramientas comerciales 5 y otros métodos del estado del arte. Los resultados obtenidos con el método propuesto en todos los lenguajes superan tanto a las herramientas comerciales como a los métodos del estado del arte.
2016-06-24T17:19:51Z
2016-06-24T17:19:51Z
2016-01
Tesis de Maestría
masterThesis
Na
http://hdl.handle.net/20.500.11799/49479
spa
openAccess
http://creativecommons.org/licenses/by/4.0
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO
oai:ri.uaemex.mx:20.500.11799/640932017-01-24T19:57:13Zcom_20.500.11799_22030com_20.500.11799_21941com_20.500.11799_40546col_20.500.11799_22429
Guia_Pedagógica_ISW_AnalisisDiseñoSW_OK2016
Gonzalez, Leonor
Millan, Angelica
Pulido, Elizabeth Rocio
Millán Díaz, Angélica
González Muñoz, Leonor
Pulido Alba, Rocío
Análisis
Software
Diseño
UML
Programación
objetos
Las observaciones se dan mediante la practica.
Documento realizado para facilitar la explicación de los temas relacionados en el programa educativo dentro del aula durante un semestre.
2017-01-24T19:57:13Z
2017-01-24T19:57:13Z
2016
Guía Pedagógica
http://hdl.handle.net/20.500.11799/64093
spa
openAccess
https://creativecommons.org/licenses/by/4.0/
openAccess
https://creativecommons.org/licenses/by/4.0/
Universidad Autónoma del Estado de México
oai:ri.uaemex.mx:20.500.11799/642442021-05-26T02:58:01Zcom_20.500.11799_40546com_20.500.11799_22030com_20.500.11799_21941col_20.500.11799_68136col_20.500.11799_22429
Interpolación polinomial para determinar el tiempo óptimo de tratamiento criogénico para acero AISI D2 en medio básico
HERNANDEZ CASCO, IRMA; 47320
JUAREZ TOLEDO, CARLOS; 39912
MARTINEZ CARRILLO, IRMA; 39914
HERNANDEZ CASCO, IRMA
JUAREZ TOLEDO, CARLOS
MARTINEZ CARRILLO, IRMA
Coeficiente de fricción
criogénico
polinomial
BIOLOGÍA Y QUÍMICA
Artículo indexado en Latindex
El presente trabajo presenta un modelo numérico realizado mediante interpolación polinomial, para determinar el tiempo óptimo de tratamiento criogénico para acero AISI D2, utilizando para ello los valores de coeficientes de fricción obtenidas experimentalmente mediante la prueba de desgaste en un medio básico
2017-02-03T16:59:47Z
2017-02-03T16:59:47Z
2015-11
Artículo
article
1405-1249
http://hdl.handle.net/20.500.11799/64244
spa
Año XXXVI;112
openAccess
http://creativecommons.org/licenses/by-nc-nd/4.0
Pistas Educativas
oai:ri.uaemex.mx:20.500.11799/642952017-02-07T16:37:41Zcom_20.500.11799_22030com_20.500.11799_21941com_20.500.11799_40546col_20.500.11799_22429
CHARACTERIZATION OF A COMPOSITE POLYPROPYLENE /RESIDUAL CERAMIC
Flores-Vázquez, Ana Lilia
Ramírez-Escalona, Dennis
Ávila-Córdoba, Liliana Ivette
Villa-Sánchez, Gerardo
Tellez-X, Lucia
Dorantes-Rosales, Hector
composite
polypropilene
ceramic
Abstract
Composites are materials containing two or more distinct phases with an interface, the elements interact and modifying properties of virgin material. Control interface generates the interaction between the matrix and the particles, and the mechanical properties profile according to the structure of composito1. They are often added to a polymer matrix, which typically combine the advantages of its constituent phases generating improvements in their physical and chemical properties. Mullite is an excellent candidate as a reinforcing material for its properties, however, for practical applications needs to be reinforced with zirconia. Mullite is characterized by excellent mechanical properties such as: high modulus of rupture and compressive strength both cold and hot, chemical stability, thermal stability reflected by its low coefficient of thermal expansion. At the present work we produce a composite whose polymeric matrix is polypropylene added with a residual ceramic material investment casting process, Mullite - zirconia, and PPMA as compatibilizer. Mechanical tests were performed in composites varying the percentage of ceramic and compatibilizer, SEM tests were previously performed to determine the microstructure of the ceramic material
2017-02-07T16:37:41Z
2017-02-07T16:37:41Z
2016-10
Cartel
http://hdl.handle.net/20.500.11799/64295
eng
closedAccess
https://creativecommons.org/licenses/by/4.0/
closedAccess
https://creativecommons.org/licenses/by/4.0/
Universidad Autónoma del Estado de México
oai:ri.uaemex.mx:20.500.11799/642462021-05-26T02:58:06Zcom_20.500.11799_40546com_20.500.11799_22030com_20.500.11799_21941col_20.500.11799_68136col_20.500.11799_22429
Modelado de un Sistema Máquina Bus Infinito Usando Expansión Parcial en Series de Potencia en Series de Potencia y el Método de Formas Normales
MARTINEZ CARRILLO, IRMA; 39914
JUAREZ TOLEDO, CARLOS; 39912
MARTINEZ CARRILLO, IRMA
JUAREZ TOLEDO, CARLOS
Expansión en series de potencia
Formas normales
Máquina bus infinito
Potencia mecánica
BIOLOGÍA Y QUÍMICA
Artículo publicado en la revista para Pistas Educativas, no. 108, Instituto Tecnológico de Celaya, México, Octubre 2016, ISSN 1405-1249.
En este trabajo se propone un modelo analítico basado en el método de formas normales para representar el comportamiento de un sistema máquina bus infinito (MBI). En esta propuesta se plantea la posibilidad de expandir parcialmente en series de potencia la no linealidad de un sistema representado por ecuaciones diferenciales ordinarias con la finalidad de conservar lo más posible la forma original del sistema de estudio. Para verificar la confiablidad del método propuesto, se presenta una comparación con la solución numérica del comportamiento original del sistema de estudio mediante herramienta Matlab, se utilizan tres diferentes parámetros de potencia mecánica como señales de entrada
PRODEP
2017-02-03T17:19:52Z
2017-02-03T17:19:52Z
2016-10-01
Artículo
article
1405-1249
http://hdl.handle.net/20.500.11799/64246
spa
38;120
openAccess
http://creativecommons.org/licenses/by-nc-nd/4.0
Universidad Autónoma del Estado de México
oai:ri.uaemex.mx:20.500.11799/655102018-08-27T18:16:31Zcom_20.500.11799_40546com_20.500.11799_22030com_20.500.11799_21941col_20.500.11799_68136col_20.500.11799_22429
Detección de nombres de medicamentos confusos por su parecido ortográfico o fonético mediante un algoritmo genético
MILLAN HERNANDEZ, CHRISTIAN EDUARDO; 633327
MILLAN HERNANDEZ, CHRISTIAN EDUARDO
GARCIA HERNANDEZ, RENE ARNULFO; 202667
Garcia Hernandez, Rene Arnulfo
Ledeneva, Yulia
Tapia Fabela, Jose Luis
algoritmo genético
medicamentos
medidas de similitud
ciencias computacionales
INGENIERÍA Y TECNOLOGÍA
El problema de la confusión de nombres de medicamentos se da como consecuencia por su parecido ortográfico y fonético. De acuerdo al estado del arte se han propuesto soluciones para medir la similitud entre dos nombres de medicamentos en un grado de probabilidad de ser un par potencial de confusión. El método combinado de (Kondrak & Dorr, 2006) propone utilizar cuatro medidas para determinar la similitud entre dos nombres de medicamentos a través del promedio aritmético de los valores obtenidos de manera individual. Sin embargo Kondrak no plantea cómo determinar cuál debe ser el la participación óptima de cada medida en un método combinado. En esta tesis se propone un método para encontrar la combinación optimizada de un conjunto de medidas de similitud y de edición que mejore la detección del parecido ortográfico y fonético de un par de medicamentos. La propuesta de este trabajo es un método que combina un conjunto de medidas de similitud mediante un algoritmo genético. El algoritmo genético propuesto optimiza la participación de varias medidas de similitud y de edición, incrementando en las primeras posiciones recuperadas aquellos pares que se sabe han participado en algunos reportes de confusión por el humano. El resultado de los experimentos obtenidos muestran una relevancia de participación distinta al optimizar su combinación y superan a los resultados mostrados en el estado del arte. Por otro lado el resultado de las relevancias obtenidas permite generar un ranking que refleja la importancia de cada medida para resolver la tarea de los pares de nombres de medicamentos confusos.
2017-03-08T16:14:15Z
2017-03-08T16:14:15Z
2016-12-07
Tesis de Maestría
masterThesis
http://hdl.handle.net/20.500.11799/65510
spa
openAccess
http://creativecommons.org/licenses/by-nc-nd/4.0
oai:ri.uaemex.mx:20.500.11799/685782018-08-27T19:24:24Zcom_20.500.11799_40546com_20.500.11799_22030com_20.500.11799_21941col_20.500.11799_68136col_20.500.11799_22429
Segmentación de líneas de texto en documentos manuscritos antiguos independiente del lenguaje
GARCIA CALDERON, MIGUEL ANGEL; 712165
GARCIA CALDERON, MIGUEL ANGEL
GARCIA HERNANDEZ, RENE ARNULFO; 202667
Ledeneva, Yulia
Tapia Fabela, José Luis
Algoritmo Genético
Medidas de Similitud
Ciencias Computacionales
CIENCIAS SOCIALES
Hasta el momento no se ha utilizado todo el conocimiento que hay en los manuscritos antiguos debido a que reconocimiento de texto manuscrito aún no cuenta con métodos robustos para esta tarea. El primer problema de los métodos para el reconocimiento de texto manuscrito es que requieren que el texto se encuentre dividido en líneas. Los métodos actuales para la segmentación de líneas de texto manuscrito no han sido optimizados para trabajar con manuscritos antiguos. La primera etapa de la Segmentación de Líneas de Texto (SLT) manuscrito consiste en la Localización de Líneas de Texto (LLT). Para la SLT se han propuesto métodos que buscan los valores máximos locales en un histograma. El problema para estos métodos es que existen demasiados máximos locales, lo cual no permite localizar las líneas que hay. La segunda etapa de la SLT en manuscritos antiguos consiste en la búsqueda de una ruta que permita separar las líneas de texto, el problema de los métodos actuales es que algunos realizan una búsqueda local de la ruta y los otros métodos buscan la ruta evitando pasar por la mayor cantidad de caracteres. En este trabajo se presenta un sistema compuesto por dos nuevos métodos para la LLT manuscrito y otro método para la Búsqueda de una Ruta que permita Segmentar Líneas de Texto en documentos manuscritos (BRSLT) que supera a los métodos analizados en el estado del arte en las dos etapas. En el primer método propuesto se presenta la extracción de un mapa de energía que incrementa las diferencias entre los máximos y mínimos locales en un histograma. El segundo método propuesto consiste en buscar la mejor ruta para segmentar líneas de texto manuscrito antiguo usando un algoritmo genético. Para evaluar la exactitud de los métodos propuestos se han realizado experimentos con dos colecciones de documentos. Se ha realizado una evaluación independiente de los dos métodos propuesto. Las colecciones de documentos incluyen los idiomas: español, chino, árabe, inglés, árabe-español con escritura moderna y escritura antigua. Con los resultados de la experimentación se ha demostrado que es posible mejorar la LLT implementando un mapa de energía que incremente las diferencias entre máximos y mínimos locales. Los experimentos de la segunda sección demuestran que es necesario realizar una optimización global de la ruta para segmentar líneas de texto.
2018-02-14T01:51:27Z
2018-02-14T01:51:27Z
2017-12-04
Tesis de Maestría
masterThesis
http://hdl.handle.net/20.500.11799/68578
spa
openAccess
http://creativecommons.org/licenses/by-nc-nd/4.0
Universidad Autónoma del Estado de México
oai:ri.uaemex.mx:20.500.11799/801822019-01-08T00:31:53Zcom_20.500.11799_40546com_20.500.11799_22030com_20.500.11799_21941col_20.500.11799_68136col_20.500.11799_22429
Calculating the Upper Bounds for Multi-Document Summarization using Genetic Algorithms
ROJAS SIMON, JONATHAN; 857852
LEDENEVA, YULIA NIKOLAEVNA; 213954
GARCIA HERNANDEZ, RENE ARNULFO; 202667
ROJAS SIMON, JONATHAN
LEDENEVA, YULIA NIKOLAEVNA
GARCIA HERNANDEZ, RENE ARNULFO
Procesamiento de Lenguaje Natural
Lingüística Computacional
Generación automática de Resúmenes
INGENIERÍA Y TECNOLOGÍA
Over the last years, several Multi-Document Summarization (MDS) methods have been presented in Document Understanding Conference (DUC), workshops. Since DUC01, several methods have been presented in approximately 268 publications of the stateof-the-art, that have allowed the continuous improvement of MDS, however in most works the upper bounds were unknowns. Recently, some works have
been focused to calculate the best sentence combinations of a set of documents and in previous works we have been calculated the significance for single-document summarization task in DUC01 and DUC02 datasets. However, for MDS task has not performed an analysis of significance to rank the best
multi-document summarization methods. In this paper,
we describe a Genetic Algorithm-based method for
calculating the best sentence combinations of DUC01
and DUC02 datasets in MDS through a Meta-document
representation. Moreover, we have calculated three
heuristics mentioned in several works of state-of-the-art
to rank the most recent MDS methods, through the
calculus of upper bounds and lower bounds.
2018-03-16T23:27:52Z
2018-03-16T23:27:52Z
2018-01-10
Artículo
article
1405-5546
http://hdl.handle.net/20.500.11799/80182
eng
Vol.;22
No.;1
openAccess
http://creativecommons.org/licenses/by-nc-nd/4.0
Computación y Sistemas
oai:ri.uaemex.mx:20.500.11799/801782019-01-08T00:31:53Zcom_20.500.11799_40546com_20.500.11799_22030com_20.500.11799_21941col_20.500.11799_68136col_20.500.11799_22429
Extracción de frases clave utilizando patrones léxicos a partir de resúmenes de artículos científicos
GALLEGOS CAMACHO, ESTHER MARITZA; 785668
LEDENEVA, YULIA NIKOLAEVNA; 213954
GARCIA HERNANDEZ, RENE ARNULFO; 202667
TAPIA FABELA, JOSE LUIS; 211332
GALLEGOS CAMACHO, ESTHER MARITZA
LEDENEVA, YULIA NIKOLAEVNA
GARCIA HERNANDEZ, RENE ARNULFO
TAPIA FABELA, JOSE LUIS
Extracción frases clave
patrones léxicos
resúmenes científicos
INGENIERÍA Y TECNOLOGÍA
El artículo presenta un método propuesto para la extracción automática de frases clave a partir de resúmenes de artículos científicos. Se implementa un método no supervisado que consiste en la identificación de los patrones léxicos que pueden existir al asignar frases clave de forma manual. Adicionando un preprocesamiento diferente al que se puede aplicar a trabajos que utilizan texto completo, debido a que un resumen es un texto más corto. Por otro lado, se utiliza un evaluador denominado Rouge el cual nos permite conocer las medidas de Precisión, Recuerdo y F-Measure propuestas en la competencia de SemEval-2010 tarea 5 para la evaluación de frases clave. Dichas valoraciones se aplican para frases de top-5, top-10, top-15 y top-20. Para finalizar se realiza una comparación con métodos destacados del estado del arte obteniendo un tercer lugar dentro de los métodos no supervisados y primer lugar en comparación con métodos supervisados.
2018-03-16T23:05:28Z
2018-03-16T23:05:28Z
2017-10-01
Artículo
article
2007-8102
http://hdl.handle.net/20.500.11799/80178
spa
openAccess
http://creativecommons.org/licenses/by-nc-nd/4.0
Journal CIM
oai:ri.uaemex.mx:20.500.11799/801792019-01-08T00:41:50Zcom_20.500.11799_40546com_20.500.11799_22030com_20.500.11799_21941col_20.500.11799_80372col_20.500.11799_22429
Unsupervised multi-language handwritten text line segmentation
García-Calderón, Miguel Angel
Garcia Hernandez, Rene Arnulfo
Ledeneva, Yulia
Handwritten text line segmentation
text line segmentation
document image processing
projection profile
segmentation
historical documents
Text Lines Segmentation (TLS) affects the performance of manuscript Text Recognition (MTR) systems from document images. At the same time, the TLS task consists of two tasks: the first is Text Lines Localization (TLL) and the second is the Search of the Path that Divides neighboring Lines (SPDL) of handwritten text. The TLS task depends on the type of language, author’s writing style, pen type and document quality. In this paper, Projected Energy Map with Alpha
blending (PEM-Alpha) is presented as an unsupervised method for the TLL task, which can work with lines that are touching
or overlapping. In addition, SPDL-GA is proposed as a method for SPDL task which finds the line that best splits the text. The
experimentation is carried out with a standard collection of historical multilingual documents. Through experimentation it is
demostrated that the proposed methods outperform other state-of-the-art methods, even in documents with mixed languages. In addition, few parameters required by PEM-Alpha and SPDL-GA are automatically calculated.
2018-03-16T23:11:55Z
2018-03-16T23:11:55Z
2017-02-28
Artículo
1064-1246
http://hdl.handle.net/20.500.11799/80179
eng
openAccess
Journal of Intelligent & Fuzzy Systems
oai:ri.uaemex.mx:20.500.11799/801842018-08-27T18:16:30Zcom_20.500.11799_40546com_20.500.11799_22030com_20.500.11799_21941col_20.500.11799_68136col_20.500.11799_22429
Hipervinculación de documentos con Máquinas de Soporte Vectorial
SERRANO LEON, ALAN JOSUE; 712320
SERRANO LEON, ALAN JOSUE
GARCIA HERNANDEZ, RENE ARNULFO; 202667
Garcia Hernandez, Rene Arnulfo
Ledeneva, Yulia
hipervínculación de documentos
máquinas
soporte
vectorial
CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA
En la actualidad el acceso a la información se da por medio de hipervínculos, los cuales interconectan los textos entre si únicamente si contienen una relación. Varios investigadores han estudiado la forma en que los humanos crean los hipervínculos y han tratado de replicar el modo de trabajo específicamente de la colección de Wikipedia. El uso de hipervínculos se ha pensado como un prometedor recurso para la recuperación de información, que fue inspirado por el análisis de citas de la literatura (Merlino-Santesteban, 2003). Según Dreyfus (Dreyfus, 2003) la hipervinculación no tiene ningún criterio específico, ni tampoco jerarquías. Por ello cuando todo puede vincularse indiscriminadamente y sin obedecer un propósito o significado en particular, el tamaño de la red y la arbitrariedad entre sus hipervínculos, hacen extremadamente difícil para un usuario encontrar exactamente el tipo de información que busca. En las organizaciones, la familiaridad y la confianza durante mucho tiempo han sido identificadas como las dimensiones de credibilidad de la fuente de información en publicidad (Eric Haley, 1996). Un hipervínculo, como una forma de información, puede, por lo tanto, tener un mayor impacto cuando se presenta por un objetivo conocido (Stewart & Zhang, 2003). Mientras tanto, los hipervínculos entre los sitios web pueden generan confianza en el remitente y el receptor del enlace, por lo que estas interacciones tienen efectos positivos de reputación para el destinatario (Stewart, 2006) (Lee, Lee, & Hwang, 2014). El estudio de documentos por medio de los hipervínculos es un área importante de investigación en minería de datos, en una red social a menudo lleva una gran cantidad de información estructural formada por los hipervínculos creando nodos compartidos dentro de la comunidad. Algunas importantes aplicaciones de los métodos de minería de datos para redes sociales son la recomendación social mediante las experiencias similares de los usuarios (Alhajj & Rokne, 2014). En marketing y publicidad se aprovechan las cascadas en las redes sociales y se obtienen beneficios sobre modelos de propagación de la información (Domingos & Richardson, 2001). Las empresas de publicidad están interesados en cuantificar el valor de un solo nodo en la red, tomando en cuenta que sus acciones pueden desencadenar cascadas a sus nodos vecinos. Los resultados de (Allan, 1997) (Bellot et al., 2013) (Agosti, Crestani, & Melucci, 1997) (Blustein, Webber, & Tague-Sutcliffe, 1997) sugieren que el descubrimiento de hipervínculos automatizado no es un problema resuelto y que cualquier evaluación de los sistemas de descubrimiento de Hipervínculos de Wikipedia debe basarse en la evaluación manual, no en los hipervínculos existentes.
2018-03-16T23:37:18Z
2018-03-16T23:37:18Z
2018-01-31
Tesis de Maestría
masterThesis
http://hdl.handle.net/20.500.11799/80184
spa
openAccess
http://creativecommons.org/licenses/by/4.0
Universidad Autónoma del Estado de México
oai:ri.uaemex.mx:20.500.11799/1060492020-02-28T23:09:06Zcom_20.500.11799_22030com_20.500.11799_21941com_20.500.11799_40546col_20.500.11799_22429
ESTUDIO ESTADÍSTICO QUE MUESTRA LA PRESENCIA DE LAS CONDUCTAS (CIBERBULLYING, SEXTING Y CIBERGROOMING) A TRAVÉS DE LA RED SOCIAL FACEBOOK, EN LOS ALUMNOS DE LA ESCUELA SECUNDARIA TÉCNICA N°1 “ANDRÉS ÁLVARO GARCÍA”
Gutiérrez Gómez, Ilce
Garcia Avila, Martin
“Ciberbullying, Sexting y Cibergrooming” ESTUDIO ESTADÍSTICO
CIENCIAS SOCIALES
Tesis de licenciatura
Existen conductas que ponen en riesgo la integridad de los usuarios, dichas conductas serán expuestas en el presente trabajo de investigación.
Para poder comprender el impacto que tienen las conductas “Ciberbullying, Sexting y Cibergrooming” fue necesario de la lectura y análisis de investigaciones y artículos
científicos, los cuales sustentan y avalan el presente trabajo.
Una de las herramientas de la investigación científica es el cuestionario, el cual fue de utilización práctica en este caso, ya que este fue aplicado a los alumnos de la Escuela Secundaria Técnica N° 1 Andrés Álvaro García ubicada en el municipio de
Tianguistenco, Estado de México.
2020-02-28T23:09:04Z
2020-02-28T23:09:04Z
2019-12-05
Tesis de Licenciatura
http://hdl.handle.net/20.500.11799/106049
spa
openAccess
http://creativecommons.org/licenses/by/4.0
Universidad Autónoma del Estado de México
oai:ri.uaemex.mx:20.500.11799/1060512020-02-28T23:10:42Zcom_20.500.11799_22030com_20.500.11799_21941com_20.500.11799_40546col_20.500.11799_22429
APLICACIÓN DE UN TALLER DE DECLAMACIÓN COMO PROPUESTA DE PREVENCIÓN PARA LA DISMINUCIÓN DEL CONSUMO DE ALCOHOL EN ADOLESCENTES DE LA ESCUELA SECUNDARIA TÉCNICA No 1 “ANDRÉS ÁLVARO GARCÍA”
Nava Rodríguez, Ana Luisa
Garcia Avila, Martin
adolescentes
consumo
alcohol
declamación
CIENCIAS SOCIALES
Tesis de licenciatura
La presente investigación pretende mostrar a través de estudios que se han realizado en diferentes partes del mundo y de México que existe un problema sobre el consumo de alcohol en adolescentes, que debe ser atendido a través de una propuesta de prevención. Para efectos de la misma se retomarán estudios que se han realizado con relación al consumo de alcohol, factores influyentes y parámetros que se han establecido para llevar a cabo dichos estudios.
Se describe además la metodología que se ha de emplear: como la población a analizar, estructura y diseño del instrumento, así como el diseño y aplicación de un taller de declamación para la disminución del consumo de alcohol en los adolescentes.
2020-02-28T23:10:41Z
2020-02-28T23:10:41Z
2019-11-14
Tesis de Licenciatura
http://hdl.handle.net/20.500.11799/106051
spa
openAccess
http://creativecommons.org/licenses/by/4.0
Universidad Autónoma del Estado de México
oai:ri.uaemex.mx:20.500.11799/1060552020-02-28T23:18:41Zcom_20.500.11799_22030com_20.500.11799_21941com_20.500.11799_40546col_20.500.11799_22429
GENERACIÓN DE UN MANUAL BASADO EN CÓMPUTO FORENSE QUE SIRVA COMO SOPORTE EN EL PROCESO DE RECUPERACIÓN DE INFORMACIÓN EN DISCOS DUROS
Pichardo Sánchez, Cristian Giovanni
Garcia Avila, Martin
Cómputo
forense
Recuperación
información
INGENIERÍA Y TECNOLOGÍA
Tesina de Licenciatura
En el presente trabajo se detalla la generación de un manual basado en cómputo forense que sirva como soporte en el proceso de recuperación de información en discos duros, está dirigido para usuarios con conocimientos básicos de informática que en algún momento lleguen a perder información de sus discos duros y requieran recuperar dicha información o la gran mayoría de ella. En este trabajo se menciona el análisis, diseño e implementación del manual, así como los resultados obtenidos al aplicarlo; actualmente existen manuales orientados a recuperar información, sin embargo, la mayoría de estos están orientados a usuarios con amplios conocimientos en cuanto a computadoras e informática y se orientan por recuperar únicamente información eliminada, sin embargo, la perdida de información abarca más allá de la simple eliminación de información. Por otra parte, se involucra y se le saca provecho a todas las bondades que ofrece el cómputo forense siendo una ciencia con un alto potencial y efectividad en cuanto a resultados por obtener.
2020-02-28T23:18:39Z
2020-02-28T23:18:39Z
2017-11-24
Tesis de Licenciatura
http://hdl.handle.net/20.500.11799/106055
spa
openAccess
http://creativecommons.org/licenses/by/4.0
Universidad Autónoma del Estado de México
oai:ri.uaemex.mx:20.500.11799/1095252022-06-02T03:26:45Zcom_20.500.11799_40546com_20.500.11799_22030com_20.500.11799_21941col_20.500.11799_68136col_20.500.11799_22429
Modelado de las características extraídas de los pares de nombres confusos de medicamentos por su parecido ortográfico y fonético
MILLAN HERNANDEZ, CHRISTIAN EDUARDO; 633327
MILLAN HERNANDEZ, CHRISTIAN EDUARDO
GARCIA HERNANDEZ, RENE ARNULFO; 202667
Ledeneva, Yulia
Hernández Castañeda, Ángel
Procesamiento de Lenguaje Natural
Lingüística Computacional
INGENIERÍA Y TECNOLOGÍA
Los nombres de medicamentos que se parecen, por como se ven o como suenan, son la causa principal de los errores de medicación por confusión. Por esta razón, la Administración de Alimentos y Medicamentos en Estados Unidos ha implementado estrategias para revisar el nombre propuesto de un nuevo medicamento. El objetivo es evitar que se formen pares confusos a partir del nombre propuesto con los que existen en el mercado. Las herramientas utilizadas para identificar pares confusos calculan un valor de similitud entre el nombre propuesto y una base de datos de los nombres de medicamentos previamente registrados. El valor de similitud obtenido es utilizado para identificar nombres potencialmente confusos. En específico, algoritmos de similitud léxica se implementan en esta tesis de manera individual o en combinación para predecir el grado de confusión de dos nombres de medicamentos por su parecido en medios de comunicación escritos o verbales. La presente investigación se enfoca en medir el parecido ortográfico y fonético entre dos nombres a evaluar, a partir de las características presentes en los nombres de medicamentos indicados en los reportes de errores de medicación, con la finalidad de mejorar el proceso de identificación de pares confusos por su parecido ortográfico y fonético. En esta tesis se realiza una revisión de las medidas individuales que consideran los aspectos ortográficos y fonéticos. Además, se estudian las medidas combinadas que consideran simultáneamente ambos aspectos, con el fin de detectar la potencial confusión entre nombres de medicamentos. Asimismo, también se muestra una discusión de los problemas presentes en cada una de las soluciones del estado del arte. En los resultados de esta investigación se presenta un modelo que combina de manera eficaz las características ortográficas y fonéticas que están presentes en los nombres confusos de medicamentos. Para este objetivo, se utilizó un método de regresión logística con un proceso de entrenamiento evolutivo que supera los resultados obtenidos del método tradicional de entrenamiento. Este modelo se ha publicado en una revista especializa arbitrada e indexada de reconocimiento internacional. Del mismo modo, se presenta bajo el mismo principio un modelo que considera al características ortográficas y fonéticas presentes en los pares confusos. Una nueva medida individual de similitud ortográfica para la identificación de pares confusos. También, este resultado ha sido publicado en una revista especializada arbitrada e indexada de reconocimiento internacional. Los resultados publicados en ambos artículos prueban que el modelo de las características extraídas de los pares confusos permite ajustar o diseñar medidas eficaces para el problema de identificación de pares potenciales. El modelado ha sido obtenido de manera automática y adaptado mediante un enfoque evolutivo o con uso de técnicas de aprendizaje automático.
2020-11-18T03:13:45Z
2020-11-18T03:13:45Z
2020-03-12
Tesis de Doctorado
doctoralThesis
http://hdl.handle.net/20.500.11799/109525
spa
openAccess
http://creativecommons.org/licenses/by-nc-nd/4.0
Universidad Autónoma del Estado de México
oai:ri.uaemex.mx:20.500.11799/1094682021-10-02T02:38:00Zcom_20.500.11799_40546com_20.500.11799_22030com_20.500.11799_21941col_20.500.11799_68136col_20.500.11799_22429
Ground Truth Spanish Automatic Extractive Text Summarization Bounds
Matias Mendoza, Griselda Areli; 559868
GARCIA HERNANDEZ, RENE ARNULFO; 202667
Ledeneva, Yulia;#0000-0003-0766-542X
HERNANDEZ CASTAÑEDA, ANGEL; 447784
Mihail, Aleksandrov;x1349048
Matias Mendoza, Griselda Areli
GARCIA HERNANDEZ, RENE ARNULFO
Ledeneva, Yulia
HERNANDEZ CASTAÑEDA, ANGEL
Mihail, Aleksandrov
Automatic text summarization
Corpus TER
Procesamiento de Lenguaje Natural
Lingüística Computacional
INGENIERÍA Y TECNOLOGÍA
The textual information has accelerated growth in the most spoken languages by native Internet users, such as Chinese, Spanish, English, Arabic, Hindi, Portuguese, Bengali, Russian, among others. It is necessary to innovate the methods of Automatic Text Summarization (ATS) that can extract essential information without reading the entire text. The most competent methods are Extractive ATS (EATS) that extract essential parts of the document (sentences, phrases, or paragraphs) to compose a summary. During the last 60 years of research of EATS, the creation of standard corpus with human-generated summaries and evaluation methods which are highly correlated with human judgments help to increase the number of new state-of-the-art methods. However, these methods are mainly supported for the English language, leaving aside other equally important languages such as Spanish, which is the second most spoken language by natives and the third most used on the Internet. A standard corpus for Spanish EATS (SAETS) is created to evaluate the state-of-the-art methods and systems for the Spanish language. The main contribution consists of a proposal for configuration and evaluation of 5 state-ofthe-art methods, five systems and four heuristics using three evaluation methods (ROUGE, ROUGE-C, and Jensen-Shannon divergence). It is the first time that Jensen-Shannon divergence is used to evaluate AETS. In this paper the ground truth bounds for the Spanish language are presented, which are the heuristics baseline:first, baseline:random, topline and concordance. In addition, the ranking of 30 evaluation tests of the state-of-the-art methods and systems is calculated that forms a benchmark for SAETS.
2020-11-13T03:31:36Z
2020-11-13T03:31:36Z
2020-10-12
Artículo
article
2007-9737
http://hdl.handle.net/20.500.11799/109468
eng
openAccess
http://creativecommons.org/licenses/by-nc-nd/4.0
Computación y Sistemas
oai:ri.uaemex.mx:20.500.11799/1094692021-10-02T02:38:02Zcom_20.500.11799_40546com_20.500.11799_22030com_20.500.11799_21941col_20.500.11799_68136col_20.500.11799_22429
The Impact of Key Ideas on Automatic Deception Detection in Text
HERNANDEZ CASTAÑEDA, ANGEL; 447784
Ledeneva, Yulia;#0000-0003-0766-542X
GARCIA HERNANDEZ, RENE ARNULFO; 202667
MILLAN HERNANDEZ, CHRISTIAN EDUARDO; 633327
HERNANDEZ CASTAÑEDA, ANGEL
Ledeneva, Yulia
GARCIA HERNANDEZ, RENE ARNULFO
MILLAN HERNANDEZ, CHRISTIAN EDUARDO
Procesamiento de Lenguaje Natural
Lingüística Computacional
INGENIERÍA Y TECNOLOGÍA
In recent years, with the rise of the Internet, the automatic deception detection in text is an important task to recognize those of documents that try to make people believe in something false. Current studies in this field assume that the entire document contains cues to identify deception; however, as demonstrated in this work, some irrelevant ideas in text could affect the performance of the classification. Therefore, this research proposes an approach for deception detection in text that identifies, in the first instance, key ideas in a document based on a topic modeling algorithm and a proposed automatic extractive text summarization method, to produce a synthesized document that avoids secondary ideas. The experimental results of this study indicate that the proposed method outperform previous methods with standard collections.
2020-11-13T03:33:45Z
2020-11-13T03:33:45Z
2020-10-12
Artículo
article
2007-9737
http://hdl.handle.net/20.500.11799/109469
eng
openAccess
http://creativecommons.org/licenses/by-nc-nd/4.0
Computación y Sistemas
oai:ri.uaemex.mx:20.500.11799/1094702021-10-02T02:38:01Zcom_20.500.11799_40546com_20.500.11799_22030com_20.500.11799_21941col_20.500.11799_68136col_20.500.11799_22429
Evolutionary Automatic Text Summarization using Cluster Validation Indexes
HERNANDEZ CASTAÑEDA, NESTOR; 858428
GARCIA HERNANDEZ, RENE ARNULFO; 202667
HERNANDEZ CASTAÑEDA, ANGEL; 447784
Ledeneva, Yulia;#0000-0003-0766-542X
HERNANDEZ CASTAÑEDA, NESTOR
GARCIA HERNANDEZ, RENE ARNULFO
HERNANDEZ CASTAÑEDA, ANGEL
Ledeneva, Yulia
Procesamiento de Lenguaje Natural
Lingüística Computacional
Automatic text summarization
INGENIERÍA Y TECNOLOGÍA
The main problem for generating an extractive automatic text summary (EATS) is to detect the key themes of a text. For this task, unsupervised approaches cluster the sentences of the original text to find the key sentences that take part in an automatic summary. The quality of an automatic summary is evaluated using similarity metrics with human-made summaries. However, the relationship between the quality of the human-made summaries and the internal quality of the clustering is unclear. First, this paper proposes a comparison of the correlation of the quality of a human-made summary to the internal quality of the clustering validation index for finding the best correlation with a clustering validation index. Second, in this paper, an evolutionary method based on the best above internal clustering validation index for an automatic text summarization task is proposed. Our proposed unsupervised method for EATS has the advantage of not requiring information regarding the specific classes or themes of a text, and is therefore domain- and language-independent. The high results obtained by our method, using the most-competitive standard collection for EATS, prove that our method maintains a high correlation with human-made summaries, meeting the specific features of the groups, for example, compaction, separation, distribution, and density.
2020-11-13T03:36:25Z
2020-11-13T03:36:25Z
2020-10-12
Artículo
article
2007-9737
http://hdl.handle.net/20.500.11799/109470
eng
openAccess
http://creativecommons.org/licenses/by-nc-nd/4.0
Computación y Sistemas
oai:ri.uaemex.mx:20.500.11799/1094812021-10-02T02:38:05Zcom_20.500.11799_40546com_20.500.11799_22030com_20.500.11799_21941col_20.500.11799_68136col_20.500.11799_22429
Extractive Automatic Text Summarization Based on Lexical-Semantic Keywords
HERNANDEZ CASTAÑEDA, ANGEL; 447784
GARCIA HERNANDEZ, RENE ARNULFO; 202667
Ledeneva, Yulia;#0000-0003-0766-542X
MILLAN HERNANDEZ, CHRISTIAN EDUARDO; 633327
HERNANDEZ CASTAÑEDA, ANGEL
GARCIA HERNANDEZ, RENE ARNULFO
Ledeneva, Yulia
MILLAN HERNANDEZ, CHRISTIAN EDUARDO
Procesamiento de Lenguaje Natural
Lingüística Computacional
Automatic text summarization
INGENIERÍA Y TECNOLOGÍA
The automatic text summarization (ATS) task consists in automatically synthesizing a document to provide a condensed version of it. Creating a summary requires not only selecting the main topics of the sentences but also identifying the key relationships between these topics. Related works rank text units (mainly sentences) to select those that could form the summary. However, the resulting summaries may not include all the topics covered in the source text because important information may have been discarded. In addition, the semantic structure of documents has been barely explored in this field. Thus, this study proposes a new method for the ATS task that takes advantage of semantic information to improve keyword detection. This proposed method increases not only the coverage by clustering the sentences to identify the main topics in the source document but also the precision by detecting the keywords in the clusters. The experimental results of this work indicate that the proposed method outperformed previous methods with a standard collection.
2020-11-13T04:31:36Z
2020-11-13T04:31:36Z
2020-03-11
Artículo
article
http://hdl.handle.net/20.500.11799/109481
eng
openAccess
http://creativecommons.org/licenses/by-nc-nd/4.0
IEEE Access
oai:ri.uaemex.mx:20.500.11799/1104302021-04-27T00:57:42Zcom_20.500.11799_22030com_20.500.11799_21941com_20.500.11799_40546col_20.500.11799_22429
Signos urbanos. Un enfoque semiótico de la relación entre las señales y los accidentes viales
Osnaya Baltierra, Santiago
señalética vial
accidentes de tránsito
signos viales
semiótica
HUMANIDADES Y CIENCIAS DE LA CONDUCTA
Las vialidades son parte importante de la infraestructura en las ciudades, su principal objetivo es facilitar la movilidad de los seres humanos de modo eficiente y seguro, ya sea que estos se trasladen a pie o que utilicen algún tipo de transporte. Sin embargo, en muchas ciudades esto no sucede así ya que los espacios viales se han convertido en un problema social, debido a que los accidentes de tránsito cobran miles de vidas anualmente. Ello a pesar de la existencia de códigos viales que regulan y controlan el tránsito de los vehículos y los peatones en la vía pública.
En el 2012 surgió una serie de notas periodísticas comentando la existencia de 20 cruceros de la muerte en la Ciudad de México. Una de las causas mencionadas sobre la peligrosidad de estos puntos era la mala señalización vial. Fue así que surgió el interés por estudiar dicha problemática desde un enfoque semiótico, con el objetivo de determinar en qué grado los Dispositivos para el Control de Tránsito (señales) están relacionados con los accidentes viales. En este sentido el presente texto muestra una aproximación semiótica a la señalización vial en aras de poder interpretar y comprender el fenómeno descrito.
2021-04-27T00:57:40Z
2021-04-27T00:57:40Z
2020-03
Libro
978-607-437-504-6
http://hdl.handle.net/20.500.11799/110430
spa
openAccess
http://creativecommons.org/licenses/by-nc-nd/4.0
Clave Editorial & AM Editores
oai:ri.uaemex.mx:20.500.11799/1127502022-02-26T02:39:32Zcom_20.500.11799_22030com_20.500.11799_21941com_20.500.11799_40546col_20.500.11799_22429
Generación automática de resúmenes de múltiples documentos utilizando secuencias frecuentes maximales y método de grafos
Vilchis Sepúlveda, Selene Arai
Ledeneva, Yulia
Generación automática de resúmenes
Procesamiento de lenguaje natural
Tratamiento automático de textos
INGENIERÍA Y TECNOLOGÍA
El crecimiento exponencial de internet ha provocado un bombardeo de información que se produce día a día aumentando de manera exponencial.
La información masiva se ha vuelto un problema de sobrecarga de información al momento de realizar una búsqueda de información específica, lo cual ha provocado que las ciencias computacionales se vean involucradas en la búsqueda de una solución.
La Generación Automática de Resúmenes de Texto (GART) es una tarea del Procesamiento del Lenguaje Natural (PLN) que busca contrarrestar los efectos negativos de la sobrecarga de información.
Actualmente existen diferentes métodos del estado del arte para la GART basados en una arquitectura de tres etapas:
1. Identificación de Tópicos.
2. Transformación o interpretación.
3. Síntesis o generación del resumen.
Entre los métodos del estado del arte se encontró un método que a diferencia de los otros propone una cuarta etapa. La cuarta etapa busca darle un valor a cada término de las oraciones. El método propuesto por (Ledeneva y García-Hernández, 2017) demostró dar buenos resultados para la tarea Generación Automática de Resúmenes de Texto de Un solo documento (GART-1).
Con referencia a los resultados obtenidos del método de (Ledeneva y García-Hernández, 2017) en este trabajo se propone ajustar los parámetros en las diferentes etapas y adaptar el método para la tarea de Generación Automática de Resúmenes de Texto de Múltiples documentos (GART-M).
En el método propuesto se optó por la extracción de las Secuencias Frecuentes Maximales (SFM’s) para ser empleadas como modelo de texto y la utilización de un método basado en grafos para realizar el pesado de las oraciones.
El corpus empleado fue DUC-02, el cual está conformado por 59 colecciones de documentos de noticias.
La evaluación de los resúmenes se hizo con el sistema ROUGE-N, el cual permite comprar los resúmenes generados a partir del método con los resúmenes generados por un humano.
Los resultados obtenidos de los experimentos realizados se dividieron en tres etapas. En la primera etapa se buscó la mejor configuración del método. En la segunda etapa se buscó probar la importancia de la longitud de las SFM’s. En la tercera etapa de busco emplear una nueva configuración para la selección de oraciones.
Los resultados obtenidos por el método propuesto se compararon con otros métodos del estado del arte y las heurísticas. Los resultados obtenidos con el método propuesto logran superar las heurísticas y métodos del estado del arte.
2022-02-26T02:39:31Z
2022-02-26T02:39:31Z
2022-01-31
Tesis de Maestría
http://hdl.handle.net/20.500.11799/112750
spa
openAccess
http://creativecommons.org/licenses/by-nc-sa/4.0
Universidad Autónoma del Estado de México
oai:ri.uaemex.mx:20.500.11799/1127512023-01-06T02:34:27Zcom_20.500.11799_40546com_20.500.11799_22030com_20.500.11799_21941col_20.500.11799_68136col_20.500.11799_22429
Cálculo del índice de complejidad en documentos manuscritos para la segmentación de líneas de texto
GARCIA CALDERON, MIGUEL ANGEL; 712165
GARCIA CALDERON, MIGUEL ANGEL
GARCIA HERNANDEZ, RENE ARNULFO; 202667
García-Hernández, René Arnulfo
Índice de complejidad
Reconocimiento de texto manuscrito
Procesamiento digital de imágenes
INGENIERÍA Y TECNOLOGÍA
Hasta el momento el conocimiento almacenado en los manuscritos antiguos no se ha utilizado en su totalidad debido a la falta de métodos robustos en el estado del arte para el reconocimiento de texto manuscrito. La principal dificultad de los métodos para el reconocimiento de texto manuscrito es que se requiere que el texto se encuentre dividido en líneas. Además, los métodos para la Segmentación de Líneas de Texto (SLT) no han sido optimizados para procesar manuscritos antiguos. La primera etapa de la SLT es la Localización de Líneas de Texto (LLT). En la SLT se han propuesto métodos que buscan los valores máximos locales en un histograma. El problema de estos métodos es que existen demasiados máximos locales y no es posible identificar cuáles conjuntos de máximos locales representan una línea de texto. La segunda etapa de la SLT es la búsqueda de una ruta que permita separar las líneas de texto vecinas. Por un lado, el problema de los métodos actuales es que en algunos casos se realiza una búsqueda local de la ruta. Por otro lado, los métodos que realizan una búsqueda global de la ruta tienen problemas para encontrar una ruta entre trazos que se sobreponen. Los problemas de las dos etapas conforman un valor de complejidad. La complejidad visual de un documento mansucrito antiguo para ser segmentado puede apreciarse por el humano experto, sin embargo, no existe en el estado del arte un método para calcular la complejidad. En el estado del arte existen técnicas que permiten realizar una separación del cuerpo de letras y el espacio interlineal. Este trabajo se enfoca cuantificar la cantidad de información en el espacio interlineal para establecer un índice de complejidad. El índice de complejidad propuesto calcula la cantidad de información que aportan los trazos horizontales y verticales; además de la cantidad de información que aporta la tinta del documento y los valores del color del material de escritura.
2022-02-26T02:47:03Z
2022-02-26T02:47:03Z
2022-01-14
Tesis de Doctorado
doctoralThesis
http://hdl.handle.net/20.500.11799/112751
spa
openAccess
http://creativecommons.org/licenses/by-nc-sa/4.0
Universidad Autónoma del Estado de México