Repositorio Dspace

Aplicación de modelos Transformers para clasificar textos en idioma español

Mostrar el registro sencillo del ítem

dc.contributor.advisor Haz López, Lídice Victoria
dc.contributor.author Merchán Pérez, Erick Lenin
dc.date.accessioned 2024-08-16T20:01:45Z
dc.date.available 2024-08-16T20:01:45Z
dc.date.issued 2024-08-16
dc.identifier.citation Merchán Pérez, Erick Lenin (2024). Aplicación de modelos Transformers para clasificar textos en idioma español. La Libertad. UPSE, Matriz. Facultad de Sistemas y Telecomunicaciones. 48p. es
dc.identifier.other UPSE-TTI-2024-0035
dc.identifier.uri https://repositorio.upse.edu.ec/handle/46000/11875
dc.description.abstract La llegada de los modelos Transformers ha revolucionado el procesamiento del lenguaje natural (PLN) al introducir un innovador mecanismo de atención capaz de capturar de manera eficiente y simultánea dependencias a largo plazo en secuencias de datos. Este avance arquitectónico ha generado un camino para un progreso significativo en diversas aplicaciones de PLN. En consecuencia, el enfoque de este proyecto radica en aprovechar estos modelos Transformers Pysentimiento para la clasificación de texto en el idioma español. Para lograr este objetivo, se emplearán cuatro modelos distintos: BERT, RoBERTa, DistilBERT y AlBERT, utilizando un conjunto de datos obtenido de la plataforma en línea Kaggle. Estos conjuntos de datos serán sometidos a un procesamiento previo y posteriormente alimentados a cada modelo para su evaluación. Se llevará a cabo un análisis comparativo de los resultados utilizando diversas métricas, y los hallazgos experimentales revelarán que, después de un adecuado preprocesamiento, el modelo DistilBERT alcanzo una precisión del 78%, un recall del 75%, una exactitud del 75% y una puntuación f1 del 76%. Este resultado establece al modelo DistilBERT como la opción más adecuada para tareas de clasificación de texto en el idioma español. es
dc.language.iso spa es
dc.publisher La Libertad: Universidad Estatal Península de Santa Elena, 2024 es
dc.rights openAccess es
dc.rights Atribución-NoComercial-SinDerivadas 3.0 Ecuador *
dc.rights.uri http://creativecommons.org/licenses/by-nc-nd/3.0/ec/ *
dc.subject PLN es
dc.subject TRANSFORMERS es
dc.subject KAGGLE es
dc.subject BERT es
dc.subject ROBERTA es
dc.subject DISTILBERT es
dc.subject ALBERT es
dc.title Aplicación de modelos Transformers para clasificar textos en idioma español es
dc.type bachelorThesis es
dc.pages 48 p. es


Ficheros en el ítem

El ítem tiene asociados los siguientes ficheros de licencia:

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

openAccess Excepto si se señala otra cosa, la licencia del ítem se describe como openAccess

Buscar en DSpace


Búsqueda avanzada

Listar

Mi cuenta