Preentrenamiento de un modelo GPT con arquitectura Transformer

dc.contributor.authorVallejo Monge, Stephano Luis Felipe
dc.date.accessioned2026-03-02T21:24:51Z
dc.date.available2026-03-02T21:24:51Z
dc.date.issued2025
dc.description.abstractLos modelos lingüísticos como GPT (Generative Pretrained Transformer) han transformado la forma en que se procesa la información. No obstante, su funcionamiento se basa en una arquitectura compleja que presenta desafíos de comprensión técnica. Este proyecto busca desglosar esa complejidad mediante la construcción de un modelo GPT, explorando paso a paso los fundamentos de la arquitectura Transformer. Al mismo tiempo, se propone aplicar este conocimiento a un caso práctico que demuestre su utilidad, como la generación de texto.
dc.id.author0604250381
dc.identifier.other15613
dc.identifier.urihttps://repositorio.puce.edu.ec/handle/123456789/48273
dc.language.isoes
dc.publisherPUCE - Quito
dc.subjectModelos GPT
dc.subjectArquitectura de software
dc.subjectLingüística computacional
dc.subjectProcesamiento de lenguaje natural (Computadores)
dc.titlePreentrenamiento de un modelo GPT con arquitectura Transformer
dc.typeThesis
Files
Original bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
Trabajo de Titulación - Grado / Vallejo Monge Stephano Luis Felipe
Size:
3.11 MB
Format:
Adobe Portable Document Format
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
1.71 KB
Format:
Item-specific license agreed to upon submission
Description: