Preentrenamiento de un modelo GPT con arquitectura Transformer
| dc.contributor.author | Vallejo Monge, Stephano Luis Felipe | |
| dc.date.accessioned | 2026-03-02T21:24:51Z | |
| dc.date.available | 2026-03-02T21:24:51Z | |
| dc.date.issued | 2025 | |
| dc.description.abstract | Los modelos lingüísticos como GPT (Generative Pretrained Transformer) han transformado la forma en que se procesa la información. No obstante, su funcionamiento se basa en una arquitectura compleja que presenta desafíos de comprensión técnica. Este proyecto busca desglosar esa complejidad mediante la construcción de un modelo GPT, explorando paso a paso los fundamentos de la arquitectura Transformer. Al mismo tiempo, se propone aplicar este conocimiento a un caso práctico que demuestre su utilidad, como la generación de texto. | |
| dc.id.author | 0604250381 | |
| dc.identifier.other | 15613 | |
| dc.identifier.uri | https://repositorio.puce.edu.ec/handle/123456789/48273 | |
| dc.language.iso | es | |
| dc.publisher | PUCE - Quito | |
| dc.subject | Modelos GPT | |
| dc.subject | Arquitectura de software | |
| dc.subject | Lingüística computacional | |
| dc.subject | Procesamiento de lenguaje natural (Computadores) | |
| dc.title | Preentrenamiento de un modelo GPT con arquitectura Transformer | |
| dc.type | Thesis |
Files
Original bundle
1 - 1 of 1
No Thumbnail Available
- Name:
- Trabajo de Titulación - Grado / Vallejo Monge Stephano Luis Felipe
- Size:
- 3.11 MB
- Format:
- Adobe Portable Document Format
License bundle
1 - 1 of 1
No Thumbnail Available
- Name:
- license.txt
- Size:
- 1.71 KB
- Format:
- Item-specific license agreed to upon submission
- Description:
