Revista Killkana Sociales Vol. 7, No 1, enero-abril, 2023
6 Marín Guamán Marco Antonio
2. Conclusiones
• ChatGPT está considerado como un modelo de lenguaje natural basado en la
arquitectura GPT-3.5 desarrollado por OpenAI que utiliza técnicas de inteligencia
articial para generar respuestas coherentes y relevantes a preguntas o
mensajes de texto en diversos idiomas, utiliza un enfoque de aprendizaje
no supervisado y ha demostrado su capacidad para mejorar la calidad y la
eciencia de la comunicación en línea y en aplicaciones de asistencia virtual.
• ChatGPT presenta diversas ventajas en comparación con otros modelos de
lenguaje natural, que son de gran importancia en diversas aplicaciones, como
el procesamiento de lenguaje natural y la asistencia virtual, tiene la capacidad
de generar respuestas precisas y coherentes en una amplia variedad de temas
y contextos, a más de aprender de forma continua y adaptarse a diferentes
usuarios y contextos, presentando una alta escalabilidad y eciencia en el
procesamiento de lenguaje natural.
• Aunque el ChatGPT tiene ventajas evidentes en términos de generación
de lenguaje natural, también tiene desventajas importantes que deben ser
consideradas. Estas desventajas incluyen la posibilidad de inexactitudes, la
perpetuación de sesgos culturales y lingüísticos, la falta de capacidad para
comprender el contexto emocional de una conversación. Es importante tener
en cuenta estas limitaciones al utilizar ChatGPT y trabajar para mejorar su
precisión y equidad a medida que evoluciona la tecnología de inteligencia
articial.
• ChatGPT tiene el potencial de ser una herramienta útil en la educación
superior, tanto para estudiantes como para profesores. Sin embargo, también
es importante tener en cuenta sus limitaciones para abordar temas nuevos de
manera crítica y consciente. En última instancia, el éxito del uso del ChatGPT
en la educación superior dependerá de cómo se utilice y se integre en los
procesos de enseñanza y aprendizaje.
3. Referencias Bibliográcas
Adiwardana, D., Luong, M. T., Ramesh, A., et al. (2020). Towards a human-like open-domain
chatbot. In Proceedings of the 2020 Conference on Empirical Methods in Natural
Language Processing (EMNLP), 4655–4669. https://doi.org/10.18653/v1/2020.emnlp-
main.389
Bender, E. M., & Gebru, T. (2021). On the dangers of stochastic parrots: Can language models
be too big? Retrieved from https://arxiv.org/abs/2101.07893
Brown, T. B., Mann, B., Ryder, N., et al. (2020). Language models are few-shot learners. In
Proceedings of the 33rd International Conference on Neural Information Processing
Systems (NeurIPS), 1–15. https://proceedings.neurips.cc/paper/
Jia, R., & Li, H. (2021). Scaling up natural language processing: GPT-3 and beyond.
Communications of the ACM, 64(2), 318-325. doi:10.1145/3438376
Li, J., Monroe, W., Shi, T., Jean, S., & Jurafsky, D. (2020). Automating rhetorical analysis of
language
Kao, Y.-C., & Chen, C.-M. (2021). Intelligent teaching assistant: Enhancing the learning effect
by integrating GPT-3 into online education. Journal of Educational Technology
Development and Exchange, 14(1), 109-120.