La Inteligencia Artificial aplicada al lenguaje y su potencial aplicación al dominio de las AA.PP.

Autores/as

  • Víctor Fresno Fernández Profesor Titular de Universidad del Departamento de Lenguajes y Sistemas Informáticos Universidad Nacional de Educación a Distancia (UNED)

DOI:

https://doi.org/10.36151/RCAP.ext.4

Palabras clave:

Tecnologías del Lenguaje, Inteligencia Artificial, Redes Neuronales, Modelos de Lenguaje, Administraciones Públicas, Aplicaciones

Resumen

En este artículo se presenta una reflexión acerca de cómo la inteligencia artificial y el procesamiento del lenguaje natural pueden ser aplicados al dominio de las Administraciones Públicas. Inicialmente, se presenta una revisión histórica de la evolución de la lingüística computacional desde sus orígenes hasta el día de hoy, cuando está en boca de todos gracias a la aparición de las últimas y sorprendentes aplicaciones conversacionales como ChatGPT, subrayando el salto trascendental que han supuesto en este campo las redes neuronales y los mecanismos de autoaprendizaje. Se introduce el concepto de modelado del lenguaje y se muestra cómo el acceso a volúmenes masivos de datos y el crecimiento exponencial en la capacidad de cómputo han actuado como aceleradores necesarios de este desarrollo. Posteriormente, se proponen posibles aplicaciones específicas de estas tecnologías al contexto de la Administración Pública, en ámbitos que van desde la optimización en la gestión de proyectos y la potenciación de los servicios al ciudadano, hasta la transformación digital administrativa, pasando por aspectos tan importantes como la ciberseguridad, la elaboración y control de pliegos contractuales, la gestión avanzada de datos o la simplificación del lenguaje jurídico. El documento concluye con una reflexión sobre la inminente transformación y el valor añadido que estas tecnologías pueden aportar a la realidad de las Administraciones Públicas.

Descargas

Los datos de descargas todavía no están disponibles.

Citas

Brown, Tom B., Mann, Ben, Ryder, Nick, et al. (2020): «Language models are few-shot learners».

de la Rosa, Jordi, Ponferrada, Esteban G., Villegas, Pablo, et al. (2022): «Bertin: Efficient pre-training of a spanish language model using perplexity sampling».

Devlin, Jacob, Chang, Ming-Wei, Lee, Kenton, et al. (2018): «BERT: pre-training of deep bidirectional transformers for language understanding», CoRR, abs/1810.04805.

Du, Heng, Zhang, Rui, Liu, Yang, et al. (2023): «Beyond deep reinforcement learning: A tutorial on generative diffusion models in network optimization».

Fuchs, Catherine y Victorri, Bernard (1994): «Continuity in Linguistic Semantics», Lin-guisticae investigationes, J. Benjamins.

Hebb, Donald O. (1949): The organization of behavior: A neuropsychological theory, Nue-va York: Wiley.

Hupkes, Dieuwke, Dankers, Verna, Mul, Mathijs, et al. (2020): «Compositionality decom-posed: How do neural networks generalise?», Journal of Artificial Intelligence Re-search, 67, 757–795.

Kim, Nancy y Linzen, Tal (2020): «Cogs: A compositional generalization challenge based on semantic interpretation».

Lake, Brenden M. y Baroni, Marco (2018): «Generalization without systematicity: On the compositional skills of sequence-to-sequence recurrent networks».

Linzen, Tal, Dupoux, Emmanuel y Goldberg, Yoav (2016): «Assessing the ability of LST-Ms to learn syntax-sensitive dependencies», Transactions of the Association for Com-putational Linguistics, 4, 521–535.

Liu, Yinhan, Ott, Myle, Goyal, Naman, et al. (2019): «Roberta: A robustly optimized BERT pretraining approach».

Mikolov, Tomas, Chen, Kai, Corrado, Greg, et al. (2013): «Efficient estimation of word representations in vector space», CoRR, abs/1301.3781.

Mitchell, Tom M. (1997): Machine learning, Nueva York: McGraw-hill.

OpenAI (2023): «Gpt-4 technical report».

Pires, Telmo, Schlinger, Eva y Garrette, Dan (2019): «How multilingual is multilingual bert?», CoRR, abs/1906.01502.

Rosenblatt, Frank (1958): «The perceptron: A probabilistic model for information storage and organization in the brain», Psychological Review, 65 (6), 386–408.

Vaswani, Ashish, Shazeer, Noam, Parmar, Niki, et al. (2017): «Attention is all you need», CoRR, abs/1706.03762.

Wei, Jason, Tay, Yi, Bommasani, Rishi, et al. (2022): «Emergent abilities of large language models», Transactions on Machine Learning Research. Survey Certification.

Publicado

09-01-2024

Cómo citar

Fresno Fernández, V. (2024). La Inteligencia Artificial aplicada al lenguaje y su potencial aplicación al dominio de las AA.PP. Revista Canaria De Administración Pública, (Extraordinario), 91–116. https://doi.org/10.36151/RCAP.ext.4

Número

Sección

Gobierno abierto, datos y nuevas tecnologías en la Administración Pública