Los gobiernos están explorando si la IA puede ofrecer asesoramiento confiable.
Mucho antes de la llegada de ChatGPT, los gobiernos ya buscaban utilizar chatbots para automatizar sus servicios y asesorías. Esos primeros chatbots “solían ser más simples, con habilidades conversacionales limitadas”, dice Colin van Noordt, investigador sobre el uso de IA en el gobierno, con sede en los Países Bajos. Pero la aparición de la IA generativa en los últimos dos años ha revivido la visión de un servicio público más eficiente, donde asesores con características humanas pueden trabajar 24 horas, respondiendo preguntas sobre beneficios, impuestos y otras áreas donde el gobierno interactúa con el público.
La IA generativa es lo suficientemente sofisticada para dar respuestas parecidas a las humanas y, si se entrena con datos de calidad suficiente, en teoría podría manejar todo tipo de preguntas sobre servicios gubernamentales. Sin embargo, la IA generativa es conocida por cometer errores o incluso dar respuestas sin sentido, conocidas como “alucinaciones”.
En el Reino Unido, el Servicio Digital del Gobierno (GDS, por sus siglas en inglés) ha realizado pruebas con un chatbot basado en ChatGPT llamado GOV.UK Chat, que respondería a las preguntas de los ciudadanos sobre una variedad de temas relacionados con los servicios gubernamentales. En una publicación de blog sobre sus primeros hallazgos, la agencia señaló que casi el 70% de los involucrados en la prueba encontraron útiles las respuestas. Sin embargo, hubo problemas con “algunos” casos en los que el sistema generaba información incorrecta y la presentaba como un hecho.
El blog también expresó preocupación de que podría haber una confianza indebida en un sistema que podría estar equivocado algunas veces. “En general, las respuestas no alcanzaron el nivel más alto de precisión exigido para un sitio como GOV.UK, donde la exactitud fáctica es crucial. Estamos iterando rápidamente este experimento para abordar los problemas de precisión y fiabilidad.”
Portugal está probando un chatbot impulsado por IA.
Otros países también están experimentando con sistemas basados en IA generativa. Portugal lanzó en 2023 la Guía Práctica de Justicia, un chatbot diseñado para responder preguntas básicas sobre temas simples como matrimonio y divorcio. El chatbot se ha desarrollado con fondos del Mecanismo de Recuperación y Resiliencia de la Unión Europea (RRF). El proyecto de €1,3 millones ($1,4 millones; £1,1 millones) se basa en el modelo de lenguaje GPT 4.0 de OpenAI. Además de cubrir matrimonio y divorcio, también proporciona información sobre la creación de empresas.
Según datos del Ministerio de Justicia de Portugal, se plantearon 28,608 preguntas a través de la guía en los primeros 14 meses del proyecto. Cuando le pregunté una pregunta básica: “¿Cómo puedo crear una empresa?”, funcionó bien. Pero cuando pregunté algo más complicado: “¿Puedo crear una empresa si soy menor de 18 años, pero estoy casado?”, se disculpó por no tener la información para responder esa pregunta. Una fuente del ministerio admite que aún carecen de confiabilidad, aunque las respuestas incorrectas son raras. “Esperamos que estas limitaciones se superen con un aumento decisivo en el nivel de confianza de las respuestas”, me dice la fuente.
Colin van Noordt, investigador sobre el uso de IA en el gobierno y con sede en los Países Bajos
Los chatbots no deberían reemplazar a los funcionarios públicos, dice Colin van Noordt.
Tales fallos significan que muchos expertos aconsejan precaución, incluido Colin van Noordt. “Va mal cuando el chatbot se despliega como una forma de reemplazar a las personas y reducir costos.” Sería un enfoque más sensato, añade, si se ven como “un servicio adicional, una forma rápida de encontrar información”.
Sven Nyholm, profesor de ética de la inteligencia artificial en la Universidad Ludwig Maximilians de Múnich, destaca el problema de la responsabilidad. “Un chatbot no es intercambiable con un funcionario,” dice. “Un ser humano puede ser responsable y moralmente responsable de sus acciones. Los chatbots de IA no pueden ser responsables de lo que hacen. La administración pública requiere responsabilidad, y por lo tanto, requiere seres humanos.”
El Sr. Nyholm también destaca el problema de la fiabilidad. “Los tipos más nuevos de chatbots crean la ilusión de ser inteligentes y creativos de una manera que los tipos más antiguos de chatbots no solían hacer. De vez en cuando, estos nuevos y más impresionantes tipos de chatbots cometen errores tontos y estúpidos, lo que a veces puede ser humorístico, pero también potencialmente peligroso si las personas confían en sus recomendaciones.”
El gobierno de Estonia está a la vanguardia en el uso de chatbots.
Si ChatGPT y otros Modelos de Lenguaje Grandes (LLM, por sus siglas en inglés) no están listos para dar consejos importantes, entonces quizás podríamos mirar a Estonia para una alternativa. Cuando se trata de digitalizar los servicios públicos, Estonia ha sido uno de los líderes. Desde principios de los años 90 ha estado construyendo servicios digitales, y en 2002 introdujo una tarjeta de identificación digital que permite a los ciudadanos acceder a los servicios del estado. Así que no es sorprendente que Estonia esté a la vanguardia de la introducción de chatbots.
La nación está desarrollando actualmente una suite de chatbots para servicios estatales bajo el nombre de Bürokratt. Sin embargo, los chatbots de Estonia no se basan en Modelos de Lenguaje Grandes (LLM) como ChatGPT o Gemini de Google. En cambio, utilizan Procesamiento de Lenguaje Natural (NLP), una tecnología que precedió a la última ola de IA. Los algoritmos de NLP de Estonia descomponen una solicitud en segmentos pequeños, identifican palabras clave y, a partir de eso, infieren lo que el usuario quiere.
En Bürokratt, los departamentos usan sus datos para entrenar chatbots y verificar sus respuestas. “Si Bürokratt no sabe la respuesta, el chat se transferirá a un agente de atención al cliente, quien tomará el control del chat y responderá manualmente”, dice Kai Kallas, jefe del Departamento de Servicios Personales en la Autoridad del Sistema de Información de Estonia. Es un sistema de potencial más limitado que uno basado en ChatGPT, ya que los modelos NLP están limitados en su capacidad para imitar el habla humana y detectar matices en el lenguaje. Sin embargo, es poco probable que den respuestas incorrectas o engañosas.
“Algunos chatbots tempranos forzaban a los ciudadanos a elegir opciones para preguntas. Al mismo tiempo, permitían un mayor control y transparencia de cómo operaba y respondía el chatbot”, explica Colin van Noordt. “Los chatbots basados en LLM a menudo tienen una calidad de conversación mucho mayor y pueden proporcionar respuestas más matizadas. Sin embargo, esto tiene un costo de menor control del sistema, y también puede proporcionar respuestas diferentes a la misma pregunta,” añade.
Conclusión
El uso de IA para mejorar los servicios gubernamentales tiene un gran potencial, pero también presenta desafíos significativos. Mientras que los modelos de lenguaje grandes como ChatGPT pueden ofrecer respuestas más humanas y matizadas, aún luchan con problemas de precisión y fiabilidad. Alternativas como los chatbots basados en NLP, como los de Estonia, ofrecen respuestas más controladas y precisas, aunque a costa de la sofisticación conversacional. En cualquier caso, los expertos coinciden en que la IA debería complementar a los funcionarios públicos, no reemplazarlos, garantizando así la responsabilidad y la calidad del servicio.
Fuentes
https://www.bbc.com/news/articles/cmllxl89jlwo