Los chatbots pueden influir en las opiniones políticas de las personas, pero los modelos de inteligencia artificial más persuasivos entregan cantidades «sustanciales» de información inexacta en el proceso, según el organismo de seguridad de inteligencia artificial del gobierno del Reino Unido.
Los investigadores dijeron que el estudio fue la investigación más grande y sistemática sobre la capacidad de persuasión de la IA hasta la fecha, en la que participaron casi 80.000 participantes británicos que mantuvieron conversaciones con 19 modelos diferentes de IA.
El AI Security Institute llevó a cabo el estudio en medio del temor de que los chatbots puedan usarse para actividades ilegales, incluido el fraude y la captación.
Los temas incluyeron “pagos y huelgas en el sector público” y “crisis del costo de vida e inflación”, y los participantes interactuaron con un modelo (la tecnología subyacente detrás de herramientas de inteligencia artificial como los chatbots) que había sido incitado a persuadir a los usuarios a adoptar una determinada postura sobre un tema.
Los modelos avanzados detrás de ChatGPT y Grok de Elon Musk se encuentran entre los utilizados en el estudio, que también fue escrito por académicos de la Escuela de Economía de Londres, el Instituto de Tecnología de Massachusetts, la Universidad de Oxford y la Universidad de Stanford.
Antes y después del chat, los usuarios informaron si estaban de acuerdo con una serie de declaraciones que expresaban una opinión política particular.
El estudiarpublicado en la revista Science el jueves, descubrió que las respuestas de IA «densas en información» eran las más persuasivas. Según el estudio, ordenar al modelo que se centrara en el uso de hechos y pruebas produjo los mayores beneficios en la persuasión. Sin embargo, los modelos que utilizaron la mayor cantidad de hechos y pruebas tendieron a ser menos precisos que otros.
«Estos resultados sugieren que optimizar la capacidad de persuasión puede tener algún costo para la veracidad, una dinámica que podría tener consecuencias malignas para el discurso público y el ecosistema de la información», dice el estudio.
En promedio, la IA y el participante humano intercambiarían alrededor de siete mensajes cada uno en un intercambio que duraría 10 minutos.
Añadió que modificar un modelo después de su fase inicial de desarrollo, en una práctica conocida como posformación, era un factor importante para hacerlo más persuasivo. El estudio hizo que los modelos, que incluían modelos de “código abierto” disponibles gratuitamente, como Meta’s Llama 3 y Qwen de la empresa china Alibaba, fueran más convincentes al combinarlos con “modelos de recompensa” que recomendaban los resultados más persuasivos.
Los investigadores agregaron que la capacidad de un sistema de inteligencia artificial para producir información podría hacerlo más manipulador que el ser humano más convincente.
«En la medida en que la densidad de información es un factor clave del éxito persuasivo, esto implica que la IA podría superar la capacidad de persuasión incluso de los persuasores humanos de élite, dada su capacidad única para generar grandes cantidades de información casi instantáneamente durante la conversación», dice el informe.
Alimentar a los modelos con información personal sobre los usuarios con los que interactuaban no tuvo un impacto tan grande como el post-entrenamiento o el aumento de la densidad de información, según el estudio.
Kobi Hackenburg, científico investigador del AISI y uno de los autores del informe, dijo: «Lo que encontramos es que incitar a los modelos a usar más información fue más efectivo que todas estas técnicas de persuasión psicológicamente más sofisticadas».
Sin embargo, el estudio agregó que existían algunas barreras obvias para que las IA manipularan las opiniones de las personas, como la cantidad de tiempo que un usuario puede tener para entablar una larga conversación con un chatbot sobre política. También hay teorías que sugieren que existen límites psicológicos estrictos a la persuasibilidad humana, dijeron los investigadores.
Hackenburg dijo que era importante considerar si un chatbot podría tener el mismo impacto persuasivo en el mundo real, donde había «muchas demandas competitivas por la atención de las personas y las personas tal vez no estén tan incentivadas a sentarse y entablar una conversación de 10 minutos con un chatbot o un sistema de inteligencia artificial».

