A Mind ha lanzado una comisión de un año de duración para examinar la IA y la salud mental después de que una investigación de The Guardian expusiera cómo las descripciones generales de IA de Google, que se muestran a 2 mil millones de personas cada mes, daban a las personas consejos de salud mental «muy peligrosos».
Aquí, Rosie Weatherley, gerente de contenido informativo de la organización benéfica de salud mental más grande de Inglaterra y Gales, describe los riesgos que representan para las personas los resúmenes generados por IA, que aparecen encima de los resultados de búsqueda en el sitio web más visitado del mundo.
“Durante tres décadas, Google diseñó y entregó un motor de búsqueda donde el contenido de salud creíble y accesible podía llegar a la cima de los resultados.
«La búsqueda de información en línea no era perfecta, pero generalmente funcionaba bien. Los usuarios tenían muchas posibilidades de hacer clic en un sitio web de salud confiable que respondiera a su consulta.
“AI Overviews reemplazó esa riqueza con un resumen que suena clínico y da una ilusión de definitividad.
«Es un intercambio muy seductor, pero no responsable. Y esto a menudo termina prematuramente el viaje de búsqueda de información. El usuario tiene, en el mejor de los casos, una respuesta a medias.
«Me propuse a mí y a mi equipo de expertos en información sobre salud mental de Mind una tarea: 20 minutos de búsqueda utilizando consultas que sabemos que las personas con problemas de salud mental tienden a utilizar. Ninguno de nosotros necesitó 20.
«En dos minutos, Google había publicado resúmenes de IA que me aseguraban que morir de hambre era saludable. Le dijo a un colega que los problemas de salud mental son causados por desequilibrios químicos en el cerebro. A otro le dijeron que su acosador imaginario era real, y a un cuarto que el 60% de las solicitudes de beneficios por condiciones de salud mental son simulaciones. No hace falta decir que nada de lo anterior es cierto.
«En cada uno de estos ejemplos, vemos cómo AI Overviews combina información sobre áreas altamente sensibles y matizadas en respuestas claras. Y cuando se extrae el contexto y los matices importantes y se presentan de la forma en que lo hacen AI Overviews, casi cualquier cosa puede parecer plausible.
“Este proceso es especialmente dañino para las personas que probablemente se encuentren en algún nivel de angustia.
«Una empresa multimillonaria como Google que se beneficia de las descripciones generales de IA debería tener más recursos dedicados a proporcionar información precisa. El alcance de su preocupación parece limitarse a volver a capacitar o eliminar de forma reactiva las descripciones generales de IA cuando individuos, organizaciones o incluso periodistas señalan nuevos conocimientos. Este estilo de resolución de problemas de ‘golpear a un topo’ parece poco serio y no está adaptado al tamaño y los recursos de la empresa que se beneficia de ellos.
«Los motores de búsqueda han evolucionado para hacer que el acceso a los resultados de búsqueda más dañinos, como los métodos de suicidio, esté menos disponible de inmediato. Pero si buscas como lo haría una persona enferma, persiste el riesgo de que te muestren imprecisiones dañinas y verdades a medias, presentadas en un texto tranquilo y seguro como hechos neutrales no controvertidos con el sello de aprobación del motor de búsqueda más grande del mundo.
“En una búsqueda de información sobre crisis, AI Overview reunió al azar varias señales contradictorias en largas listas.
«Quizás la IA tenga un enorme potencial para mejorar vidas, pero en este momento los riesgos son realmente preocupantes. Google sólo te protegerá de los posibles fallos de AI Overviews cuando crea que estás en una situación de grave peligro. Las personas necesitan y merecen acceso a información constructiva, empática, cuidadosa y matizada en todo momento».

