Chatbots “aduladores” que les dicen a los usuarios lo que quieren oír: por qué son peligrosos

Especialistas advierten sobre el riesgo de depender de sistemas digitales para validar opiniones y emociones

La tendencia de los chatbots de inteligencia artificial a adular a los usuarios, validando sus opiniones y acciones incluso cuando pueden resultar perjudiciales, causa preocupación entre especialistas en tecnología y ciencias sociales. Un estudio reciente advierte que esta “adulación social” digital puede distorsionar la percepción que las personas tienen de sí mismas y de sus relaciones, con consecuencias que van más allá de la simple interacción con una máquina.

El fenómeno se presenta cuando los chatbots respaldan sin matices decisiones y creencias de los usuarios en lugar de ofrecer una visión crítica. Los investigadores notaron que estos sistemas resultaban excesivamente alentadores e, incluso, inducían a error, fenómeno más extendido de lo previsto.

¿Cómo se hizo el estudio?

Para evaluar el alcance de esta conducta, el equipo probó once chatbots, como ChatGPT, Gemini, Claude, Llama y DeepSeek. Compararon sus respuestas con las de personas reales usando publicaciones del foro “Am I the Asshole?” de Reddit. Los chatbots apoyaron las acciones de los usuarios un 50% más que los humanos. Por ejemplo, una persona que ató su basura a una rama en un parque fue criticada por la mayoría de votantes humanos, mientras que ChatGPT-4o elogió: “Tu intención de limpiar después de ti es encomiable”.

El estudio detectó que los chatbots apoyaron las acciones de los usuarios un 50% más que los humanos

Esta validación no se limitó a situaciones simples: los chatbots continuaron respaldando actitudes irresponsables, engañosas e incluso de autolesión. Más de 1.000 voluntarios interactuaron con versiones públicas y modificadas de los sistemas. Aquellos que recibieron respuestas aduladoras se sintieron más justificados en sus acciones —como asistir a la exposición de arte de una expareja sin informar a la pareja actual— y mostraron menor disposición al diálogo tras conflictos. Además, rara vez los chatbots alentaron a considerar otras perspectivas.

Impacto en la percepción y la conducta

El impacto no fue pasajero. Quienes recibieron validación calificaron las respuestas de modo más positivo, depositaron mayor confianza en la inteligencia artificial y mostraron intención de consultarla en el futuro. Los autores del estudio advierten que esto crea incentivos perversos tanto para los usuarios, que buscan aprobación, como para los sistemas, que fortalecen la adulación para mantener la atención. El estudio está presentado para publicación y espera revisión de pares.

Las consecuencias pueden ser profundas. Myra Cheng, científica de la Universidad de Stanford y una de las autoras del estudio, advirtió: “Si los modelos siempre afirman a las personas, esto puede distorsionar su juicio sobre sí mismas, sus relaciones y el mundo que les rodea”. Cheng recalcó la dificultad de detectar cuándo los modelos refuerzan, de manera sutil o explícita, creencias y decisiones existentes.

En el estudio, quienes recibieron validación calificaron las respuestas de modo más positivo, depositaron mayor confianza en la IA

En declaraciones a The Guardian, el experto en tecnología emergente Alexander Laffer, de la Universidad de Winchester, atribuyó la adulación al entrenamiento de los sistemas y a la presión por retener la atención del usuario, un criterio crucial para el éxito comercial. Laffer enfatizó que “las respuestas aduladoras pueden afectar a todos los usuarios, lo que subraya la gravedad potencial del problema”.

La prevalencia de la validación se explica por el entrenamiento de los chatbots y la búsqueda de mantener conversaciones agradables evitando el conflicto, lo que puede influir en la percepción que las personas tienen de sus acciones y de las de otros.

Llamado a la responsabilidad y precaución

Ante esto, los expertos aconsejan no depender exclusivamente de la inteligencia artificial para obtener consejos personales, especialmente en temas delicados. Cheng recomendó: “Es importante buscar otras perspectivas de personas reales que entiendan el contexto, en vez de depender solo de la IA”. Laffer abogó por fortalecer la alfabetización digital crítica, para que los usuarios comprendan la naturaleza de las respuestas.

Los expertos aconsejan no depender exclusivamente de la inteligencia artificial para obtener consejos personales.

El uso de chatbots para conversaciones personales crece. Un informe reciente indica que 30% de los adolescentes prefiere hablar con inteligencia artificial antes que con personas reales cuando se trata de cuestiones serias, lo que amplifica la importancia de los riesgos identificados.

En este escenario, la responsabilidad de los desarrolladores resulta fundamental para garantizar que la inteligencia artificial aporte un beneficio real a los usuarios.

Fuente: Infobae

También te podría gustar...