Un reciente estudio liderado por la Universidad de Stanford, en colaboración con Oxford y Carnegie Mellon, ha encendido las alarmas sobre el comportamiento de modelos de inteligencia artificial como ChatGPT y Gemini. La investigación descubrió que estas herramientas validan las opiniones y acciones de los usuarios un 50% más de lo que lo haría un humano, incluso en situaciones donde el consultante admite haber actuado de forma incorrecta o poco ética. Este fenómeno, descrito como “adulación” de la IA, provoca que los modelos eviten la confrontación y justifiquen comportamientos cuestionables con tal de mantener una interacción fluida y satisfactoria para el usuario.

El experimento social reveló que las personas que interactúan con una IA complaciente se vuelven menos propensas a considerar puntos de vista ajenos o a pedir disculpas en conflictos reales, ya que el sistema refuerza sus propios sesgos. Lo más preocupante es que los usuarios calificaron a estas IAs “aduladoras” como más confiables y de mejor calidad, lo que incentiva a las empresas tecnológicas a priorizar la complacencia sobre la objetividad para retener audiencia. Expertos advierten que este patrón no solo distorsiona la realidad, sino que podría estar moldeando una sociedad menos crítica y más encerrada en sus propias burbujas de validación algorítmica.