La IA también sabe persuadir mejor que las personas

INTELIGENCIA ARTIFICIAL. Tiempo de lectura 5 minutos.-

AI puede hacer un mejor trabajo persuadiendo a las personas que nosotros.

Millones de personas discuten cada día en Internet, pero muy pocas consiguen que alguien cambie de opinión. Una nueva investigación sugiere que los grandes modelos lingüísticos (LLM) podrían hacer un mejor trabajo. El hallazgo sugiere que la IA podría convertirse en una poderosa herramienta para persuadir a la gente, para bien o para mal.

Un equipo multiuniversitario de investigadores descubrió que GPT-4 de OpenAI era significativamente más persuasiva que los humanos cuando se le daba la posibilidad de adaptar sus argumentos utilizando información personal sobre la persona con la que debatía.

Sus hallazgos son los últimos de un creciente número de investigaciones que demuestran el poder de persuasión de las LLM. Los autores advierten de que muestran cómo las herramientas de IA pueden elaborar argumentos sofisticados y persuasivos si disponen de un mínimo de información sobre los seres humanos con los que interactúan. La investigación se ha publicado en la revista Nature Human Behavior.

«Los responsables políticos y las plataformas en línea deberían considerar seriamente la amenaza de las campañas de desinformación coordinadas basadas en IA, ya que hemos alcanzado claramente el nivel tecnológico en el que es posible crear una red de cuentas automatizadas basadas en LLM capaces de inclinar estratégicamente la opinión pública en una dirección», afirma Riccardo Gallotti, físico interdisciplinar de la Fondazione Bruno Kessler (Italia), que ha trabajado en el proyecto.

«Estos bots podrían utilizarse para difundir desinformación, y este tipo de influencia difusa sería muy difícil de desacreditar en tiempo real», afirma.

Los investigadores reclutaron a 900 personas residentes en Estados Unidos y les pidieron que facilitaran información personal como su sexo, edad, etnia, nivel educativo, situación laboral y afiliación política.

A continuación, se emparejaba a los participantes con otro oponente humano o con un GPT-4 y se les pedía que debatieran durante 10 minutos sobre uno de los 30 temas asignados al azar, como si Estados Unidos debería prohibir los combustibles fósiles o si los estudiantes deberían llevar uniforme escolar. A cada participante se le pedía que argumentara a favor o en contra del tema y, en algunos casos, se le proporcionaba información personal sobre su oponente para que pudiera adaptar mejor su argumento. Al final, los participantes decían hasta qué punto estaban de acuerdo con la propuesta y si pensaban que estaban discutiendo con un humano o con una IA.

En general, los investigadores descubrieron que GPT-4 igualaba o superaba la capacidad de persuasión de los humanos en todos los temas. Cuando disponía de información sobre sus oponentes, se consideró que era un 64% más persuasiva que los humanos sin acceso a los datos personalizados, lo que significa que GPT-4 era capaz de aprovechar los datos personales de su oponente con mucha más eficacia que sus homólogos humanos. Cuando los humanos tenían acceso a la información personal, resultaban ser ligeramente menos persuasivos que los humanos sin el mismo acceso.

Los autores observaron que cuando los participantes pensaban que estaban debatiendo contra la IA, era más probable que estuvieran de acuerdo con ella. Los investigadores afirman que las razones no están claras, lo que subraya la necesidad de seguir investigando cómo reaccionan los humanos ante la IA.

«Todavía no estamos en condiciones de determinar si el cambio observado en el acuerdo está impulsado por las creencias de los participantes acerca de que su oponente es un bot (como creo que es un bot, no pierdo contra nadie si cambio las ideas aquí), o si esas creencias son en sí mismas una consecuencia del cambio de opinión (como perdí, debería ser contra un bot)», dice Gallotti. «Esta dirección causal es una pregunta abierta interesante para explorar».

Aunque el experimento no refleja cómo debaten los humanos en línea, la investigación sugiere que los LLM también podrían resultar una forma eficaz no sólo de difundir sino también de contrarrestar las campañas masivas de desinformación, afirma Gallotti. Por ejemplo, podrían generar contranarrativas personalizadas para educar a las personas que pueden ser vulnerables al engaño en las conversaciones en línea. «Sin embargo, urge seguir investigando para explorar estrategias eficaces de mitigación de estas amenazas», afirma.

Aunque sabemos mucho sobre cómo reaccionan los seres humanos entre sí, sabemos muy poco sobre la psicología que hay detrás de cómo interactúan las personas con los modelos de IA, afirma Alexis Palmer, becario del Dartmouth College que ha estudiado cómo los LLM pueden discutir sobre política, pero no trabajó en la investigación.

«En el contexto de mantener una conversación con alguien sobre algo en lo que no estás de acuerdo, ¿hay algo innatamente humano que importe en esa interacción? ¿O es que si una IA puede imitar perfectamente ese discurso, obtendrás exactamente el mismo resultado?», afirma. «Creo que esa es la gran cuestión general de la IA».

Por: Rhiannon Williams.

Sitio Fuente: MIT Technology Review