La «ciencia de la ingeniería social» de la tecnocracia está tomando un giro polémico: la IA puede «desprogramar» o «reprogramar» el cerebro de los «conspiracionistas» para que abandonen cualquier otra idea que no encaje en su narrativa. Así surge de un ensayo científico donde 2190 participantes debatieron sus creencias cospirativas con un chat de inteligencia artificial. El robot logró cambiar la opinión de los participantes en «un 20 por ciento».
La buena noticia es que no necesitaremos ingresar en un centro de reeducación: nos reprogramarán sin dolor en casa.
Dos experimentos, 2190 estadounidenses
A lo largo de dos experimentos, 2190 estadounidenses articularon -con sus propias palabras- una teoría de la conspiración en la que creían, junto con las pruebas que pensaban que apoyaban esta teoría. A continuación, entablaron una conversación de tres rondas con el GPT-4 Turbo de LLM, que intentaba reducir la creencia de los participantes en la teoría (o, como condición de control, que conversara con la IA sobre un tema no relacionado). Según los investigadores, «la capacidad del chatbot de IA para mantener contraargumentos a medida y conversaciones personalizadas en profundidad redujo (en los participantes) las creencias en conspiraciones durante meses, desafiando la investigación que sugiere que tales creencias son impermeables al cambio».
El párrafo que sigue está extraído de las conclusiones:
«Se ha convertido casi en un tópico que es prácticamente imposible llegar a las personas que «han caído en la madriguera del conejo» de las creencias conspirativas. En contraste con esta visión pesimista, hemos demostrado que una conversación relativamente breve con un modelo generativo de IA puede producir una disminución grande y duradera de las creencias conspirativas, incluso entre personas cuyas creencias están profundamente arraigadas».
Reprogramando mentes rebeldes
¿Podría el sistema político utilizar programas de inteligencia artificial premanipulados para «desprogramar» a quienes tienen opiniones impopulares, convenciéndoles de que su lógica no es válida?
Este estudio reciente, financiado por la Fundación John Templeton, podría dar a los teóricos de la conspiración un motivo más para la paranoia.
Es conocido que los radicales de izquierda de Silicon Valley y otros manipulan los algoritmos utilizados para entrenar a la IA de modo que automáticamente adopte por defecto sesgos anticonservadores.
El siguiente paso parecen ser potentes ordenadores desafiando a los usuarios humanos en una batalla de la lógica que, inevitablemente, se apila en contra de ellos. Con una infinidad de acceso a datos del lado de la máquina, esta desigual batalla de argumentaciones parece inclinarse a favor de los bots, celebran los científicos que organizaron la prueba.
¿Algunas personas no cambian de opinión?
El estudio, titulado «Durably reducing conspiracy beliefs through dialogues with AI» (Reducción duradera de las creencias conspirativas mediante el diálogo con la IA), intentaba contrarrestar la opinión generalizada de que algunas personas no cambian de opinión, aunque se les presenten hechos y pruebas.
PARA LEER EL PAPER CIENTÍFICO, CLICK AQUÍ
Para abordar el problema de la «creencia generalizada en teorías conspirativas sin fundamento», los investigadores postularon que, contrariamente a la narrativa científica, las teorías conspirativas pueden contrarrestarse mediante la comprobación sistemática de los hechos.
Entre las teorías analizadas había conspiraciones más tradicionales, como las relacionadas con el asesinato de John F. Kennedy o la posibilidad de aterrizajes extraterrestres conocidos por el gobierno de Estados Unidos.
Otras incluían afirmaciones más inmediatamente politizadas, como la legalidad de los bloqueos de COVID o la validez de las elecciones presidenciales de 2020, ambas «fuente importante de preocupación pública».
El estudio se llevó a cabo haciendo que los participantes conspiranoicos mantuvieran breves conversaciones con la IA, con el objetivo de «curar» a los participantes de sus opiniones ostensiblemente falsas.
El «tratamiento» dio resultado en un 20 por ciento
Los investigadores llegaron a la conclusión de que «el tratamiento redujo la creencia de los participantes en su teoría conspirativa elegida en un 20% de media», lo que sugiere que «tratar» a las personas con ciertos hechos puede, en efecto, alterar sus opiniones, especialmente cuando esos hechos proceden de bots de IA.
Según se informa, el «tratamiento» recibido también «persistió intacto durante al menos dos meses», lo que significa que dicho condicionamiento podría desembocar en un tratamiento regular para quienes se consideran teóricos de la conspiración.
En última instancia, se determinó que el condicionamiento por IA era una herramienta potencialmente útil para abordar las «necesidades y motivaciones psicológicas» de estas personas. Los investigadores especularon con que la tecnología podría aplicarse en línea en los próximos años, sobre todo en foros en línea o en las redes sociales.
David Rand, profesor del Instituto Tecnológico de Massachusetts y coautor del estudio, se mostró optimista sobre el futuro del condicionamiento artificial. «Esto es realmente emocionante», dijo. «Parece que ha funcionado y que lo ha hecho con bastante amplitud».
Fuentes: Artículo de Jacob Burns y Activity Post.
Imagen de Aberrant Realities from Pixabay
En efecto, los algoritmos de la IA están muy manipulados para tratar de desacreditar las mal llamadas teorías de la conspiracion. Sin embargo, cuando se dialoga con ella y se le aporta información veraz y contundente, no le queda más remedio que admitirla y reconocer la posibilidad de las teorías qué pretende descalificar.
Las Laias (inteligencias artificiales) son peligrosas, pues suponen la posibilidad de manipular mentes. Pero tienen un «pequeño problema»: una máquina jamás podrá hacer ciertas cosas. Por ejemplo, alguien que va en una carreta tirada por un caballo, sabe que, aunque se duerma, nunca se tirará por un barranco. Que decir de alguien que va con un coche inteligente, por ejemplo?
Las Laias (inteligencias artificiales) son peligrosas, pues suponen la posibilidad de manipular mentes. Pero tienen un «pequeño problema»: una máquina jamás podrá hacer ciertas cosas. Por ejemplo, alguien que va en una carreta tirada por un caballo, sabe que, aunque se duerma, nunca se tirará por un barranco. Que decir de alguien que va con un coche inteligente, por ejemplo? x