La inteligencia artificial (IA) puede ofrecer soluciones para reducir la actividad en las redes sociales que se considera tóxica y polarizadora.
En un estudio reciente, los investigadores sugieren que modificar la forma en que las redes sociales muestran el contenido podría reducir las divisiones partidistas y conducir a interacciones más positivas.
El estudio fue realizado por un equipo dirigido por el profesor Petter Törnberg de la Universidad de Ámsterdam. Programaron 500 chatbots con perfiles políticos y demográficos únicos basados en datos de encuestas.
Los robots fueron creados para leer noticias reales y publicarlas en entornos simulados de Twitter/X.
En esta configuración, los robots mostraron un mayor disfrute al encontrar puntos en común y un comportamiento menos tóxico. Dado que la IA imita a las personas de manera más realista, este estudio puede proporcionar información sobre cómo unir a las personas en las redes sociales y al mismo tiempo evitar trampas éticas.
Más sobre el estudio: Simulación de una red social
El equipo de Törnberg programó chatbots utilizando ChatGPT 3.5. A cada bot se le asignó una afiliación política, edad, sexo, ingresos, religión, equipos deportivos favoritos y más. Esto les dio a los investigadores una población simulada diversa.
En un día simulado de julio de 2020, los robots leyeron titulares de noticias reales de ese período sobre temas como COVID-19 y las protestas de Black Lives Matter. Luego, los robots comentaron, dieron me gusta e interactuaron con publicaciones sobre los titulares de las noticias.
Los investigadores crearon tres modelos experimentales de Twitter diferentes:
- Un modelo de cámara con eco solo mostraba publicaciones de bots de otros con puntos de vista similares.
- Un modelo de descubrimiento priorizó el compromiso sobre las creencias.
- El tercer modelo de “puente” destacó las publicaciones que les gustaron a los grupos partidistas opuestos para optimizar la interacción entre partidos.
Seguimiento del comportamiento del robot
Las simulaciones duraron 6 horas y los investigadores siguieron cómo se comportaban los robots.
En el modelo puente, los bots mostraron una mayor felicidad al encontrar puntos en común en temas como los derechos LGBTQ+ en la música country. También hubo significativamente más interacción entre partes e intercambios menos tóxicos que el modelo de cámara de eco polarizada.
“Si la gente interactúa sobre un tema que trasciende la división partidista, donde el 50% de las personas con las que estás de acuerdo votan por un partido diferente al tuyo, eso reduce la polarización”, explicó Törnberg. “Su identidad partidista no se está activando”.
Los resultados sugieren que las redes sociales podrían diseñarse para impulsar la participación sin fomentar el abuso entre diferentes grupos. Sin embargo, se necesita más investigación para validar si los chatbots avanzados de IA pueden simular fielmente el comportamiento humano en línea.
Preocupaciones éticas
Siguen existiendo preocupaciones éticas en torno a los datos privados utilizados para entrenar robots con apariencia humana. Potencialmente, podrían programarse con publicaciones de personas en redes sociales, historial de navegación o registros confidenciales, lo que plantea problemas de consentimiento.
Es probable que se necesiten directrices sobre los derechos de las personas cuyos datos entrenan a los robots para estudios como este.
A medida que los chatbots de IA actúen de forma más humana, pueden arrojar luz sobre la reducción de la toxicidad en las redes sociales. Sin embargo, los investigadores deben garantizar que los dobles digitales también reflejen lo mejor de la humanidad, no lo peor.
Imagen de portada: CkyBe/Shutterstock