Noticias

La IA dificulta la detección de bots en las redes sociales

Los bots ya forman parte de los usuarios de las redes sociales, especialmente en Twitter. Pero debido a los rápidos avances de la Inteligencia Artificial, cada vez es más difícil distinguirlos de las personas reales

IA dificulta la detección de bots
IA dificulta la detección de bots

Los bots y las cuentas falsas han ido creciendo a la par que las plataformas de redes sociales. Y ahora, gracias al desarrollo de la Inteligencia Artificial, cada vez es más difícil detectarlos.

PUBLICIDAD

El año pasado, Twitter reconoció que alrededor del 5 por ciento de sus usuarios activos son bots. Esta plataforma reportó 229 millones de usuarios en el primer trimestre de 2022, lo que situaría el número de bots en esta red social en más de 11,4 millones.

Investigadores de la Copenhagen Business School (Dinamarca) decidieron realizar un experimento con 375 participantes para comprobar la dificultad de distinguir entre perfiles reales y falsos en las redes sociales.

Recomendados

Los autores de la investigación crearon su propio feed de Twitter simulado con la guerra de Ucrania como tema. El feed incluía perfiles reales y generados con tuits que apoyaban a ambos bandos del conflicto. Las cuentas falsas utilizaban imágenes de perfil sintéticas generadas con StyleGAN y mensajes generados por GPT-3, el mismo modelo de lenguaje que hay detrás de ChatGPT.

“Curiosamente, las cuentas más controvertidas en cuestiones de precisión y probabilidad pertenecían a humanos auténticos. Uno de los perfiles reales fue etiquetado erróneamente como falso por el 41,5% de los participantes que lo vieron. Mientras tanto, uno de los perfiles falsos con mejores resultados sólo fue etiquetado como bot el 10% de las veces”, explicó a Metro Sippo Rossi, doctor del Centro de Análisis de Datos Empresariales del Departamento de Digitalización de la Escuela de Negocios de Copenhague.

Y añadió: “Nuestros hallazgos sugieren que la tecnología para crear perfiles generados falsos ha avanzado hasta tal punto que es difícil distinguirlos de los reales”.

Desde la manipulación política a la desinformación, pasando por el ciberacoso y la ciberdelincuencia, la proliferación de perfiles en redes sociales generados mediante deep learning tiene importantes implicaciones para la sociedad y la democracia en su conjunto.

“Los gobiernos autoritarios están inundando las redes sociales con personas aparentemente solidarias con el fin de manipular la información, por lo que es esencial considerar cuidadosamente las posibles consecuencias de estas tecnologías y trabajar para mitigar estos impactos negativos”, concluyó Raghava Rao Mukkamala, coautor y director del Centro de Análisis de Datos Empresariales del Departamento de Digitalización de la Copenhagen Business School.

Metro habló con Sippo Rossi para saber más.

“Antes costaba mucho trabajo crear perfiles falsos realistas. Hace cinco años el usuario medio no disponía de la tecnología necesaria para crear perfiles falsos a esta escala y con esta facilidad. Hoy es muy accesible y está al alcance de muchos, no sólo de unos pocos”.

—  Raghava Rao Mukkamala, Director del Centro de Análisis de Datos Empresariales del Departamento de Digitalización de la Escuela de Negocios de Copenhague, Dinamarca

¿Qué papel desempeñan los bots en las redes sociales?

-Distribución de spam, noticias falsas y otros contenidos maliciosos.

-Los bots más siniestros se utilizan para manipular debates en torno a temas mediante la publicación de grandes volúmenes de mensajes que se alinean con alguna agenda, por ejemplo, haciendo que alguna opinión parezca más popular de lo que realmente es.

-También hay bots buenos o benignos, que pueden, por ejemplo, curar noticias basadas en palabras clave o publicar sobre actualizaciones o cambios en un sitio web o servicio.

Entrevista

Sippo Rossi,

doctorando del Centro de Análisis de Datos Empresariales de la Escuela de Negocios de Copenhague (Dinamarca).

P: ¿Por qué decidió estudiar los bots de las redes sociales?

- Empecé a interesarme por el estudio de los bots después de observar lo inflado que estaba el número de seguidores de los políticos en Twitter y de empezar a sospechar de algunos patrones visibles que repetían las cuentas nuevas. Averiguar cómo detectarlos con aprendizaje automático también fue divertido, aunque difícil porque los bots siguen evolucionando con el tiempo.

P: ¿Por qué se ha vuelto más difícil identificar bots?

- Hay dos razones. En primer lugar, los sitios de redes sociales son cada vez mejores a la hora de eliminar bots simples, por lo que los desarrolladores de los bots también tienen que esforzarse más para crearlos, lo que en última instancia también los hace más difíciles de detectar para los humanos. En segundo lugar, la disponibilidad de tecnología beneficiosa para los desarrolladores de bots ha aumentado y ahora muchas cosas son mucho más fáciles de hacer que antes. Por ejemplo, hoy en día es fácil generar imágenes de perfil extremadamente realistas y ya hemos visto ejemplos de redes de bots que utilizan imágenes de perfil falsas creadas con un enfoque de aprendizaje profundo para la generación de imágenes. Todos estos avances se traducen en bots cada vez más parecidos a los humanos.

P: Háblenos del papel de la inteligencia artificial.

- Las herramientas de IA pueden utilizarse para producir dos cosas: fotos de perfil y texto. Especialmente ahora, los modelos lingüísticos son cada vez mejores a la hora de producir variaciones de algunos mensajes, por lo que generar publicaciones únicas para un ejército de bots es más fácil y, por tanto, también son menos fáciles de detectar. En otras palabras, en el pasado un ejército de bots podía reenviar los mismos mensajes una y otra vez, lo que facilitaba su detección, pero ahora es mucho más fácil tener mensajes únicos pero gramaticalmente correctos gracias a los generadores de texto asistidos por inteligencia artificial.

P: ¿Cuáles son los peligros de que los bots sean cada vez más difíciles de identificar?

- Me preocupa que los debates públicos en las redes sociales se vean inundados de comentarios que parecen hechos por humanos, pero que en realidad están hechos por bots que promueven algún tipo de agenda. Por ejemplo, si un sitio web de noticias como The Guardian publica un artículo en las redes sociales sobre inmigración, y la sección de comentarios es abrumadoramente antiinmigrante o incluso difunde información errónea sobre los extranjeros debido a los bots que comentan, puede hacer que los humanos que vean esta discusión piensen que hay más gente en contra de los inmigrantes de la que en realidad hay. Además, las personas que vean esto pueden estar menos interesadas en expresar su opinión contraria, lo que reducirá aún más el debate real y aumentará aún más esta espiral en la que sólo se oye una voz, que ni siquiera es la opinión de un humano real, sino la del controlador de los bots.

P: ¿Hay alguna solución?

- Creo que lo mejor es educar a la gente. Hacerles ver que no deben fiarse de alguien en línea como en los viejos tiempos, cuando no te fiabas de alguien que acababas de conocer en la calle. Además, mostrar a la gente lo difícil que es detectar bots podría hacerles más críticos con lo que ven online si es de alguien que no conocen. Por último, las redes sociales deberían vigilar y eliminar más agresivamente las cuentas de bots, ya que en última instancia son ellas las que tienen la capacidad de hacer algo al respecto.

Tags


Lo Último