Bots sociales que engañan (y cómo descubrirlos)

bots sociales

La bondad o maldad de cualquier herramienta se define por el uso que se le dé; de esa manera, los bots que se usan en redes sociales para propagar ruido, desinformación y discursos de odio son un grave problema para la convivencia. 

De los bots de software a los bots sociales

En los inicios de internet, se les llamaba robots software y eran, básicamente, programas y aplicaciones que desarrollaban tareas automatizadas. Las “arañas” de Google, por ejemplo, que rastrean la red detectando y acumulando las actualizaciones en las distintas publicaciones son robots software. Otros bots sirven para monitorizar la red y te dicen, entre otras cosas, que alguien ha enlazado en su blog algunas de tus publicaciones. Cuando se juega una partida multi-jugador contra la máquina, se juega contra un robot software. El internet actual ha sido modelado a través del uso de robots de todo tipo. La red es lo que es gracias a los robots de software.

Una variedad de estos robots son los llamados bots sociales. Un bot social, tal y como lo definen Ferrara et al. en el artículo “The Rise of Social Bots”, es un algoritmo que produce contenido de forma automática e interactúa con usuarios humanos a través de redes sociales. El bot social trata de emular el comportamiento humano, es decir trata de hacerse pasar por un ser humano.

Bots buenos, bots malos (como el colesterol)

Buena parte de estos bots son inofensivos y pueden resultar realmente útiles. Son aquellos que agregan contenidos automáticamente desde fuentes preseleccionadas o aquellos que se usan para la atención al cliente online. La forma más depurada de estos últimos serían los chatbots.

Pero otra parte, pueden ser realmente peligrosos. De hecho, su diseño busca específicamente causar daño. Estos bots se dedican a desviar y manipular la conversación en redes sociales con rumores, spam, noticias falsas, calumnias o simple ruido.

¿Sabes con quién estás hablando?

Alan Turing, considerado uno de los padres de la ciencia de la computación y precursor de la informática moderna, propuso una prueba que ahora lleva su nombre y que determinaría cuándo una máquina podría confundirse con una persona.

El test de Turing consiste en que un observador asiste a la conversación entre una máquina y una persona sin saber quién es quién. El observador debe intentar distinguir quién es la inteligencia artificial y quién la natural. Lo importante no es que las respuestas sean más o menos acertadas o brillantes sino que parezcan humanas. 

Turing, que ideó esta prueba en 1950, la limitó a una conversación por escrito. Las máquinas por entonces hablaban descaradamente como máquinas. Ya no es así. De hecho, uno de los reproches que se le hizo a Duplex, una Inteligencia Artificial de Google que llama por ti para reservarte mesa en un restaurante o habitación en un hotel, es que sonaba demasiado humana, con sus um y sus ah.

Muchas de nosotras perdemos a diario en el test de Turing y acabamos aceptando la solicitud de amistad de una máquina, dándole like a la respuesta que nos ha dado una IA o discutiendo con un algoritmo. Y, cuidado, que algunos, como Debater de IBM, son capaces de apabullarte en una conversación tú a tú.

Bots sociales que desinforman… como tu cuñado

Los tips de hace unos años para distinguir una cuenta automatizada en Twitter ya no sirven porque los bots sociales se han sofisticado tanto que se hace realmente complicado distinguirlos. Muchos de ellos aprueban con nota el test de Turing e incluso engañarían al mismísimo Rick Deckard por muchas veces que les pasara el test Voight-Kampff

Los bots sociales se han vuelto realmente peligrosos desde el momento en que son capaces de replicar el comportamiento de una persona y sus acciones.

En uno de los capítulos del libro #FakeYou, un proyecto editorial dirigido por Simona Levi, se presta atención a lo que los bots sociales dedicados a la desinformación son capaces de hacer a través de hashtags. Los bots pueden abusar de las menciones, trolear con la frialdad de los ceros y los unos o floodear el trending topic de turno. De esa manera, consiguen, en una rápida enumeración:

Crear de cero un debate que de forma humana y natural no existiría. Desviar y desvirturar conversaciones y debates genuinamente creados por personas. Desgastar a quien disiente a través de ataques personales constantes. Exagerar los temores y la ira de los receptores repitiendo consignas simples y cortas. Exagerar la popularidad (de un personaje público, de un partido político, de un problema). Descarrilar conversaciones. Distraer la atención hacias las cuestiones irrelevantes y sin sentido. Difundir noticias verdaderas o falsas en gran cantidad.

Estos no son los androides que buscáis

Si todo lo anterior puede ser hecho con éxito es porque los bots son confundidos con personas. En un primer momento, quienes acudieron a los bots sociales, rudimentarios por entonces, fueron ciertas celebridades que querían aparentar tener miles, millones, de seguidores en sus redes sociales. Después, entre otros, vinieron, los partidos políticos o las empresas.

Nos daría igual que un partido político estuviera apoyado por miles de fórmulas matemáticas pero sucede que la idea que transmiten las conversaciones, y las estadísticas, alteradas por los bots es que esos partidos cuentan con el apoyo de miles de personas.

Y donde dice partidos políticos, puede poner proclamas racistas o información engañosa para alterar el valor de las acciones de una empresa. Téngase en cuenta que las ideas apoyadas por muchas personas se vuelven atractivas y hacen que las apoyen más personas. Es el conocido como bandwagon effect o efecto arrastre.

El fin último de todo esto, de los contenidos automatizados y difundidos de forma masiva, de la viralidad artificial, de la falsa idea de las multitudes que se posicionan así o asá es el control de las emociones, de las ideas y de los comportamientos.

Las fake news se definen como información falsa creada y difundida para conseguir un objetivo en concreto. Los bots sociales son, al igual que las fake news, pieza clave de las dinámicas de desinformación y comparten el hecho de que están programados para manipular, en un sentido determinado, a las personas de carne y hueso que usamos las redes sociales.

Bots sociales vs. personas humanas

Según el Bad Bot Report de Imperva, en 2019 los bots sociales malos producían el 24,1% del tráfico de internet. Alrededor de la mitad, 13,1%, era cosa de bots buenos. El restante 62,8% era tráfico humano.

Twitter identificó casi 3000 cuentas automatizadas vinculadas a la IRA (Internet Research Agency) rusa, uno de los principales generadores de desinformación en aquellas elecciones.  

Por su parte, Facebook, según desactivó 694 millones de cuentas falsas en 2017. En los primeros seis meses 2018, desactivó más de 1000 millones. The Next Web calcula que cerca del 5% de las cuentas nuevas que se abren cada mes son fake.

La presencia de los bots en redes sociales es abrumadora y su papel acelerando la desinformación es incuestionable. Sin embargo, el papel de los usuarios humanos en la propagación de noticias falsas sigue siendo mayor que el de las máquinas.

Según Vosough, Roy y Aral, autores de “The spread of true and false news online”, artículo publicado en Science en julio de 2018, los bots sociales aceleran por igual la difusión de noticias falsas y verdaderas y si las falsas se difunden más es porque los humanos, y no los bots, son más propensos a compartirlas.

Cantidad y calidad

Otro artículo, que cuenta de nuevo con la firma de Emilio Ferrara, aporta una información muy importante más allá de la presencia porcentual de bots frente a humanos en redes sociales. 

El artículo tiene un nombre explícito: Bots increase exposure to negative and inflammatory content in online social systems (Los bots incrementan la exposición a contenido negativo e inflamatorio de contenido online en redes sociales). En él, estudianan cerca de 4 millones de tuits generados por cerca de 1 millón de cuentas durante el referéndum por la independencia de Cataluña el 1 de octubre de 2017.

Una de las conclusiones del artículo es que los bots son clave originando conversaciones. Pero, después, son los humanos los que más dinamizan estas conversaciones. 

Los bots, sin ser todavía mayoritarios en las redes, pueden determinar la agenda social y política. Por eso es tan importante desarrollar contramedidas para desenmascarar estas formas de manipulación social automatizada.

Cómo descubrir a un bot social (a mano y a máquina)

Las iniciativas colaborativas tienen un amplio recorrido en el entorno digital y han demostrado dar buenos resultados en la lucha contra la desinformación.

El fact checking hace buen uso de la colaboración entre periodistas, medios de comunicación y personas voluntarias. Un claro ejemplo es CrossCheck, una iniciativa lanzada en 2017 que espera que el trabajo colaborativo permita determinar más rápidamente que información es precisa y fiable. Wikipedia lanzó el mismo año el proyecto WikiTribune, ahora reconvertido en la red social WT.Social. Una red social no tóxica que elude el control de los algoritmos y que permite a sus usuarios actuar directamente contra la información falsa.

En el artículo ya citado, “The Rise of Social bots”, se proponen tres estrategias para detectar bots sociales y la que se basa en el crowdsourcing (colaboración abierta) alcanza un porcentaje de falsos positivos (cuentas identificadas como bots que son, en realidad, personas) del 0%. Los autores que han desarrollado este método aseguran que detectar bots es cosa de humanos.

La segunda estrategia presentada estudia el patrón de amistades de las cuentas, algo que queda fuera del alcande del nivel usuario.

La tercera consiste en analizar una serie de características para determinar si la cuenta en cuestión tiene más probabilidad de ser un bot o una persona. Este método es en el que se basa la aplicación Botometer.

Algunas de estas características, al menos a lo que Twitter se refiere, están resumidas en la imagen siguiente:

distinguir bot social de persona

Este proceso está automatizado y se puede aplicar usando un robot. Se trata de la aplicación Botometer, del Observatorio de Redes Sociales (Observatory on Social Media, OSoMe) y el Network Science Institute (IUNI) de la Universidad de Indiana.

Botometer, a partir del nombre de usuario en cuestión, te da información sobre el usuario, sus seguidores y sus amistades. Toda la información la resumen gráficamente en un indicador que oscila entre 0 (muy humano) y 5 (muy bot).

botometer

Hola, soy un robot

La primera ley de la robótica que formuló Isaac Asimov es clara e inequívoca: “Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño”. 

Para conseguirlo, no basta con que tengamos algunas claves más o menos válidas para distinguirlos. Los bots deben ser programados para que no causen daño. Y si sus creadores no están por la labor, habrá que imponer normas rigurosas al respecto.

En California, los bots sociales ya deben presentarse como tales. La ley B.O.T. (Bolstering Online Transparency) obliga a todos los bots que pretendan influir en comportamientos electorales o de consumo a que se declaren como tales. Deben ser cuentas convenientemente etiquetadas para que nadie interactúe con ellas tomándolas como personas reales. Los responsables ante la ley serán los creadores de los bots.

Por último, no deberíamos olvidar que los bots sociales destinados a propagar desinformación y manipular son diseñados por personas y organizaciones concretas a los que Ferrara et al. llaman amos de las marionetas. Son los responsables últimos y a los que se debería poder desenmascarar.


Imágenes: fragmentos de Electric Discharges (1909), a collection of colorful and different drawings of electrical currents models.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *