Compartir

“Nadie se imaginaba que el odio en internet llegaría al nivel actual”, dice en este reportaje Yasmin Green, quien lidera la I+D de una filial de Google especializada en abordar los mayores problemas de la red: radicalización, noticias falsas, intimidación… El artículo ha sido desarrollado por Martin Giles del MIT Technology Review.

Su equipo suele viajar a zonas conflictivas para entender bien el problema y buscar soluciones, algunas de las cuales ya están dando resultadosDiscursos de odio, radicalización, tutoriales que enseñan a fabricar bombas, noticias falsas promovidas por gobiernos, censura: internet es un lugar horrible.

Al menos una parte. Ayudar a que esa parte sea lo más pequeña posible es el trabajo de la directora de Investigación y Desarrollo de Jigsaw (una filial de la empresa matriz de Google, Alphabet), Yasmin Green. La responsable se enfrenta a terroristas y troles por igual junto con un grupo internacional de alrededor de 60 especialistas, entre los que hay ingenieros de software, científicos y responsables de producto. Pero Green y sus compañeros no dedican todo su tiempo a escribir código, muchos de ellos también viajan a puntos geopolíticos conflictivos para estudiar la radicalización de cerca (ver “Sería una parodia que las empresas crearan tecnologías revolucionarias sin salir de Silicon Valley”). Green habló con MIT Technology Review sobre algunos de los métodos que utiliza el grupo.

¿Qué le atrajo de su puesto en Jigsaw?

Me fui de Irán, donde nací, cuando era muy pequeña y crecí en el Reino Unido. Recuerdo que regresé cuando tenía 19 años y me sentí asombrada por el nivel de censura que había en el país, tanto en internet como fuera de él. Los términos como “red global” tienden a sonar irónicos para las personas que no viven en países donde la información es gratuita. Por eso me atrajo trabajar en una empresa que intenta poner la información a disposición de todos.

Queremos asegurarnos de que la tecnología que diseñamos se basa en una buena comprensión de las experiencias humanas. Una gran parte de nuestra metodología consiste en enviar a los miembros del equipo al terreno para entrevistar a personas que están en primera línea de los desafíos que tratamos de abordar, ya sea represión o conflicto. Una vez fuimos a Irak, donde nos sentamos cara a cara con personas que se habían unido y luego abandonaron el grupo terrorista conocido como Estado Islámico (EI). Queríamos entender el proceso de radicalización, tanto los elementos humanos como el papel que jugó la tecnología.

Escuchamos cómo la gente descubrió el EI, cómo se contrataba a las personas y cómo la tecnología apoyaba labores de logística para unirse al grupo.

¿Cuál es la lección más importante que hemos aprendido sobre la capacidad del Estado Islámico de aprovecharse de internet para reclutar nuevos miembros? (ver La lucha contra el Estado Islámico será a través de las redes sociales o no será)

El Estado Islámico domina muchos medios, desde la radio hasta los panfletos. Cuando se trata de internet, realmente han entendido el poder del microtargeting. Crean contenido en muchísimos idiomas, incluidos el árabe y el inglés, pero incluso escriben en chino y hebreo. Pero lo que realmente me dejó boquiabierta fue un vídeo en el que aparecía lenguaje de signos.

Están creando materiales para el reclutamiento local y están utilizando los algoritmos disponibles a través de las redes sociales para distribuir este material y llegar a personas en todos los rincones del mundo.

Algunas de las redes de contenido terrorista online claramente deben ser eliminadas. Pero, ¿cómo podemos lidiar con formas más sutiles de propaganda?

Definitivamente hay categorías de contenido que no deberían ver la luz, como las decapitaciones y los tutoriales para fabricar bombas. Luego, hay una gran cantidad de contenido que realmente no incita a la violencia, pero que podría ayudar a que la gente se dirija hacia ella. El objetivo de nuestra investigación era comprender cuáles eran los temas de reclutamiento que hicieron que las personas se apuntaran al Estado Islámico.

Resulta que generalmente no fueron atraídos por las decapitaciones; en lugar de eso, estaban convencidos de que este grupo era religiosamente legítimo y que la causa de la yihad era su deber religioso. El Estado Islámico estaba dando forma a la conversación, haciendo preguntas para las que tenía respuestas aparentemente convincentes.

¿Cómo ha intentado contrarrestar la radicalización online?

Una de nuestras conclusiones fue que el tiempo es crítico. Cuando los potenciales reclutas ya se han rendido a la ideología, es demasiado tarde para influir sobre ellos; tienes que llegar a ellos cuando simpatizan, pero aún no se han vendido. Así que recurrimos a publicidad online dirigida. Hemos diseñado algo llamado “método de redireccionamiento”, que utiliza anuncios orientados para llegar a personas que simpatizan con el Estado Islámico, pero que aún no se han comprometido con él, y los redirige a vídeos online de clérigos moderados, desertores y periodistas que podrían evitar su radicalización.

¿Qué resultados ha tenido este método?

El piloto, que duró ocho semanas y se desarrolló en árabe e inglés, llegó a 320.000 personas. Tenía una tasa de clics excepcionalmente alta en los anuncios y generó medio millón de minutos en tiempo de reproducción de vídeos. Dado que las personas no pasan más de unos pocos segundos en un vídeo que no les interesa, eso es alentador. Después de nuestra prueba piloto, YouTube integró el método en sus resultados de búsqueda.

La metodología de código abierto también ha sido replicada por otros, como la Gen Next Foundation. Aún seguimos admitiendo algunas implementaciones nuevas.

Jigsaw también intenta abordar la censura online. ¿Cuál es el problema?

Si miras el índice de Freedom House sobre esto, dice que cada año la situación empeora. Eso es realmente desalentador, porque va en contra de los objetivos de las personas que están desarrollando internet. La situación es muy volátil. Cuando hay disturbios civiles, como lo que ocurrió recientemente en Irán, se ve el dilema de los gobiernos represivos sobre si clausurar o no internet porque la censura enciende a la población y llama la atención y la indignación del público. Pero si los que están en el poder se sienten amenazados, lo censurarán.

¿Qué pueden hacer compañías como Alphabet para contrarrestar esto?

Sentimos una gran responsabilidad para ayudar a las personas a tener acceso a la información, especialmente cuando hay conflictos y represión. Uno de nuestros productos se centra en proteger a los medios independientes de todo el mundo de un tipo de ataque de censura llamado denegación de servicio distribuida, o DDoS, que hace que los sitios web se caigan a causa de una inundación repentina de tráfico. Se llama Project Shield. La idea nació de nuestro trabajo de campo. Nuestro equipo habló con el grupo que monitorizaba las elecciones de Kenia, cuya web, por cierto, se cayó el día de una elección clave.

Google tiene una enorme infraestructura y capacidades de mitigación de DDoS de clase mundial, de las cuales se aprovecha Project Shield. El servicio controla el tráfico antes de que llegue a un servidor para que podamos detectar el software malicioso y filtrarlo, todo esto sin necesidad de que los sitios web tengan que estar alojados en Google o Jigsaw.

Pasemos al problema de las noticias falsas. ¿Cómo podemos identificar mejor los esfuerzos de desinformación patrocinados por los gobiernos?

El objetivo de estas campañas es sembrar ideas y narrativas a través de personajes falsos y portales de noticias. Después, estas semillas son fertilizadas por las masas para que las conversaciones parezcan orgánicas. La pregunta de investigación que nos hemos estado haciendo es si existen marcadores técnicos de actividad coordinada y encubierta frente a la actividad verdaderamente orgánica que esperamos ver online. Si los hay, podríamos usarlos para detectar casos automáticamente.

El asunto tiene varias dimensiones. Las campañas coordinadas tienden a durar más que las orgánicas, y las personas involucradas tienden a esperar para recibir instrucciones de sus jefes, por lo que a veces hay un ligero retraso antes de que actúen juntas. Esos actores también tienden a estar vinculados a redes extremadamente concentradas o grupos de apariencia irregular. También hay una dimensión semántica. Estas campañas a menudo usan palabras y frases similares que pueden ser una señal de control centralizado.

“No creo que nadie imaginara que llegaríamos a tener el nivel de intimidación y discurso de odio en internet que tenemos actualmente, y tenemos que esforzarnos mucho para asegurarnos de que estamos avanzando”.

Las compañías web han sido criticadas por no hacer lo suficiente para afrontar el discurso de odio online y el acoso. ¿Esa crítica es justa?

No creo que nadie imaginara que llegaríamos a tener el nivel de intimidación y discurso de odio en internet que tenemos actualmente, y tenemos que esforzarnos mucho para asegurarnos de que estamos avanzando.

¿Qué está haciendo Jigsaw para frustrar a los troles de internet?

(ver Todos llevamos un trol dentro y suele despertarse los lunes)

Contamos con un equipo dedicado a ver cómo se puede utilizar el procesamiento del lenguaje natural y el aprendizaje automático para identificar los comentarios abusivos en internet y ayudar a los moderadores y las comunidades a abordarlo. Hay un modelo que hemos desarrollado que está disponible públicamente, llamado Perspective, se puede encontrar en www.perspectiveapi.com. Esto le ayuda a calificar los comentarios por su nivel de toxicidad. El equipo de investigación está buscando formas de llegar a otro nivel de granularidad para ayudarnos a identificar mejor lo que está sucediendo y ayudar a los moderadores a controlarlo.

El tema de los algoritmos sesgados capaces de discriminar a determinados colectivos tiene cada vez más peso. ¿Es un tema al que también prestan atención?

Sí. Pasamos mucho tiempo pensando en cómo podemos garantizar que no tengamos sesgos en nuestra inteligencia artificial que puedan ser perjudiciales para los objetivos de este proyecto, que es crear conversaciones inclusivas y empáticas.
Pasa gran parte de su vida en el lado oscuro de internet. ¿Todavía es optimista sobre su potencial?

Lo soy, pero tenemos que seguir desarrollando tecnologías innovadoras que ayuden a abordar estos desafíos tan difíciles.

También te puede interesar leer este artículo:

La primera ciudad futurista será construida por Alphabet en Toronto

Deja una respuesta

Por favor, ingrese su comentario.
Ingrese su nombre aquí