Por Deutsche Welle |11 de julio de 2024, 18:44 PM

Un video muestra imágenes de la serie de animación "Padre de Familia" ("Family Guy"), en las que el protagonista, Peter Griffin, maneja una camioneta con una bomba. Es una secuencia del episodio "Turban Cowboy", emitido en 2013. Pero el audio fue cambiado y el personaje canta una letra diferente. "Nuestras armas son pesadas, nuestras filas son numerosas, pero los soldados de Alá están más que preparados", dice la canción, dirigida a animar a los seguidores de la organización terrorista autodenominada "Estado Islámico (EI)".

Esta es sólo una muestra de cómo los grupos extremistas utilizan la informática avanzada o la inteligencia artificial (IA) para crear contenidos para sus seguidores.

El término inteligencia artificial abarca una amplia gama de tecnologías digitales usadas para diversos fines: desde el procesamiento más rápido de grandes cantidades de datos digitales, hasta lo que se conoce como "IA generativa", que "genera" nuevos textos o imágenes basándose en enormes cantidades de datos. Así se creó esta canción de Peter Griffin.

"La rápida democratización de la tecnología de IA generativa en los últimos años (...) está teniendo un profundo impacto en la forma en que las organizaciones extremistas realizan operaciones de influencia en línea", indica el investigador estadounidense Daniel Siegel, en un artículo para la Red Global sobre Extremismo y Tecnología.

Aumenta el uso extremista de la IA

Últimamente, diversas organizaciones que vigilan las actividades de grupos extremistas han informado sobre la forma en que el EI y otros animan a sus seguidores a hacer uso de las nuevas herramientas digitales.

En febrero, un grupo afiliado a la organización terrorista Al Qaeda anunció que empezaría a impartir talleres en línea sobre inteligencia artificial, según informó The Washington Post. Más tarde, el mismo grupo publicó una guía sobre el uso de chatbots de IA.

En marzo, después de que una rama del EI matara a más de 135 personas en un atentado terrorista contra un teatro de Moscú, uno de los seguidores del grupo creó una noticia falsa sobre el suceso y la publicó cuatro días después del atentado.

"Lo que sabemos hoy del uso de la IA es que funciona como complemento de la propaganda tanto de Al Qaeda como del EI", afirma Moustafa Ayad, director ejecutivo para África, Oriente Próximo y Asia del Instituto para el Diálogo Estratégico (ISD), con sede en Londres. Añadió que, por su aspecto, es posible que esos mensajes tampoco sean detectados por los moderadores de contenidos de las redes sociales más populares.

Posibles usos en manos de terroristas

Nada de esto sorprende a los observadores de Estado Islámico. Cuando el grupo extremista se hizo conocido alrededor de 2014, ya realizaba videos propagandísticos con altos costos de producción para intimidar a sus enemigos y reclutar adeptos.

Pero, ¿hasta qué punto son realmente peligrosos los contenidos realizados con los nuevos recursos? Los observadores han enumerado diversas formas en que los grupos extremistas podrían utilizar la IA. Además de la propaganda, también podrían recurrir a chatbots como ChatGPT, para conversar con posibles nuevos reclutas, sugieren los expertos.

Los modelos de IA, como ChatGPT, también tienen ciertas reglas escritas en sus sistemas que les impiden ayudar a los usuarios, por ejemplo, a salir impunes de un asesinato. Sin embargo, estas reglas han demostrado ser poco fiables, y los potenciales terroristas podrían burlarlas para obtener información peligrosa.

También se teme que los extremistas puedan utilizar herramientas de inteligencia artificial para cometer atentados digitales o cibernéticos o para planear atentados terroristas en el mundo real.

Más peligro en el mundo real

Sin embargo, los expertos sostienen que, aunque la IA tiene un potencial preocupante en manos de extremistas, la vida real sigue siendo más peligrosa.

Un artículo publicado en 2019 en la revista "Perspectives on Terrorism" examinó la relación entre la cantidad de propaganda difundida por el grupo EI y sus ataques físicos reales. Concluyó que "no había una correlación fuerte y predecible".

"No sé si, a estas alturas, el uso de la IA por parte de organizaciones terroristas extranjeras y de quienes las apoyan es más peligroso que su propaganda, muy real y gráfica, de asesinatos gratuitos de civiles y atentados contra las fuerzas de seguridad", afirma Ayad.

(ers/cp)