Los chatbots pueden generar textos sorprendentemente convincentes sobre casi cualquier tema, a pedido y en pocos segundos, y ser manipulados. Foto: Andriy Popov/ Alamy / The Guardian.
Ya no son solo personas desinformadas o malintencionadas. También robots propagan información errónea en chats, aplicaciones producen videos pornográficos y voces clonadas (por ejemplo, de celebridades) difunden mensajes de ideología extrema o información que defrauda a empresas. El auge de deepfakes (ultrafalsos) genera creciente inquietud y, ante la amenaza, Gobiernos de todo el mundo ya piensan en respuestas.
En un análisis publicado este lunes, la agencia AFP señala que la inteligencia artificial está redefiniendo el dicho “ver para creer”, con una avalancha de imágenes creadas de la nada y personas que aparecen diciendo palabras que nunca pronunciaron en ultrafalsedades con un realismo desconcertante, también llamadas deepfakes, que socavan la confianza en internet.
China adoptó recientemente normas para regular las manipulaciones digitales, pero la mayoría de los países parecen estar luchando para mantenerse al día con tecnología de rápida evolución en medio de preocupaciones de que la regulación podría obstaculizar la innovación o ser mal utilizada para restringir la libertad de expresión, apunta la agencia francesa.
Según el texto, expertos han advertido que las herramientas para detectar este tipo de contenidos son superadas por sus creadores, que operan de forma anónima gracias a técnicas de inteligencia artificial que antes requerían cierta especialización, pero que actualmente son accesibles a bajo costo.
La amplia posibilidad de crear de manera automatizada contenido de texto, audio y video, y su uso potencialmente malicioso, con fines de fraude financiero o robo de identidad, genera serias preocupaciones en todo el mundo.
Estas tecnologías fueron bautizadas como “armas de disrupción masiva” por la firma de análisis de riesgos Eurasia Group.
AFP recuerda que la semana pasada, la start-up británica ElevenLabs, que está desarrollando una herramienta de clonación de voz utilizando inteligencia artificial, admitió haber detectado un “creciente número de usos indebidos” de su so