La empresa de inteligencia artificial ElevenLabs, conocida por sus servicios de clonación de voz, ha suspendido recientemente a un usuario que creó un deepfake de audio del presidente Joe Biden. Este audio fue utilizado en una llamada automatizada (robocall) dirigida a algunos votantes en New Hampshire, instándoles a no votar en las primarias del estado. La tecnología específica utilizada para replicar la voz de Biden no fue inicialmente clara, pero un análisis exhaustivo realizado por la empresa de seguridad Pindrop reveló que los perpetradores utilizaron las herramientas de ElevenLabs.
Pindrop eliminó el ruido de fondo y limpió el audio de la llamada automatizada antes de compararlo con muestras de más de 120 tecnologías de síntesis de voz utilizadas para generar deepfakes. Vijay Balasubramaniyan, CEO de Pindrop, afirmó a Wired que los resultados mostraron con más del 99% de certeza que se utilizó la tecnología de ElevenLabs. La empresa fue notificada sobre los hallazgos de Pindrop y, aunque aún está investigando, ya ha identificado y suspendido la cuenta responsable del audio falso. ElevenLabs declaró que no puede comentar sobre el incidente en sí, pero enfatizó su compromiso con la prevención del mal uso de las herramientas de IA de audio y la seriedad con la que toma cualquier incidente de abuso.
Biden y la manipulación Electoral
El caso del deepfake de Biden en la llamada automatizada ilustra cómo las tecnologías capaces de imitar la apariencia y voz de otra persona podrían ser utilizadas para manipular votos en las próximas elecciones presidenciales de Estados Unidos. Kathleen Carley, profesora de la Universidad Carnegie Mellon, comentó a The Hill que este incidente es sólo la punta del iceberg en términos de lo que podría hacerse en relación con la supresión de votantes o ataques a trabajadores electorales. Según Carley, este incidente es un presagio de lo que podríamos esperar en los próximos meses.
ElevenLabs permite a los clientes usar su tecnología para clonar voces con fines de «discurso artístico y político que contribuya a los debates públicos». Sin embargo, su página de seguridad advierte a los usuarios que no pueden clonar una voz con fines abusivos, como fraude, discriminación, discurso de odio o cualquier forma de abuso en línea sin infringir la ley. A pesar de estas advertencias, es evidente que se necesitan más salvaguardas para evitar que malintencionados utilicen estas herramientas para influir en los votantes y manipular elecciones en todo el mundo.