El pasado 2 de mayo, durante una audiencia de sentencia, un tribunal ‘escuchó’ las posibles palabras de una víctima fallecida en 2021. ¿Y cómo pasó esto? Gracias al uso de herramientas de inteligencia artificial ocupadas por su familia, quienes ‘regresaron’ virtualmente al difunto para —supuestamente— dirigirse a su asesino.
El asesinado en cuestión es Christopher Pelkey, de 37 años, quien murió tras recibir un disparo durante un incidente de ira al volante en Chandler. Tres años después, su familia presentó un video en el que una recreación digital del hombre ofreció una declaración, marcando un posible precedente legal en Estados Unidos y el mundo.
El video fue proyectado al final de la audiencia, después de que otras diez personas ofrecieran sus propias intervenciones. En él, la imagen animada de Pelkey saludó y explicó: «para que todos lo entiendan, soy una versión de Chris Pelkey recreada mediante IA que usa mi foto y mi perfil de voz». Luego se dirigió directamente al acusado, Gabriel Paul Horcasitas, con una expresión de perdón: «es una pena que nos hayamos encontrado ese día en esas circunstancias. En otra vida, probablemente habríamos sido amigos. Creo en el perdón y en un Dios que perdona».
¿Una víctima fallecida con voz?
La idea de usar inteligencia artificial para que la víctima expresara sus sentimientos surgió de Stacey Wales, hermana de Pelkey. Tras años intentando redactar su declaración, reconoció que las palabras que realmente importaban eran las de su hermano. Consultó a su esposo, Tim, quien trabaja en el ámbito tecnológico, y junto con su socio Scott Yentzer desarrollaron el video en pocos días utilizando una variedad de herramientas de IA. Para ello, necesitaron reconstruir la voz de Pelkey a partir de grabaciones y combinarla con una imagen suya mirando al frente.
Mira el video creado por la hermana de la víctima a continuación:
Como parte del proceso, debieron eliminar elementos como gafas de sol digitales y ajustar su barba, que generaba errores técnicos. También enfrentaron dificultades para capturar su risa debido al ruido de fondo en las grabaciones existentes. Stacey, profundamente involucrada, dijo haber escrito el guion según lo que creía que él diría, basándose en su carácter compasivo y su fe religiosa.
El juez Todd Lang permitió la reproducción del video sin objeciones. Aunque reconoció que la familia había pedido la pena máxima, valoró la carga emocional del mensaje expresado por el avatar. En sus palabras, «a pesar de su enojo justificado, escuché el perdón. Me pareció genuino». Lang condenó a Horcasitas a 10 años y medio de prisión por homicidio culposo, la pena máxima permitida.
Cuestionamientos éticos y judiciales
Es importante dejar en claro que el video no fue presentado como prueba formal, por lo que su impacto legal fue limitado al estar dirigido únicamente al juez. Sin embargo, la defensa consideró que su inclusión en la audiencia podría constituir una base para apelar. El abogado de Horcasitas, Jason Lamm, argumentó que la representación era «inapropiada» y que potencialmente podría haber influido emocionalmente en la decisión judicial.
Varios expertos expresaron opiniones divididas respecto al precedente. Gary Marchant, profesor de derecho en la Universidad Estatal de Arizona y miembro de un comité sobre ética tecnológica, admitió que el video parecía representar fielmente la personalidad de Pelkey. Sin embargo, también advirtió que su autenticidad era ilusoria: «Ves a alguien hablando, pero en realidad está muerto. Eso nos lleva a un terreno delicado». Derek Leben, especialista en ética empresarial de Carnegie Mellon, planteó dudas sobre si futuros usos de esta tecnología respetarán verdaderamente los deseos de cada víctima.
A pesar de las críticas, la hermana de Pelkey defendió su iniciativa como un acto guiado por valores morales, no por espectáculo. Recordó haber grabado un video propio, anticipando la posibilidad de que su familia algún día necesitara su voz. Para ella, la experiencia representó una forma de sanar, y también un modo de preservar la memoria de su hermano para las futuras generaciones de su familia, como su hijo adolescente, que nunca había escuchado a su tío despedirse.
Los representantes de la fiscalía no se opusieron al uso del material, y la jueza de derechos de las víctimas que acompañó a la familia declaró que, al ver el video, sintió que debía ser mostrado en el tribunal. Aunque se trató de un caso inusual, algunos especialistas consideran que el uso de IA para representar a una víctima en su propia voz —cuando se realiza con respeto— podría tener menos objeciones que otros usos más manipulativos de la tecnología.