Es oficial. Los dueños de la gran «G», es decir, «Alphabet» están listos para ocupar su inteligencia artificial (IA) en el desarrollo de armas y sistemas de vigilancia. Esto porque la compañía modificó sus principios éticos sobre la IA y eliminó las restricciones que impedían el uso de esta tecnología para los mencionados y bélicos propósitos.
Y ojo, la actualización suprime compromisos anteriores (que aún se pueden ver gracias a Wayback Machine) que establecían que la empresa no diseñaría ni desplegaría IA con fines de ataque o monitoreo masivo. Un lineamiento que desde 2018 mantenía a Google fuera del desarrollo de IA para armas o sistemas de vigilancia que violaran normas internacionales.
Sin embargo, la nueva versión de sus principios ya no menciona estas limitaciones y en su lugar introduce un enfoque basado en la supervisión humana, el cumplimiento de estándares legales y la evaluación de riesgos.
En una publicación del blog oficial de la compañía, Demis Hassabis, CEO de Google DeepMind, y James Manyika, vicepresidente sénior de investigación y tecnología, justificaron el cambio argumentando que la IA se ha convertido en una tecnología de propósito general. Además, su desarrollo debe estar liderado por democracias que compartan valores como la libertad, la igualdad y los derechos humanos. También señalaron que la colaboración entre empresas y gobiernos es necesaria para garantizar el crecimiento global y la seguridad nacional.
La eliminación de estas restricciones ocurre en un contexto de creciente competencia internacional en inteligencia artificial, en el que otras compañías, como Meta y OpenAI, han permitido ciertos usos militares de sus tecnologías. Además, Google ya ha participado en proyectos con aplicaciones militares, como «Project Maven» en 2018, que utilizaba IA para analizar imágenes de drones, y «Project Nimbus» en 2021, un contrato en la nube con el gobierno de Israel.
Apostar por armas y vigilancia, levantó críticas
Diversas organizaciones han manifestado su preocupación por este cambio de política. Human Rights Watch advirtió que el uso de inteligencia artificial en armas podría dificultar la rendición de cuentas en decisiones de combate y generar riesgos en conflictos armados. Su investigadora Anna Bacciarelli afirmó que la decisión de Google demuestra que los principios voluntarios no son suficientes y que se requieren regulaciones vinculantes para evitar el desarrollo de armamento autónomo.
Los cambios también han reavivado el debate sobre la gobernanza de la inteligencia artificial en el ámbito militar. Parlamentarios británicos han destacado el papel de la IA en el conflicto de Ucrania, señalando que ofrece ventajas estratégicas en el campo de batalla. En paralelo, el Boletín de Científicos Atómicos mencionó en su última evaluación del «Reloj del Juicio Final» la preocupación por la proliferación de sistemas militares impulsados por inteligencia artificial.
Mientras tanto, Alphabet, anunció que invertirá 75.000 millones de dólares en infraestructura y desarrollo de inteligencia artificial durante el próximo año. Su informe financiero más reciente mostró ingresos por 96.500 millones de dólares, por debajo de las expectativas del mercado, lo que provocó una caída del 8% en el valor de sus acciones.