Microsoft ha lanzado un nuevo modelo de inteligencia artificial generativa basado en GPT-4, diseñado específicamente para agencias de inteligencia estadounidenses. Este modelo opera de manera desconectada de Internet para permitir a las agencias analizar información ultrasecreta sin riesgos de conectividad.
Según un informe de Bloomberg, esta es la primera vez que Microsoft implementa un modelo de lenguaje importante en un entorno seguro, con el objetivo de permitir conversaciones seguras con un chatbot similar a ChatGPT y Microsoft Copilot. Sin embargo, también podría inducir a error a los funcionarios si no se utiliza correctamente debido a las limitaciones inherentes de diseño de los modelos de lenguaje de IA.
Implementación y seguridad en las agencias
El modelo GPT-4, diseñado para procesar cargas de trabajo clasificadas, fue activado el jueves y ya está disponible para unos 10.000 individuos en la comunidad de inteligencia, listo para más pruebas por las agencias pertinentes. William Chappell, director de tecnología de misiones estratégicas y tecnología de Microsoft, mencionó a Bloomberg que el desarrollo del nuevo sistema implicó 18 meses de trabajo para modificar una supercomputadora de IA en Iowa. El modelo modificado GPT-4 está diseñado para leer archivos proporcionados por sus usuarios, pero no puede acceder a Internet abierta.
Uno de los principales problemas al usar GPT-4 para analizar datos importantes es que potencialmente puede confabular (inventar) resúmenes inexactos, sacar conclusiones incorrectas o proporcionar información errónea a sus usuarios. Dado que las redes neuronales entrenadas de IA no son bases de datos y operan sobre probabilidades estadísticas, no son recursos fácticos confiables, a menos que se complementen con acceso externo a información de otra fuente mediante una técnica como la generación aumentada por recuperación (RAG).
Una IA con propósitos secretos
Este lanzamiento de un modelo de IA para cargas de trabajo ultrasecretas llega en un momento crítico para la reputación de ciberseguridad de Microsoft. El Departamento de Seguridad Nacional recientemente emitió una crítica severa de las prácticas de seguridad de Microsoft, culpando al proveedor de la nube por exponer los correos electrónicos de funcionarios gubernamentales de alto rango.
Esto llevó al CEO Satya Nadella a decir recientemente a los empleados que la seguridad es ahora la «prioridad principal» de Microsoft. Al mismo tiempo, Microsoft no ha sido tímido en desarrollar herramientas de IA para agencias gubernamentales. Un informe de abril de The Intercept reveló que la versión de DALL-E de Microsoft Azure fue presentada como una herramienta de campo de batalla para el Departamento de Defensa de Estados Unidos. Microsoft ha trabajado durante mucho tiempo con militares y agencias gubernamentales, aunque la introducción de la IA es relativamente nueva.