La iniciativa aún no ha sido aprobada por el Pentágono pero representa un hito para los usos que pueden tener los modelos de inteligencia artificial generativa.
Más allá de sus innovaciones públicas enfocadas en los servicios comerciales para usuarios tradicionales, las grandes compañías tecnológica también apuestan con todo al lucrativo mercado de las Fuerzas Armadas, ya sea para albergar servicios en la nube o para crear nuevas plataformas que tengan usos militares.
Tomen el caso de Microsoft, que ahora creó un inteligencia artificial generativa, como ChatGPT, para los servicios de inteligencia de Estados Unidos. La iniciativa, que está basada en el modelo de lenguaje GPT-4 creado por la compañía OpenAI, busca el análisis y procesamiento de información confidencial.
De acuerdo a Bloomberg, la iniciativa de Microsoft busca generar el primer modelo de lenguaje de gran tamaño (LLM) que funcione fuera de la Internet abierta. En esa línea, el gigante tecnológico utiliza un súpercomputador que está aislado y opera el ChatGPT secreto, trabajando sobre una red accesible solo por el gobierno de Estados Unidos.
Para evitar riesgos, o que la propia información confidencial termine siendo filtrada, el modelo solo puede leer archivos, pero no puede tener aprendizaje de ello. “Ya está desplegado y en funcionamiento, y está respondiendo preguntas. Puede escribir código, como un ejemplo del tipo de cosas que es capaz de hacer”, explicó William Chappell, jefe del área de Misiones Estratégicas y Tecnología de Microsoft.
El foco del modelo de IA para los servicios de Defensa de Estados Unidos
Sin entregar detalles adicionales, a raíz de la confidencialidad que requiere el trabajo de las agencias de inteligencia, por ahora lo único claro es que la inteligencia artificial no ha sido aprobada por el Pentágono y, al mismo tiempo, no se espera que opere datos altamente sensibles tras recibir la aprobación.
De ahí que su función inicial solo apuntaría a la clasificación de información o agilizar procesos burocráticos. De hecho, el uso de la inteligencia artificial apunta a “asegurarse de tener la información correcta en el momento adecuado”.
Consideren que toda esta situación se da en un escenario en el que recientemente se reveló que Microsoft violó principios de OpenAI, con quienes tiene una alianza, al ofrecer los modelos al Departamento de Defensa de Estados Unidos.