casa Blanca Ha firmado acuerdos con los principales desarrolladores de IA, incluidos Amazon, Google, Meta, Microsoft y OpenAI, comprometiéndose a tomar medidas para evitar que se lancen al mundo modelos dañinos de IA.
Bajo lo que la Casa Blanca llama un «compromiso voluntario», la compañía promete realizar pruebas internas y permitir pruebas externas de nuevos modelos de IA antes de que se lancen al público. Estas pruebas buscan problemas que incluyen resultados sesgados o discriminatorios, fallas de seguridad cibernética y riesgos de daños sociales generalizados. Las empresas emergentes Anthropic e Inflection, desarrolladores de notables rivales de ChatGPT de OpenAI, también se unieron al trato.
“Las empresas tienen la obligación de probar la seguridad y la funcionalidad de los sistemas de inteligencia artificial para garantizar que sus productos sean seguros antes de presentarlos al público”, dijo el asistente especial de inteligencia artificial de la Casa Blanca, Ben Buchanan, en una sesión informativa ayer. Los riesgos que las empresas deben tener en cuenta incluyen violaciones de la privacidad e incluso posibles contribuciones a las amenazas biológicas. La empresa también se comprometió a informar públicamente sobre las limitaciones del sistema y los riesgos sociales y de seguridad que puede presentar.
El acuerdo también establece que la compañía desarrollará un sistema de marca de agua que permitirá a las personas identificar fácilmente el audio y las imágenes generadas por IA. OpenAI ya agregó una marca de agua a las imágenes creadas con su generador de imágenes Dall-E, y Google dice que está desarrollando una tecnología similar para las imágenes generadas por IA. Ayudar a las personas a discernir qué es real y qué es falso se está convirtiendo en un problema creciente a medida que las campañas políticas parecen estar recurriendo a la IA generativa antes de las elecciones estadounidenses de 2024.
Los avances recientes en los sistemas de IA generativa que pueden generar texto o imágenes han provocado una nueva carrera armamentista de IA entre las empresas que aplican la tecnología a tareas como búsquedas web y redacción de cartas de recomendación. Pero los nuevos algoritmos han planteado nuevas preocupaciones acerca de que la IA refuerce los sistemas sociales opresivos, como el sexismo y el racismo, alimente la desinformación electoral o se convierta en una herramienta para el delito cibernético. Como resultado, los reguladores y legisladores en muchas partes del mundo, incluido Washington, DC, han aumentado la demanda de nuevas regulaciones, incluidos los requisitos para evaluar la IA antes de su implementación.
No está claro cuánto cambiará este acuerdo la forma en que operan las principales empresas de inteligencia artificial. Ya, con la creciente conciencia de las posibles desventajas de la tecnología, se ha vuelto común que las empresas de tecnología contraten personas para el trabajo de prueba y políticas de IA. Google tiene un equipo que prueba el sistema y publica información sobre modelos de IA específicos, como casos de uso previstos y consideraciones éticas. Meta y OpenAI a veces invitan a expertos externos para intentar romper el modelo en un enfoque llamado red-teaming.
«Los compromisos voluntarios, guiados por los principios duraderos de seguridad y confianza, abordan los riesgos que plantean los modelos avanzados de IA e impulsan la adopción de ciertas prácticas, como las pruebas de equipo rojo y la publicación de informes de transparencia, que harán avanzar todo el ecosistema», dijo el presidente de Microsoft, Brad Smith, en una publicación de blog.
Los riesgos sociales potenciales que las empresas deben tener en cuenta en este acuerdo no incluyen la huella de carbono de la capacitación del modelo de IA, una preocupación comúnmente citada en la investigación sobre el impacto de los sistemas de IA actuales. La creación de un sistema como ChatGPT puede requerir miles de procesadores de computadora de alta potencia para funcionar durante mucho tiempo.