En un importante paso hacia el desarrollo ético de la Inteligencia Artificial (IA), Estados Unidos y el Reino Unido se han unido para establecer directrices conjuntas que garantizarán el desarrollo seguro de esta tecnología disruptiva.
Ambos países reconocen la importancia de encontrar un equilibrio entre la innovación y la responsabilidad, y están comprometidos a establecer normas que protejan los derechos humanos y promuevan el beneficio social.
Este documento fue presentado el 26 de noviembre un documento de 20 páginas que describe cómo las empresas de IA deben manejar la ciberseguridad al desarrollar o utilizar modelos de IA, ya que afirmaron que “la seguridad a menudo puede ser una consideración secundaria” en la industria de ritmo rápido.
El conjunto de normas fue elaborado por el NCSC y la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE.UU. (CISA), en colaboración con expertos del sector de la IA y otras 21 agencias y ministerios internacionales.
Las directrices se dividen en cuatro áreas clave dentro del ciclo de vida de desarrollo de la IA: Diseño Seguro, Desarrollo Seguro, Implementación Segura y Operación y Mantenimiento Seguros.
Así mismo el documento está dirigido principalmente a proveedores de sistemas de IA que utilizan modelos alojados en una organización o utilizan interfaces de programación de aplicaciones (API) externas
“Estamos en un punto de inflexión en el desarrollo de la Inteligencia Artificial, que bien podría ser la tecnología más trascendental de nuestro tiempo”, señaló Alejandro Mayorkas, secretario de Seguridad Nacional de Estados Unidos, en un comunicado. “La ciberseguridad es clave para construir sistemas de IA que sean seguros, sólidos y confiables.”
Estas directrices sentarán las bases para una adopción más ética de la IA, asegurando la protección de los derechos humanos y promoviendo el beneficio social a nivel global.
Con información de Nota de Prensa
Foto cortesía