Los países del G7 han acordado hoy un código de conducta para las empresas e instituciones que desarrollen sistemas de inteligencia artificial (IA), dirigido a mitigar riesgos derivados de esta tecnología como la desinformación y la vulneración de la privacidad o la propiedad intelectual.

Los líderes del Grupo de los Siete (Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido) han respaldado este lunes el conjunto de orientaciones para el sector de la inteligencia artificial bautizado como el "Proceso de IA de Hiroshima", según informó la presidencia nipona de turno. Las empresas deberían publicar informes públicos sobre las capacidades, limitaciones y el uso y mal uso de los sistemas de IA, y también invertir en controles de seguridad sólidos.

Esta hoja de ruta aspira a promover el desarrollo de sistemas de IA "seguros y fiables" a nivel internacional y a "gestionar sus riesgos", según la declaración conjunta, que también llama a todos los actores del sector de la IA a comprometerse a su cumplimiento.

Regular la IA, preocupación internacional

Con este acuerdo, que no es más que un conjunto de recomendaciones, pone de manifiesto cómo el debate y la preocupación por la regulación de la Inteligencia Artificial se ha generalizado a todas las esferas de la escala internacional. La Unión Europea ha liderado es la iniciativa regulatoria con el desarrollo de una ley comunitaria, previsto para entrar en vigor en 2026 y que prohibirá prácticas como el reconocimiento facial o de emociones.

La vicepresidenta de la Comisión Europea y comisaria de Valores y Transparencia, Vera Jourova, que ya valoró el código de conducta como "una base sólida para garantizar la seguridad" hasta que se implement regulación, ha celebrado en X, ex Twitter, la adopción de este acuerdo: "Orgullosa del papel de la UE en el establecimiento de barreras de seguridad y gobernanza a nivel global para promover la #IA confiable", ha dicho.

Estados Unidos se suma la regulación de la IA

También Estados Unidos ha anunciado la adopción de un marco regulatorio para la IA, coincidiendo con el acuerdo del código de conducta. El presidente Joe Biden tiene previsto aprobar este lunes una orden ejecutiva, un decreto con rango de ley para permitir mayores controles de seguridad sobre los sistemas de inteligencia artificial y mitigar los riesgos de esta tecnología. La orden ejecutiva incorpora cláusulas para proteger la privacidad, mejorar los derechos civiles, proteger los consumidores, apoyar a los trabajadores y promover la innovación, entre otras.

Según la información facilitada por la Casa Blanca, se trata del "conjunto de acciones más fuertes puesto en marcha por un gobierno en todo el mundo".

Los expertos en la materia han advertido ya de la importancia de establecer un marco regulatorio ante el potencial que tiene esta tecnología. El propio responsable de ChatGPT, Sam Altman, solicitó al Congreso de los Estados Unidos que regulara el desarrollo de la inteligencia artificial. En la misma línea se expresaron otros conocedores de la materia, así como responsables políticos, en las jornadas Metafuturo organizadas por Atresmedia, en las que se puso de manifiesto la velocidad a la que evoluciona la IA, sus riesgos y oportunidades.

La primera gran tecnológica en responder a esta medida ha sido la estadounidense Google (propiedad de Alphabet), quien ha apoyado el código de conducta, asegurando que confía en poder "trabajar conjuntamente con gobiernos, industria y sociedad civil" para una inteligencia artificial (IA) responsable.