Estados Unidos anunció este viernes que siete grandes empresas tecnológicas aceptaron voluntariamente una serie de compromisos en el desarrollo de la inteligencia artificial (IA) para que sea más "segura y transparente".

Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, empresas estadounidenses que están a la vanguardia de esta tecnología, se comprometieron a trabajar en particular en sistemas de marcado de contenidos creados con IA con el fin de reducir los riesgos de fraude y desinformación.

Las compañías prometieron probar sus programas informáticos interna y externamente antes de su lanzamiento, invertir en ciberseguridad y compartir las informaciones pertinentes sobre sus herramientas con autoridades e investigadores, incluidas posibles fallas.

También deberán "desarrollar técnicas sólidas para asegurar que los usuarios sepan cuándo los contenidos fueron generados por IA, como un sistema de marca de agua", indicó un comunicado del gobierno estadounidense. "Esto permitirá que la creatividad ligada a la IA prospere mientras se reducen los peligros relacionados con fraudes o engaños", precisaron.

Temor por las olas de fakenews


 

Las fotografías falsas y los videos manipulados de forma realista, también llamados deepfakes, existen desde hace años, pero producir este tipo de contenido se volvió mucho más fácil con el surgimiento de herramientas de inteligencia artificial generativa. Y eso aumentó la preocupación por la desinformación.

Hasta ahora, las principales empresas involucradas se mostraron reticentes a la idea de agregar marcas de agua sobre los contenidos creados con sus programas. "Es un tema complicado", admitió a periodistas un alto funcionario de la Casa Blanca. 

La marca de agua "debe funcionar tanto para los contenidos visuales como sonoros", detalló, según citó la agencia AFP. Y precisó: "Técnicamente, debe ser robusta, pero también fácil de ver para los usuarios".

Acuerdos internacionales


 

En mayo, la Casa Blanca insistió sobre el "deber moral" de las empresas de IA de garantizar la seguridad de sus productos. Sin embargo, las tensiones políticas en el Congreso hacen poco probable legislar sobre IA en lo inmediato, aunque el gobierno adelantó que trabaja en un decreto ejecutivo.

Además, Estados Unidos está discutiendo con sus aliados la posibilidad de extender estos "compromisos voluntarios" de las tecnológicas hacia un marco legal internacional, ya apuntados en la pasada reunión del G7 en Hiroshima, Japón, a finales de mayo.

Los líderes del G7 acabaron encomendando a sus ministros el establecimiento del llamado Proceso de Hiroshima sobre IA, consistente en la creación de un grupo conjunto de trabajo entre ese foro, la Organización para la Cooperación y el Desarrollo en Europa (OCDE) y la Alianza Global sobre Inteligencia Artificial (GPAI, por sus siglas en inglés).

Este grupo de trabajo discutirá, en torno a finales de este año, cuestiones referentes a la aplicación de esta tecnología, como "la gobernanza, la salvaguardia de los derechos de propiedad intelectual, incluidos los derechos de autor, la promoción de la transparencia, la respuesta a manipulación de la información, incluida la desinformación, y la utilización responsable de esta tecnología".