Ícono del sitio La Neta Neta

Google, Meta, Amazon y otras grandes empresas en EU aceptan medidas de seguridad sobre inteligencia artificial

Google, Meta, Amazon y otras grandes empresas en EU aceptan medidas de seguridad sobre inteligencia artificial

Siete de las principales compañías de inteligencia artificial en Estados Unidos acordaron tomar precauciones voluntarias para el desarrollo de dicha tecnología, anunció la Casa Blanca este viernes.

Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, que están desarrollando tecnologías de IA, se han comprometido a adoptar “de forma inmediata” medidas para asegurar que “la innovación no se produce a expensas de los derechos y seguridad de los estadounidenses”, señaló la Casa Blanca en un comunicado.

Las empresas se suscribieron a una serie de “compromisos voluntarios” con vistas a un desarrollo “seguro y transparente de la tecnología de la inteligencia artificial”. Entre ellos se encuentra tres principios que deben ser fundamentales” como son “seguridad, protección y confianza”, según el comunicado.

El acuerdo voluntario supone que las siete compañías se comprometen a realizar pruebas internas y externas de sus sistemas de IA antes de hacerlos públicos, así como compartir información con otras empresas, Gobiernos, sociedad civil y el mundo académico sobre la gestión de los riesgos que supone la IA.

Además, las tecnológicas estadounidenses desarrollarán los sistemas de IA con la seguridad como prioridad y ofrecerán garantías al público con el etiquetado de los contenidos generados con IA, la investigación sobre los riesgos que supone para la sociedad y el desarrollo de sistemas que “ayuden a responder a los mayores desafíos” de la humanidad.

La Administración del presidente Joe Biden también dijo que está trabajando para que los compromisos voluntarios de las compañías estadounidenses se traduzcan en un “sólido marco internacional que gobierne el desarrollo y uso de la IA” y añadió que ya ha mantenido consultas con países como Brasil, Canadá, Corea del Sur, Francia, Alemania, India, Israel, Japón, México y el Reino Unido.

Desde que OpenAI lanzó al público el sistema ChatGPT, científicos, políticos y filósofos, así como organizaciones de defensa de los derechos humanos, han advertido de la amenaza que la IA puede suponer para la humanidad.

El martes, los países miembros del Consejo de Seguridad de la ONU destacaron los peligros de una aplicación militar de la inteligencia artificial.

En este sentido, el secretario general de la ONU, António Guterres, reiteró que el futuro desarrollo de la inteligencia artificial (IA) debe estar “gobernado” por una entidad dependiente de Naciones Unidas.

Estados Unidos está discutiendo actualmente con sus aliados la posibilidad de extender estos “compromisos voluntarios” de las tecnológicas hacia un marco legal internacional, ya apuntados en la pasada reunión de los ministros digitales del G7 en Hiroshima (Japón) a finales de mayo.

Los líderes del G7 acabaron encomendando a sus ministros el establecimiento del llamado Proceso de Hiroshima sobre Inteligencia Artificial, consistente en la creación de un grupo conjunto de trabajo entre el G7, la Organización para la Cooperación y el Desarrollo en Europa (OCDE) y la Alianza Global sobre Inteligencia Artificial (GPAI, por sus siglas en inglés).

Este grupo de trabajo discutirá, en torno a finales de este año, cuestiones referentes a la aplicación de esta tecnología, como “la gobernanza, la salvaguardia de los derechos de propiedad intelectual, incluidos los derechos de autor, la promoción de la transparencia, la respuesta a manipulación de la información, incluida la desinformación, y la utilización responsable de esta tecnología”.

(Con información de EFE y Europa Press)


Source link
Salir de la versión móvil