Las normas propuestas por la UE podrían limitar el tipo de investigación que produce herramientas de inteligencia artificial de vanguardia como GPT-3, advierten los expertos en un nuevo estudio.
El grupo de expertos no partidista Brookings esta semana publicado una pieza que denuncia la regulación del bloque de la IA de código abierto, argumentando que crearía una responsabilidad legal para los sistemas de IA de uso general y, al mismo tiempo, socavaría su desarrollo. Según el borrador de la Ley de IA de la UE, los desarrolladores de código abierto tendrían que cumplir con las pautas para la gestión de riesgos, el gobierno de datos, la documentación técnica y la transparencia, así como con los estándares de precisión y ciberseguridad.
Si una empresa implementara un sistema de IA de código abierto que condujera a un resultado desastroso, afirma el autor, no es inconcebible que la empresa intente desviar la responsabilidad demandando a los desarrolladores de código abierto sobre los que construyeron su producto.
“Esto podría concentrar aún más el poder sobre el futuro de la IA en las grandes empresas de tecnología y evitar la investigación que es fundamental para la comprensión pública de la IA”, escribió Alex Engler, el analista de Brookings que publicó el artículo. “Al final, el [E.U.’s] el intento de regular el código abierto podría crear un conjunto intrincado de requisitos que pone en peligro a los contribuyentes de IA de código abierto, probablemente sin mejorar el uso de la IA de propósito general”.
En 2021, la Comisión Europea, el brazo ejecutivo políticamente independiente de la UE, publicó el texto de la Ley de IA, cuyo objetivo es promover el despliegue de una “IA confiable” en la UE. Mientras solicitan aportes de la industria antes de una votación este otoño, las instituciones de la UE están buscando hacer enmiendas a las regulaciones que intenten equilibrar la innovación con la rendición de cuentas. Pero según algunos expertos, la Ley de IA, tal como está escrita, impondría requisitos onerosos a los esfuerzos abiertos para desarrollar sistemas de IA.
La legislación contiene excepciones para algunas categorías de IA de código abierto, como las que se utilizan exclusivamente para la investigación y con controles para evitar el uso indebido. Pero como señala Engler, sería difícil, si no imposible, evitar que estos proyectos lleguen a los sistemas comerciales, donde los actores maliciosos podrían abusar de ellos.
En un ejemplo reciente, Stable Diffusion, un sistema de inteligencia artificial de código abierto que genera imágenes a partir de indicaciones de texto, se lanzó con una licencia que prohíbe ciertos tipos de contenido. Pero rápidamente encontró una audiencia dentro de las comunidades que usan tales herramientas de IA para crear deepfakes pornográficos de celebridades.
Oren Etzioni, director ejecutivo fundador del Instituto Allen para la IA, está de acuerdo en que el borrador actual de la Ley de IA es problemático. En una entrevista por correo electrónico con TechCrunch, Etzioni dijo que las cargas introducidas por las reglas podrían tener un efecto paralizador en áreas como el desarrollo de sistemas abiertos de generación de texto, que él cree que están permitiendo a los desarrolladores “ponerse al día” con las grandes empresas tecnológicas como Google. y Meta.
“El camino hacia el infierno regulatorio está pavimentado con las buenas intenciones de la UE”, dijo Etzioni. “Los desarrolladores de código abierto no deberían estar sujetos a la misma carga que los que desarrollan software comercial. Siempre debería darse el caso de que el software gratuito se pueda proporcionar ‘tal cual’: considere el caso de un solo estudiante que desarrolla una capacidad de IA; no pueden permitirse el lujo de cumplir con las regulaciones de la UE y pueden verse obligados a no distribuir su software, lo que tiene un efecto paralizante en el progreso académico y en la reproducibilidad de los resultados científicos”.
En lugar de tratar de regular las tecnologías de IA de manera amplia, los reguladores de la UE deberían centrarse en aplicaciones específicas de IA, argumenta Etzioni. “Hay demasiada incertidumbre y cambios rápidos en la IA para que el lento proceso regulatorio sea efectivo”, dijo. “En cambio, las aplicaciones de IA, como vehículos autónomos, bots o juguetes, deberían ser objeto de regulación”.
No todos los profesionales creen que la Ley de IA necesita más enmiendas. Mike Cook, un investigador de IA que forma parte del Cuchillos y Pinceles colectivo, piensa que está “perfectamente bien” regular la IA de código abierto “un poco más fuerte” de lo necesario. Plantea que establecer cualquier tipo de estándar puede ser una forma de mostrar liderazgo a nivel mundial, con la esperanza de alentar a otros a seguir su ejemplo.
“El alarmismo sobre la ‘innovación asfixiante’ proviene principalmente de personas que quieren eliminar todas las regulaciones y tener rienda suelta, y por lo general no es una visión que le dé mucha importancia”, dijo Cook. “Creo que está bien legislar en nombre de un mundo mejor, en lugar de preocuparse por si su vecino regulará menos que usted y de alguna manera se beneficiará de ello”.
A saber, como señaló anteriormente mi colega Natasha Lomas, el enfoque basado en el riesgo de la UE enumera varios usos prohibidos de la IA (p. ej., puntuación de crédito social estatal al estilo de China) al tiempo que impone restricciones a los sistemas de IA considerados de “alto riesgo”: como los que tienen que ver con la aplicación de la ley. Si las regulaciones tuvieran como objetivo los tipos de productos en lugar de las categorías de productos (como Etzioni argumenta que deberían hacerlo), podría requerir miles de regulaciones, una para cada tipo de producto, lo que generaría un conflicto y una incertidumbre regulatoria aún mayor.
Un análisis escrito por Lilian Edwards, profesora de derecho en la Newcastle School y asesora legal a tiempo parcial en el Instituto Ada Lovelace, cuestiona si los proveedores de sistemas como los modelos de lenguaje grande de código abierto (por ejemplo, GPT-3) podrían ser responsables después de todo bajo el Ley de IA. El lenguaje en la legislación pone la responsabilidad sobre los implementadores posteriores de administrar los usos e impactos de un sistema de IA, dice, no necesariamente el desarrollador inicial.
“[T]La forma en que los implementadores posteriores usan [AI] y adaptarlo puede ser tan importante como la forma en que se construyó originalmente”, escribe. “La Ley de IA se da cuenta de esto, pero no lo suficiente, y por lo tanto no regula adecuadamente a los muchos actores que se involucran de diversas maneras ‘aguas abajo’ en la cadena de suministro de IA”.
En la startup Hugging Face de AI, el CEO Clément Delangue, el abogado Carlos Muños Ferrandis y la experta en políticas Irene Solaiman dicen que dan la bienvenida a las regulaciones para proteger las garantías del consumidor, pero que la Ley AI propuesta es demasiado vaga. Por ejemplo, dicen, no está claro si la legislación se aplicaría a los modelos de aprendizaje automático “preentrenados” en el corazón del software impulsado por IA o solo al software en sí.
“Esta falta de claridad, junto con el incumplimiento de las iniciativas de gobierno comunitario en curso, como las licencias de IA abiertas y responsables, podría obstaculizar la innovación ascendente en la parte superior de la cadena de valor de IA, que es un gran enfoque para nosotros en Hugging Face, Delangue, Ferrandis y Solaiman dijeron en un comunicado conjunto. “Desde la perspectiva de la competencia y la innovación, si ya asigna cargas demasiado pesadas a las funciones lanzadas abiertamente en la parte superior del flujo de innovación de IA, corre el riesgo de obstaculizar la innovación incremental, la diferenciación de productos y la competencia dinámica, siendo esta última fundamental en los mercados de tecnología emergente como la IA. -relacionados… La regulación debe tener en cuenta la dinámica de innovación de los mercados de IA y, por lo tanto, identificar y proteger claramente las fuentes centrales de innovación en estos mercados”.
En cuanto a Hugging Face, la compañía aboga por mejores herramientas de gobierno de IA independientemente del lenguaje final de la Ley de IA, como licencias de IA “responsables” y tarjetas modelo que incluyen información como el uso previsto de un sistema de IA y cómo funciona. Delangue, Ferrandis y Solaiman señalan que las licencias responsables comienzan a convertirse en una práctica común para los principales lanzamientos de IA, como el de Meta. Modelo de lenguaje OPT-175.
“La innovación abierta y la innovación responsable en el ámbito de la IA no son fines mutuamente excluyentes, sino complementarios”, dijeron Delangue, Ferrandis y Solaiman. “La intersección entre ambos debería ser un objetivo central para los esfuerzos regulatorios en curso, como lo está siendo ahora para la comunidad de IA”.
Eso bien puede ser alcanzable. Dadas las muchas partes móviles involucradas en la elaboración de normas de la UE (sin mencionar las partes interesadas afectadas por ella), es probable que pasen años antes de que la regulación de la IA en el bloque comience a tomar forma.
Source link