Ícono del sitio La Neta Neta

La administración Trump quiere regular la inteligencia artificial

La administración Trump quiere regular la inteligencia artificial

  • El martes, en medio del Consumer Electronics Show en Las Vegas, la Casa Blanca propuso regulaciones sobre IA que limitarían la extralimitación del gobierno.
  • Según la administración Trump, si Estados Unidos y sus aliados tienen un gran poder regulador sobre la inteligencia artificial, podría sofocar la innovación y permitir que competidores, como China, se pongan al día.
  • La administración postula que si los EE. UU. Tardan en desarrollar tecnologías basadas en inteligencia artificial, hay una mayor posibilidad de que los adversarios en otros países que puedan salir adelante usen la tecnología por mala voluntad y no habrá forma de detenerla.

    Para evitar que Estados Unidos se quede atrás de las naciones competidoras como China, cuando se trata del desarrollo de tecnologías basadas en inteligencia artificial, la administración Trump ha propuesto vagas pautas regulatorias que limitarían el “sobrealcance” gubernamental potencialmente sofocante de la innovación.

    La noticia llega en medio del Consumer Electronics Show (CES) en Las Vegas, la feria anual más grande para la industria de la tecnología. Eso tiene sentido, dado que cada año, CES incluye una gran cantidad de proveedores que demuestran tecnología basada en inteligencia artificial.

    En un blog publicado en el sitio web de la Casa Blanca y compartido como Bloomberg El editor de opinión, Michael Kratsios, director de tecnología de Estados Unidos, escribió que es una “falsa elección” tener que elegir entre valores morales y avanzar en la tecnología emergente de inteligencia artificial.

    “Como parte de la estrategia nacional de IA de la Administración Trump, la Iniciativa Americana de IA, la Casa Blanca propone hoy un primer conjunto de principios regulatorios para gobernar el desarrollo de IA en el sector privado”, escribió. “Guiados por estos principios, los innovadores y los funcionarios gubernamentales se asegurarán de que, a medida que Estados Unidos adopte la IA, también abordemos las desafiantes preguntas técnicas y éticas que la IA puede crear.

    Una vez finalizadas, las pautas serán obligatorias. Eso significa que cuando una agencia federal propone nuevas regulaciones sobre IA, deberán demostrar que la regulación sigue su ejemplo. La nueva guía tiene tres púas: para garantizar la participación pública, limitar la extralimitación regulatoria y promover tecnología confiable.

    ¿Qué dicen las nuevas pautas?

    El Director de Tecnología de la Casa Blanca de los Estados Unidos, Michael Kratsios, habla durante la conferencia anual de tecnología Web Summit en Lisboa.

    Imágenes de SOPAimágenes falsas

    Para satisfacer el primer objetivo de las nuevas pautas de política, la administración Trump está alentando a las agencias federales a brindar oportunidades para que el público comente sobre cualquier reglamentación de IA. En otras palabras, las agencias gubernamentales quieren escuchar no solo de académicos, líderes de la industria, organizaciones sin fines de lucro y grupos de expertos, sino también del público en general.

    No es sorprendente que, dadas las pautas de política de no intervención del gobierno federal para vehículos autónomos propuestas por la Secretaria de Transporte de EE. UU. Elaine Chao en 2018, las pautas son un enfoque regulatorio “ligero”, según Kratsios. Eso significa que la Casa Blanca está ordenando a las agencias federales que eviten las reglas preventivas que podrían obstaculizar la innovación o el crecimiento de la inteligencia artificial.

    “Se requerirá que las agencias realicen evaluaciones de riesgos y análisis de costo-beneficio antes de la acción reguladora para evaluar las posibles compensaciones de regular una tecnología de IA dada”, escribió Kratsios. Agregó que, a medida que la IA continúa evolucionando, también lo hará la necesidad de que las agencias gubernamentales sean flexibles en su elaboración de reglas.

    Quizás el punto más importante, sin embargo, es que la administración quiere promover el desarrollo de lo que Kratsios se refiere como “IA confiable”, lo cual es bastante relevante dados algunos usos éticamente cuestionables para la IA. Estos incluyen el sistema de crédito social de China, las tecnologías de detección de rostros que son pobres para reconocer a cualquier persona que no sea blanca y las colaboraciones entre universidades que se especializan en inteligencia artificial y el ejército de los EE. UU.

    Kratsios dice que los reguladores deben considerar la “equidad, transparencia, seguridad y protección” al elaborar las reglas, y que la evidencia de esas decisiones políticas debe ser verificable y objetiva, basada en evidencia científica.

    Una necesidad de reglas más concretas

    MR.Cole_Photographerimágenes falsas

    Dado que estas son pautas y no políticas reales, el nuevo marco de IA es bastante abierto y no específico. Es un buen comienzo, dice Rayid Ghani, profesor de carrera de aprendizaje automático en el Heinz College de la Universidad Carnegie Mellon. Mecánica Popular, pero es imperativo que eventualmente se establezcan reglas más concretas.

    Hay dos formas posibles de lograrlo, dice Ghani: 1) Actualizar las pautas existentes en áreas problemáticas específicas, tales como contratación, elecciones, servicios humanos y transporte; y 2) crear regulaciones de IA más genéricas que sean obligatorias, no solo pautas.

    “Idealmente, necesitamos una combinación de ellos”, dice Ghani. “Lo que es más importante, necesitamos personas (y capacitación para ellos) que puedan implementar y auditar esas regulaciones en el siguiente nivel. La industria generalmente quiere la libertad de hacer / probar cosas rápidamente y necesitamos alguna regulación donde necesiten ser transparentes y responder un conjunto de preguntas antes de que puedan probar algo que afectará ciertos aspectos de la vida de las personas “.

    En el caso de los automóviles sin conductor, hubo, y sigue existiendo, una clara falta de regulación en el momento en que un SUV sin conductor de Uber golpeó y mató a un peatón en Tempe, Arizona. Las consecuencias han sido inmensas y el tema de varias reuniones y debates de la Junta Nacional de Seguridad del Transporte en Carreteras en otros foros públicos. Aún así, depende principalmente de los estados proponer regulaciones, lo que podría ser un desastre si algún día vemos 50 conjuntos de reglas separadas para los vehículos.

    ¿Sofocante innovación?

    Kratsios se aseguró de mencionar en su artículo de opinión que adversarios extranjeros como China están trabajando en avances en inteligencia artificial a un ritmo vertiginoso. Escribió que Estados Unidos debe proteger las libertades civiles y la mejor manera de contrarrestar los enfoques distópicos a la IA, como los gobiernos y las empresas en otras naciones “desplegando su tecnología de inteligencia artificial al servicio del estado de vigilancia, donde vigilan y encarcelan a disidentes, activistas y minorías. , como el trato de Pekín a los uigures musulmanes “, es para garantizar que Estados Unidos y sus aliados sigan siendo los principales centros mundiales de innovación de IA.

    En otras palabras: cualquier legislación sobre IA no debería obstaculizar la innovación. Pero Ghani dice que hay una clara diferencia entre sofocar la innovación y proteger los derechos civiles. Como sociedad, dice, debemos decidir dónde dibujar esa línea.

    “Necesitamos definir diferentes niveles de regulaciones para diferentes tipos de sistemas, dependiendo de cuán profundamente puedan dañar a la sociedad y conducir a mayores desigualdades”, dice. “Para los sistemas de bajo riesgo, quizás podamos dar más libertad. Para las áreas de alto riesgo, como la justicia penal, la salud pública, el empleo, etc., debemos centrarnos más en el daño potencial”.

    ¿Cómo podría ser la legislación AI?

    Por su parte, Ghani tiene sus propias ideas sobre cuáles deberían ser los próximos pasos para la administración Trump. Él dice Mecánica Popular que le gustaría ver lo siguiente:

    1. Definir el conjunto de cosas que una organización (gobierno o industria) debe publicar públicamente al implementar un sistema de IA. Este conjunto variará según el impacto que este sistema pueda tener en la vida de las personas y debe ser auditado por una agencia o equipo responsable de hacer esa llamada.
    2. Definir qué riesgos deben destacarse y elaborar un plan de mitigación para cada uno de esos riesgos.
    3. Crear una agencia u organismo que pueda ser responsable del cumplimiento. ¿Cómo verificarán las agencias gubernamentales si se cumplen estas regulaciones? ¿Cómo será el proceso de auditoría? ¿Cómo construiremos un equipo que sea capaz de completar estas auditorías?

      En cualquier caso, parece que el primer paso de la administración Trump será reunir los pensamientos de personas como Ghani para ayudar a establecer protocolos más específicos.

      “Al trabajar juntos, daremos forma a las políticas que guían cómo se desarrolla y despliega la IA para que todas las personas y comunidades puedan disfrutar de los beneficios y las oportunidades que ofrece”, dijo Kratsios.


      Source link
      Salir de la versión móvil