Hablemos de robots asesinos

Hablemos de robots asesinos

¿Está buscando una conversación en la mesa de la cena de Acción de Gracias que no sea sobre política o deportes profesionales? Bien, hablemos de robots asesinos. Es un concepto que saltó hace mucho tiempo de las páginas de ciencia ficción a la realidad, dependiendo de qué tan flexible sea la definición que use para “robot”. Drones militares abandonados Primera ley de la robótica de Asimov — “Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño” — hace décadas.

El tema ha estado hirviendo nuevamente últimamente debido a la creciente perspectiva de robots asesinos en la aplicación de la ley nacional. Uno de los fabricantes de robots más conocidos de la era, Boston Dynamics, levantó algunas banderas rojas de política pública cuando mostró imágenes de su robot Spot desplegado como parte de los ejercicios de entrenamiento de la Policía Estatal de Massachusetts en nuestro escenario en 2019.

Los robots no estaban armados y, en cambio, formaban parte de un ejercicio diseñado para determinar cómo podrían ayudar a mantener a los oficiales fuera de peligro durante una situación terrorista o de rehenes. Pero la perspectiva de implementar robots en escenarios donde la vida de las personas está en riesgo inmediato fue suficiente para provocar una consulta de la ACLU, que le dijo a TechCrunch:

Necesitamos urgentemente más transparencia por parte de las agencias gubernamentales, que deberían ser sinceras con el público sobre sus planes para probar e implementar nuevas tecnologías. También necesitamos regulaciones estatales para proteger las libertades civiles, los derechos civiles y la justicia racial en la era de la inteligencia artificial.

El año pasado, mientras tanto, el La policía de Nueva York interrumpió un trato con Boston Dynamics luego de una fuerte reacción pública, después de que surgieron imágenes de Spot desplegadas en respuesta a una invasión de una casa en el Bronx.

Por su parte, Boston Dynamics ha sido muy elocuente en su oposición a la militarización de sus robots. El mes pasado, firmó una carta abierta, junto con otras firmas líderes Agility, ANYbotics, Clearpath Robotics y Open Robotics, condenando la acción. Nota:

Creemos que agregar armas a los robots que se operan de forma remota o autónoma, ampliamente disponibles para el público y capaces de navegar a lugares previamente inaccesibles donde las personas viven y trabajan, plantea nuevos riesgos de daños y graves problemas éticos. Las aplicaciones armadas de estos robots recién capacitados también dañarán la confianza pública en la tecnología de manera que dañarán los tremendos beneficios que traerán a la sociedad.

Se creía que la carta era, en parte, una respuesta al trabajo de Ghost Robotics con el ejército estadounidense. Cuando las imágenes de uno de sus propios perros robóticos se mostraron en Twitter luciendo un rifle autónomo, la firma de Filadelfia le dijo a TechCrunch que adoptó una postura agnóstica con respecto a cómo sus socios militares emplean los sistemas:

No hacemos las cargas útiles. ¿Vamos a promocionar y publicitar alguno de estos sistemas de armas? Probablemente no. Esa es una pregunta difícil de responder. Porque estamos vendiendo a los militares, no sabemos qué hacen con ellos. No vamos a dictarles a nuestros clientes gubernamentales cómo usan los robots.

Trazamos la línea sobre dónde se venden. Solo vendemos a EE. UU. y gobiernos aliados. Ni siquiera vendemos nuestros robots a clientes empresariales en mercados adversarios. Recibimos muchas consultas sobre nuestros robots en Rusia y China. No realizamos envíos allí, ni siquiera para nuestros clientes empresariales.

Boston Dynamics y Ghost Robotics están actualmente envueltos en una demanda que involucra varias patentes.

Esta semana, el sitio de informes de la policía local misión local Surgió una renovada preocupación por los robots asesinos, esta vez en San Francisco. El sitio señala que una propuesta de política que será revisada por la Junta de Supervisores de la ciudad la próxima semana incluye lenguaje sobre robots asesinos. los “Política de equipos para el cumplimiento de la ley” comienza con un inventario de robots actualmente en posesión del Departamento de Policía de San Francisco.

Hay 17 en total, 12 de los cuales están funcionando. Están diseñados en gran medida para la detección y eliminación de bombas, lo que quiere decir que ninguno está diseñado específicamente para matar.

“Los robots enumerados en esta sección no se utilizarán fuera de la capacitación y las simulaciones, las detenciones de delincuentes, los incidentes críticos, las circunstancias apremiantes, la ejecución de una orden judicial o durante las evaluaciones de dispositivos sospechosos”, señala la política. Luego agrega, de manera más preocupante, “Los robots solo se utilizarán como una opción de fuerza letal cuando el riesgo de pérdida de vidas para miembros del público u oficiales sea inminente y supere cualquier otra opción de fuerza disponible para el SFPD”.

Efectivamente, según el idioma, los robots se pueden usar para matar con el fin de salvar potencialmente la vida de los oficiales o el público. Parece bastante inocuo en ese contexto, tal vez. Como mínimo, parece encajar dentro de la definición legal de fuerza letal “justificada”. Pero surgen nuevas preocupaciones en lo que parecería ser un cambio profundo en la política.

Para empezar, el uso de un robot de desactivación de bombas para matar a un sospechoso no carece de precedentes. En julio de 2016, los oficiales de policía de Dallas hicieron exactamente eso por lo que se creía que era la primera vez en la historia de los Estados Unidos. “No vimos otra opción más que usar nuestro robot bomba y colocar un dispositivo en su extensión para que detone donde estaba el sospechoso”, dijo el jefe de policía David Brown en ese momento.

En segundo lugar, es fácil ver cómo podría usarse un nuevo precedente en una escenario CYA, si un robot se usa intencional o accidentalmente de esta manera. En tercer lugar, y quizás lo más alarmante, uno podría imaginar el lenguaje que se aplica a la adquisición de un futuro sistema robótico que no esté diseñado únicamente para el descubrimiento y eliminación de explosivos.

Mission Local agrega que el presidente del Comité de Reglas de la Junta de Supervisores de SF, Aaron Peskin, intentó insertar una línea más amigable con Asimov: “Los robots no deben usarse como uso de la fuerza contra ninguna persona”. El SFPD aparentemente tachó el cambio de Peskin y lo actualizó a su lenguaje actual.

La renovada conversación sobre los robots asesinos en California se debe, en parte, al Proyecto de Ley 481 de la Asamblea. Promulgada por el gobernador Gavin Newsom en septiembre del año pasado, la ley está diseñada para hacer que la acción policial sea más transparente. Eso incluye un inventario de equipos militares utilizados por las fuerzas del orden.

Los 17 robots incluidos en el documento de San Francisco son parte de una lista más larga que también incluye el Vehículo blindado Lenco BearCatflash-bangs y 15 subametralladoras.

El mes pasado, la policía de Oakland lo dijo no estaría buscando aprobación para robots remotos armados. El departamento dijo en una declaración:

El Departamento de Policía de Oakland (OPD) no agregará vehículos remotos armados al departamento. OPD participó en discusiones de comités ad hoc con la Comisión de Policía de Oakland y miembros de la comunidad para explorar todos los usos posibles para el vehículo. Sin embargo, luego de más discusiones con el Jefe y el Equipo Ejecutivo, el departamento decidió que ya no quería explorar esa opción en particular.

La declaración siguió a la reacción del público.

La pasta de dientes ya está fuera del tubo primero Primera ley de Asimov. Los robots asesinos están aquí. En cuanto a la segunda ley: “Un robot debe obedecer las órdenes que le dan los seres humanos”, todavía está a nuestro alcance en su mayor parte. Depende de la sociedad determinar cómo se comportan sus robots.


Source link