Ícono del sitio La Neta Neta

Este robot cruzó una línea que no debería haber cruzado porque los humanos le dijeron que lo hiciera

Este robot cruzó una línea que no debería haber cruzado porque los humanos le dijeron que lo hiciera

El video de un robot de entrega en la acera cruzando la cinta amarilla de precaución y rodando por la escena del crimen en Los Ángeles se volvió viral esta semana, acumulando más de 650,000 visitas en Twitter y generando un debate sobre si la tecnología está lista para el horario de máxima audiencia.

Resulta que el error del robot, al menos en el caso, fue causado por humanos.

los video del evento fue tomada y publicada en Twitter por William Gude, el dueño de Filmar a la policía LA, una cuenta de vigilancia de la policía con sede en Los Ángeles. Gude estaba en el área de un presunto tiroteo escolar en Hollywood High School alrededor de las 10 a. m. cuando capturó en video al bot mientras flotaba en la esquina de la calle, luciendo confundido, hasta que alguien levantó la cinta, lo que permitió que el bot siguiera su camino. a través de la escena del crimen.

El spin-out de Uber, Serve Robotics, le dijo a TechCrunch que el sistema de conducción autónoma del robot no decidió cruzar a la escena del crimen. Fue la elección de un operador humano que operaba el bot de forma remota.

Los robots de entrega de la compañía tienen la llamada autonomía de Nivel 4, lo que significa que pueden conducirse solos bajo ciertas condiciones sin necesidad de que un ser humano los reemplace. Serve ha estado probando sus robots con Uber Eats en el área desde mayo.

Serve Robotics tiene una política que requiere que un operador humano supervise y ayude de forma remota a su bot en cada intersección. El operador humano también tomará el control de forma remota si el bot encuentra un obstáculo, como una zona de construcción o un árbol caído, y no puede descifrar cómo sortearlo en 30 segundos.

En este caso, el bot, que acababa de terminar una entrega, se acercó a la intersección y un operador humano se hizo cargo, según la política operativa interna de la empresa. Inicialmente, el operador humano se detuvo en la cinta amarilla de precaución. Pero cuando los transeúntes levantaron la cinta y aparentemente “la agitaron”, el operador humano decidió continuar, dijo a TechCrunch el CEO de Serve Robotics, Ali Kashani.

“El robot nunca habría cruzado (por sí solo)”, dijo Kashani. “Simplemente hay muchos sistemas para garantizar que nunca se cruce hasta que un humano dé el visto bueno”.

El error de juicio aquí es que alguien decidió seguir cruzando, agregó.

Independientemente de la razón, Kashani dijo que no debería haber sucedido. Serve ha extraído datos del incidente y está trabajando en un nuevo conjunto de protocolos para humanos y la IA para evitar esto en el futuro, agregó.

Unos pocos pasos obvios serán asegurarse de que los empleados sigan el procedimiento operativo estándar (o SOP), que incluye la capacitación adecuada y el desarrollo de nuevas reglas sobre qué hacer si una persona intenta mover el robot a través de una barricada.

Pero Kashani dijo que también hay formas de usar el software para ayudar a evitar que esto vuelva a suceder.

El software se puede usar para ayudar a las personas a tomar mejores decisiones o para evitar un área por completo, dijo. Por ejemplo, la empresa puede trabajar con la policía local para enviar información actualizada al robot sobre incidentes policiales para que pueda circular por esas áreas. Otra opción es darle al software la capacidad de identificar a las fuerzas del orden y luego alertar a los humanos que toman las decisiones y recordarles las leyes locales.

Estas lecciones serán fundamentales a medida que los robots progresen y amplíen sus dominios operativos.

“Lo gracioso es que el robot hizo lo correcto; se detuvo”, dijo Kashani. “Entonces, esto realmente se remonta a darles a las personas suficiente contexto para tomar buenas decisiones hasta que estemos lo suficientemente seguros de que no necesitamos personas para tomar esas decisiones”.

Los bots de Serve Robotics aún no han llegado a ese punto. Sin embargo, Kashani le dijo a TechCrunch que los robots se están volviendo más independientes y, por lo general, funcionan solos, con dos excepciones: intersecciones y bloqueos de algún tipo.

El escenario que se desarrolló esta semana es contrario a la cantidad de personas que ven la IA, dijo Kashani.

“Creo que la narrativa en general es básicamente que las personas son realmente buenas en los casos extremos y luego la IA comete errores, o tal vez no está lista para el mundo real”, dijo Kashani. “Curiosamente, estamos aprendiendo todo lo contrario, es decir, descubrimos que las personas cometen muchos errores y necesitamos confiar más en la IA”.




Source link

Salir de la versión móvil