{"id":175045,"date":"2022-09-18T01:16:22","date_gmt":"2022-09-18T01:16:22","guid":{"rendered":"https:\/\/magazineoffice.com\/este-robot-cruzo-una-linea-que-no-deberia-haber-cruzado-porque-los-humanos-le-dijeron-que-lo-hiciera-techcrunch\/"},"modified":"2022-09-18T01:16:24","modified_gmt":"2022-09-18T01:16:24","slug":"este-robot-cruzo-una-linea-que-no-deberia-haber-cruzado-porque-los-humanos-le-dijeron-que-lo-hiciera-techcrunch","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/este-robot-cruzo-una-linea-que-no-deberia-haber-cruzado-porque-los-humanos-le-dijeron-que-lo-hiciera-techcrunch\/","title":{"rendered":"Este robot cruz\u00f3 una l\u00ednea que no deber\u00eda haber cruzado porque los humanos le dijeron que lo hiciera – TechCrunch"},"content":{"rendered":"


\n<\/p>\n

\n

El video de un robot de entrega en la acera cruzando la cinta amarilla de precauci\u00f3n y rodando por la escena del crimen en Los \u00c1ngeles se volvi\u00f3 viral esta semana, acumulando m\u00e1s de 650,000 visitas en Twitter y generando un debate sobre si la tecnolog\u00eda est\u00e1 lista para el horario de m\u00e1xima audiencia.<\/p>\n

Resulta que el error del robot, al menos en este caso, fue causado por humanos.<\/p>\n

los video<\/a> del evento fue tomada y publicada en Twitter por William Gude, el due\u00f1o de Filmar a la polic\u00eda LA<\/a>, una cuenta de vigilancia de la polic\u00eda con sede en Los \u00c1ngeles. Gude estaba en el \u00e1rea de un presunto tiroteo escolar en Hollywood High School alrededor de las 10 a. m. cuando captur\u00f3 en video al bot mientras flotaba en la esquina de la calle, luciendo confundido, hasta que alguien levant\u00f3 la cinta, lo que permiti\u00f3 que el bot siguiera su camino. a trav\u00e9s de la escena del crimen.<\/p>\n

El spin-out de Uber, Serve Robotics, le dijo a TechCrunch que el sistema de conducci\u00f3n aut\u00f3noma del robot no decidi\u00f3 cruzar a la escena del crimen. Fue la elecci\u00f3n de un operador humano que operaba el bot de forma remota.<\/p>\n

Los robots de entrega de la compa\u00f1\u00eda tienen la llamada autonom\u00eda de Nivel 4, lo que significa que pueden conducirse solos bajo ciertas condiciones sin necesidad de que un ser humano los reemplace. Serve ha estado probando sus robots con Uber Eats en el \u00e1rea desde mayo.<\/p>\n

Serve Robotics tiene una pol\u00edtica que requiere que un operador humano supervise y ayude de forma remota a su bot en cada intersecci\u00f3n. El operador humano tambi\u00e9n tomar\u00e1 el control de forma remota si el bot encuentra un obst\u00e1culo, como una zona de construcci\u00f3n o un \u00e1rbol ca\u00eddo, y no puede descifrar c\u00f3mo sortearlo en 30 segundos.<\/p>\n

En este caso, el bot, que acababa de terminar una entrega, se acerc\u00f3 a la intersecci\u00f3n y un operador humano se hizo cargo, seg\u00fan la pol\u00edtica operativa interna de la empresa. Inicialmente, el operador humano se detuvo en la cinta amarilla de precauci\u00f3n. Pero cuando los transe\u00fantes levantaron la cinta y aparentemente \u00abla agitaron\u00bb, el operador humano decidi\u00f3 continuar, dijo a TechCrunch el CEO de Serve Robotics, Ali Kashani.<\/p>\n

\u201cEl robot nunca habr\u00eda cruzado (por s\u00ed solo)\u201d, dijo Kashani. \u00abSimplemente hay muchos sistemas para garantizar que nunca se cruce hasta que un humano d\u00e9 el visto bueno\u00bb.<\/p>\n

El error de juicio aqu\u00ed es que alguien decidi\u00f3 seguir cruzando, agreg\u00f3.<\/p>\n

Independientemente de la raz\u00f3n, Kashani dijo que no deber\u00eda haber sucedido. Serve ha extra\u00eddo datos del incidente y est\u00e1 trabajando en un nuevo conjunto de protocolos para humanos y la IA para evitar esto en el futuro, agreg\u00f3.<\/p>\n

Unos pocos pasos obvios ser\u00e1n asegurarse de que los empleados sigan el procedimiento operativo est\u00e1ndar (o SOP), que incluye la capacitaci\u00f3n adecuada y el desarrollo de nuevas reglas sobre qu\u00e9 hacer si una persona intenta mover el robot a trav\u00e9s de una barricada.<\/p>\n

Pero Kashani dijo que tambi\u00e9n hay formas de usar el software para ayudar a evitar que esto vuelva a suceder.<\/p>\n

El software se puede usar para ayudar a las personas a tomar mejores decisiones o para evitar un \u00e1rea por completo, dijo. Por ejemplo, la empresa puede trabajar con la polic\u00eda local para enviar informaci\u00f3n actualizada a un robot sobre incidentes policiales para que pueda recorrer esas \u00e1reas. Otra opci\u00f3n es darle al software la capacidad de identificar a las fuerzas del orden y luego alertar a los humanos que toman las decisiones y recordarles las leyes locales.<\/p>\n

Estas lecciones ser\u00e1n fundamentales a medida que los robots progresen y ampl\u00eden sus dominios operativos.<\/p>\n

\u201cLo gracioso es que el robot hizo lo correcto; se detuvo\u201d, dijo Kashani. \u201cEntonces, esto realmente se remonta a darles a las personas suficiente contexto para tomar buenas decisiones hasta que estemos lo suficientemente seguros de que no necesitamos personas para tomar esas decisiones\u201d.<\/p>\n

Los bots de Serve Robotics a\u00fan no han llegado a ese punto. Sin embargo, Kashani le dijo a TechCrunch que los robots se est\u00e1n volviendo m\u00e1s independientes y, por lo general, funcionan solos, con dos excepciones: intersecciones y bloqueos de alg\u00fan tipo.<\/p>\n

El escenario que se desarroll\u00f3 esta semana es contrario a la cantidad de personas que ven la IA, dijo Kashani.<\/p>\n

\u201cCreo que la narrativa en general es b\u00e1sicamente que las personas son realmente buenas en los casos extremos y luego la IA comete errores, o tal vez no est\u00e1 lista para el mundo real\u201d, dijo Kashani. \u201cCuriosamente, estamos aprendiendo todo lo contrario, es decir, descubrimos que las personas cometen muchos errores y necesitamos confiar m\u00e1s en la IA\u201d.<\/p>\n<\/p><\/div>\n