{"id":556296,"date":"2023-04-05T07:57:42","date_gmt":"2023-04-05T07:57:42","guid":{"rendered":"https:\/\/magazineoffice.com\/este-estudiante-esta-tomando-un-software-de-examen-parcial\/"},"modified":"2023-04-05T07:57:46","modified_gmt":"2023-04-05T07:57:46","slug":"este-estudiante-esta-tomando-un-software-de-examen-parcial","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/este-estudiante-esta-tomando-un-software-de-examen-parcial\/","title":{"rendered":"Este estudiante est\u00e1 tomando un software de examen ‘parcial’"},"content":{"rendered":"


\n<\/p>\n

\n

El caso legal de Porcornie a\u00fan est\u00e1 en curso. En diciembre, el Instituto Holand\u00e9s de Derechos Humanos emiti\u00f3 un fallo provisional en el que afirmaba que ten\u00eda fuertes sospechas de que el software utilizado por VU Amsterdam era discriminatorio y otorgaba a la universidad 10 semanas para presentar su defensa. Esa defensa a\u00fan no se ha hecho p\u00fablica, pero VU Amsterdam ha argumentado anteriormente que los datos de registro de Pocornie, que muestran cu\u00e1nto tiempo tard\u00f3 en iniciar sesi\u00f3n en su examen y cu\u00e1ntas veces tuvo que reiniciar el software, implican que sus problemas se debieron a un Internet inestable. conexi\u00f3n, a diferencia de los problemas con la tecnolog\u00eda de detecci\u00f3n de rostros. Se espera un fallo a finales de este a\u00f1o. <\/p>\n

Los productores de software anti-trampas como Proctorio se vieron impulsados \u200b\u200bpor la pandemia, ya que las salas de examen fueron reemplazadas por los propios hogares de los estudiantes. El monitoreo digital estaba destinado a ayudar a las escuelas y universidades a mantener los negocios como de costumbre durante el cierre, sin crear una oportunidad para que los estudiantes sin supervisi\u00f3n hagan trampa. Pero la pandemia termin\u00f3 y el software todav\u00eda se usa, incluso cuando los estudiantes de todo el mundo vuelven a la ense\u00f1anza presencial. \u201cNo creemos que vaya a desaparecer\u201d, dijo Jason Kelly, quien se enfoca en la vigilancia de los estudiantes en Electronic Frontier Foundation, con sede en EE. UU., en una revisi\u00f3n de 2022 del estado de la privacidad de los estudiantes en diciembre.<\/p>\n

En los EE. UU., Amaya Ross dice que su universidad en Ohio todav\u00eda usa software anti-trampas. Pero cada vez que inicia sesi\u00f3n, siente ansiedad de que su experiencia durante la pandemia se repita. Ross, que es negra, tambi\u00e9n dice que no pudo acceder a su prueba cuando encontr\u00f3 el software por primera vez en 2021. \u00abSegu\u00eda diciendo: no podemos reconocer tu rostro\u00bb, dice Ross, que ten\u00eda 20 a\u00f1os en ese momento. Despu\u00e9s de recibir ese mensaje tres o cuatro veces, comenz\u00f3 a jugar con las l\u00e1mparas cercanas y las persianas de las ventanas. Incluso intent\u00f3 hacer una prueba de pie, directamente debajo de la luz del techo. <\/p>\n

Eventualmente, descubri\u00f3 que si balanceaba una linterna LED en un estante cerca de su escritorio y la dirig\u00eda directamente a su cara, pod\u00eda tomar su examen de ciencias, aunque la luz era casi cegadora. Ella compara la experiencia con conducir de noche con un autom\u00f3vil que se acerca desde la otra direcci\u00f3n con las luces delanteras encendidas. \u201cSolo ten\u00edas que seguir adelante hasta que estuviera hecho\u201d, dice ella. <\/p>\n

Ross se niega a nombrar a la empresa que fabric\u00f3 el software que todav\u00eda utiliza (Proctorio ha demandado al menos a uno de sus cr\u00edticos). Pero despu\u00e9s de su madre, Janice Wyatt-Ross, al corriente<\/a> sobre lo que sucedi\u00f3 en Twitter, Ross dice que un representante de la empresa se acerc\u00f3 y le aconsej\u00f3 que dejara de tomar pruebas frente a paredes blancas. Ahora hace pruebas con un tapiz multicolor detr\u00e1s de ella, que hasta ahora parece funcionar. Cuando Ross pregunt\u00f3 a algunos de sus amigos negros o de piel m\u00e1s oscura sobre el software, muchos de ellos hab\u00edan experimentado problemas similares. \u201cPero luego les pregunt\u00e9 a mis amigos blancos y dijeron: ‘Estoy tomando ex\u00e1menes en la oscuridad’\u201d, dice ella. <\/p>\n

Por lo general, la tecnolog\u00eda de reconocimiento y detecci\u00f3n de rostros no reconoce a las personas con piel m\u00e1s oscura cuando las empresas usan modelos que no fueron entrenados en diversos conjuntos de datos, dice Deborah Raji, miembro de la Fundaci\u00f3n Mozilla. En 2019, Raji copublic\u00f3 una auditor\u00eda de productos de reconocimiento facial implementados comercialmente, que encontr\u00f3 que algunos de ellos eran hasta un 30 por ciento peores para reconocer a las mujeres de piel m\u00e1s oscura que a los hombres blancos. \u201cMuchos de los conjuntos de datos que estaban en uso generalizado en el espacio de reconocimiento facial antes [2019] conten\u00edan m\u00e1s del 90 % de sujetos de piel m\u00e1s clara, m\u00e1s del 70 % de sujetos masculinos\u201d, dice, y agrega que se han logrado avances desde entonces, pero que este no es un problema que haya sido \u201cresuelto\u201d. <\/p>\n<\/div>\n