{"id":512959,"date":"2023-03-13T18:33:36","date_gmt":"2023-03-13T18:33:36","guid":{"rendered":"https:\/\/magazineoffice.com\/el-caso-para-regular-el-diseno-de-la-plataforma\/"},"modified":"2023-03-13T18:33:37","modified_gmt":"2023-03-13T18:33:37","slug":"el-caso-para-regular-el-diseno-de-la-plataforma","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/el-caso-para-regular-el-diseno-de-la-plataforma\/","title":{"rendered":"El caso para regular el dise\u00f1o de la plataforma"},"content":{"rendered":"


\n<\/p>\n

\n

En el verano<\/span> de 2017, tres adolescentes de Wisconsin murieron en un accidente automovil\u00edstico a alta velocidad. En el momento de la colisi\u00f3n, los ni\u00f1os estaban registrando su velocidad con el filtro de velocidad de Snapchat: 123 millas por hora. Este no fue el primer incidente de este tipo: el mismo filtro se vincul\u00f3 a varios otros accidentes entre 2015 y 2017.<\/p>\n

Los padres de los adolescentes de Wisconsin demandaron a Snapchat, alegando que su producto, que otorgaba \u00abtrofeos, rachas y reconocimiento social\u00bb a los usuarios que superaban las 100 millas por hora, fue dise\u00f1ado de manera negligente para alentar la conducci\u00f3n peligrosa a alta velocidad. Un tribunal inferior encontr\u00f3 inicialmente que la Secci\u00f3n 230 de la Ley de Decencia en las Comunicaciones exim\u00eda a Snapchat de responsabilidad, alegando que la aplicaci\u00f3n no era responsable del contenido de terceros creado por personas que usaban su Filtro de velocidad. Pero en 2021, el Noveno Circuito revoc\u00f3 el fallo del tribunal inferior.<\/p>\n

Las plataformas son en gran medida inmunes a ser consideradas responsables de este tipo de contenido debido a la Secci\u00f3n 230. Pero, en este caso importante:Lemmon contra Snap<\/em>\u2013el Noveno Circuito hizo una distinci\u00f3n cr\u00edtica entre el dise\u00f1o de productos da\u00f1inos propios de una plataforma y su alojamiento de contenido da\u00f1ino de terceros. El argumento no era que Snapchat hubiera creado o alojado contenido da\u00f1ino, sino que hab\u00eda dise\u00f1ado negligentemente una funci\u00f3n, el Filtro de velocidad, que incentivaba el comportamiento peligroso. El Noveno Circuito encontr\u00f3 correctamente que el tribunal inferior se equivoc\u00f3 al invocar la Secci\u00f3n 230 como defensa. Era el instrumento legal equivocado. En cambio, el tribunal centr\u00f3 su atenci\u00f3n en el dise\u00f1o negligente del filtro de velocidad de Snapchat, un agravio com\u00fan de responsabilidad del producto. <\/p>\n

Frustrantemente, en los a\u00f1os intermedios, y m\u00e1s recientemente en los argumentos orales de la Corte Suprema de EE. UU. del mes pasado a favor de Gonz\u00e1lez contra Google<\/em>, los tribunales no han logrado comprender o distinguir entre el contenido da\u00f1ino y las opciones de dise\u00f1o perjudiciales. Los jueces que escuchan estos casos y los legisladores que trabajan para controlar los abusos en l\u00ednea y la actividad da\u00f1ina deben tener en cuenta esta distinci\u00f3n y centrarse en el dise\u00f1o negligente de los productos de las plataformas en lugar de distraerse con las amplias afirmaciones de inmunidad de la Secci\u00f3n 230 sobre el contenido da\u00f1ino.<\/p>\n

En el corazon de Gonz\u00e1lez<\/em> es la cuesti\u00f3n de si la Secci\u00f3n 230 protege a YouTube no solo cuando aloja contenido de terceros, sino tambi\u00e9n cuando hace recomendaciones espec\u00edficas sobre lo que los usuarios deben mirar. El abogado de Gonz\u00e1lez argument\u00f3 que YouTube no deber\u00eda recibir la inmunidad de la Secci\u00f3n 230 por recomendar videos, alegando que el acto de curar y recomendar el material de terceros que muestra es creaci\u00f3n de contenido por derecho propio. El abogado de Google replic\u00f3 que su algoritmo de recomendaci\u00f3n es neutral y trata todo el contenido que recomienda a los usuarios de la misma manera. Pero estos argumentos no dan en el blanco. No hay necesidad de invocar la Secci\u00f3n 230 para evitar los da\u00f1os que se est\u00e1n considerando en este caso. No es que la funci\u00f3n de recomendaci\u00f3n de YouTube haya creado contenido nuevo, sino que los algoritmos de recomendaci\u00f3n \u00abneutrales\u00bb est\u00e1n dise\u00f1ados de manera negligente para no diferenciar, por ejemplo, videos de ISIS y videos de gatos. De hecho, las recomendaciones favorecen activamente el contenido da\u00f1ino y peligroso.<\/p>\n

Funciones de recomendaci\u00f3n como Ver a continuaci\u00f3n y Recomendado para ti de YouTube, que se encuentran en el centro de Gonz\u00e1lez<\/em>\u2013Contribuyen materialmente al da\u00f1o porque dan prioridad al material escandaloso y sensacionalista, y alientan y recompensan monetariamente a los usuarios por crear dicho contenido. YouTube dise\u00f1\u00f3 sus funciones de recomendaci\u00f3n para aumentar la participaci\u00f3n de los usuarios y los ingresos publicitarios. Los creadores de este sistema deber\u00edan haber sabido que alentar\u00eda y promover\u00eda comportamientos da\u00f1inos. <\/p>\n

Aunque la mayor\u00eda de los tribunales han aceptado una interpretaci\u00f3n radical de la Secci\u00f3n 230 que va m\u00e1s all\u00e1 de simplemente inmunizar a las plataformas para que no sean responsables del contenido peligroso de terceros, algunos jueces han ido m\u00e1s all\u00e1 y comenzaron a imponer un escrutinio m\u00e1s estricto sobre el dise\u00f1o negligente al invocar la responsabilidad del producto. En 2014, por ejemplo, Omegle, un servicio de chat de video que empareja a usuarios aleatorios, emparej\u00f3 a una ni\u00f1a de 11 a\u00f1os con un hombre de 30 a\u00f1os que la acosar\u00eda y abusar\u00eda sexualmente de ella durante a\u00f1os. En 2022, el juez que conoce de este caso, Soy contra Omegle<\/em>, encontr\u00f3 que la Secci\u00f3n 230 proteg\u00eda en gran medida el material real enviado por ambas partes. Pero la plataforma a\u00fan era responsable por su elecci\u00f3n de dise\u00f1o negligente para conectar a los depredadores sexuales con v\u00edctimas menores de edad. La semana pasada se present\u00f3 un caso similar contra Grindr. Un joven canadiense de 19 a\u00f1os est\u00e1 demandando a la aplicaci\u00f3n porque lo conect\u00f3 con hombres adultos que lo violaron durante un per\u00edodo de cuatro d\u00edas cuando era menor de edad. Nuevamente, la demanda afirma que Grindr fue negligente en su proceso de verificaci\u00f3n de edad y que busc\u00f3 activamente que los usuarios menores de edad se unieran a la aplicaci\u00f3n dirigiendo su publicidad en TikTok a menores. Estos casos, como Lemmon contra Snap<\/em>afirman la importancia de centrarse en las caracter\u00edsticas de dise\u00f1o de productos nocivos en lugar del contenido nocivo.<\/p>\n

Estos casos sientan un precedente prometedor sobre c\u00f3mo hacer que las plataformas sean m\u00e1s seguras. Cuando los intentos de controlar los abusos en l\u00ednea se centran en el contenido de terceros y la Secci\u00f3n 230, se ven envueltos en espinosos problemas de libertad de expresi\u00f3n que dificultan la realizaci\u00f3n de cambios significativos. Pero si los litigantes, los jueces y los reguladores eluden estos problemas de contenido y, en cambio, se centran en la responsabilidad del producto, estar\u00e1n llegando a la ra\u00edz del problema. Responsabilizar a las plataformas por decisiones de dise\u00f1o negligentes que fomentan y monetizan la creaci\u00f3n y proliferaci\u00f3n de contenido da\u00f1ino es la clave para abordar muchos de los peligros que persisten en l\u00ednea.<\/p>\n


\n

Opini\u00f3n CABLEADA publica art\u00edculos de colaboradores externos que representan una amplia gama de puntos de vista. Leer m\u00e1s opiniones<\/em> aqu\u00ed<\/em>y consulte nuestras pautas de env\u00edo<\/em> aqu\u00ed<\/em>. Env\u00ede un art\u00edculo de opini\u00f3n en<\/em> opinion@wired.com<\/em>.<\/em><\/p>\n<\/div>\n


\n
Source link-46<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

En el verano de 2017, tres adolescentes de Wisconsin murieron en un accidente automovil\u00edstico a alta velocidad. En el momento de la colisi\u00f3n, los ni\u00f1os estaban registrando su velocidad con…<\/p>\n","protected":false},"author":1,"featured_media":512960,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21981],"tags":[914,15340,107,1394,13133],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/512959"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=512959"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/512959\/revisions"}],"predecessor-version":[{"id":512961,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/512959\/revisions\/512961"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/512960"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=512959"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=512959"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=512959"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}