indebido – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Sat, 18 May 2024 06:26:13 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 Un ejecutivo clave de OpenAI renuncia, relata su lucha por obtener la potencia informática necesaria para su investigación y cita un enfoque indebido en los «productos brillantes» https://magazineoffice.com/un-ejecutivo-clave-de-openai-renuncia-relata-su-lucha-por-obtener-la-potencia-informatica-necesaria-para-su-investigacion-y-cita-un-enfoque-indebido-en-los-productos-brillantes/ https://magazineoffice.com/un-ejecutivo-clave-de-openai-renuncia-relata-su-lucha-por-obtener-la-potencia-informatica-necesaria-para-su-investigacion-y-cita-un-enfoque-indebido-en-los-productos-brillantes/#respond Sat, 18 May 2024 06:26:10 +0000 https://magazineoffice.com/un-ejecutivo-clave-de-openai-renuncia-relata-su-lucha-por-obtener-la-potencia-informatica-necesaria-para-su-investigacion-y-cita-un-enfoque-indebido-en-los-productos-brillantes/

Esto no es un consejo de inversión. El autor no tiene posición en ninguna de las acciones mencionadas. Wccftech.com tiene una política de divulgación y ética.

Un segundo ejecutivo clave de OpenAI se fue en un lapso de 72 horas, pintando un panorama poco halagador de lo que es indiscutiblemente una de las empresas estratégicamente más importantes del mundo en la actualidad.

Es decir, Jan Leike, jefe de alineación de OpenAI, completó ayer su último día en la organización sin fines de lucro. Para beneficio de aquellos que quizás no lo sepan, la alineación es un proceso crítico mediante el cual los valores humanos se codifican en un modelo de lenguaje grande (LLM). También permite a los LLM seguir políticas y pautas establecidas. Aparentemente, todo el equipo de alineación de OpenAI ya se ha disuelto.

Al relatar su trayectoria en la organización sin fines de lucro, Leike señaló que OpenAI no está invirtiendo los recursos adecuados para garantizar la seguridad y la solidez de los LLM. El ex ejecutivo también cree que la organización sin fines de lucro no está considerando el impacto social más amplio de intentar construir máquinas «más inteligentes que las humanas» y que «la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes».

En una afirmación sorprendente, Leike señala que su equipo a menudo tuvo dificultades para obtener los recursos informáticos necesarios en OpenAI:

«Durante los últimos meses, mi equipo ha estado navegando contra el viento. A veces teníamos dificultades con la computación y cada vez era más difícil realizar esta investigación crucial».

Por supuesto, como se dijo anteriormente, Leike es el segundo ejecutivo clave que abandona OpenAI en las últimas 72 horas. Como señalamos en una publicación separada, el científico jefe de la organización sin fines de lucro, Ilya Sutskever, hizo pública su decisión de renunciar el 14 de mayo para trabajar en un proyecto «personalmente significativo».

Hay que tener en cuenta que Sutskever había desempeñado un papel fundamental en el golpe de noviembre de 2023 contra el director ejecutivo de OpenAI, Sam Altman, quien fue despedido sumariamente por la junta por su inclinación cada vez más mercantil y su propensión a impulsar avances relacionados con la IA sin las salvaguardias adecuadas. Oficialmente, la junta citó la falta de franqueza de Altman en sus comunicaciones como el causaus belli. Sin embargo, esa decisión precipitó una revuelta total en OpenAI, y los empleados presentaron sus renuncias en masa. Al final, Altman pudo regresar a su puesto como director ejecutivo después de obligar a la junta que apoyaba el golpe a dimitir.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/un-ejecutivo-clave-de-openai-renuncia-relata-su-lucha-por-obtener-la-potencia-informatica-necesaria-para-su-investigacion-y-cita-un-enfoque-indebido-en-los-productos-brillantes/feed/ 0
Estados Unidos dice que habló con China sobre su ‘uso indebido’ de la IA https://magazineoffice.com/estados-unidos-dice-que-hablo-con-china-sobre-su-uso-indebido-de-la-ia/ https://magazineoffice.com/estados-unidos-dice-que-hablo-con-china-sobre-su-uso-indebido-de-la-ia/#respond Thu, 16 May 2024 00:01:31 +0000 https://magazineoffice.com/estados-unidos-dice-que-hablo-con-china-sobre-su-uso-indebido-de-la-ia/

Europa 1

con AFP // Créditos: Lionel BONAVENTURE / AFP

Estados Unidos indicó este miércoles que había discutido con China el problema de su «mal uso» de la inteligencia artificial (IA), pero desea continuar el diálogo que acaba de iniciar con Pekín sobre este tema.

Estados Unidos dijo el miércoles que había planteado a China el problema de su “uso indebido” de inteligencia artificial (IA), pero deseamos continuar el diálogo que acaba de iniciarse con Pekín sobre este tema. Representantes de ambos países mantuvieron este martes debates «francos y constructivos» en Ginebra (Suiza), en particular sobre los beneficios de la IA, afirmó en un comunicado la portavoz del Consejo de Seguridad Nacional, Adrienne Watson.

Según ella, «Estados Unidos ha subrayado la importancia de garantizar que los sistemas de IA sean seguros y fiables para poder beneficiarse (de esta tecnología) y seguir construyendo un consenso global sobre estas bases». Añadió que Washington había «planteado cuestiones relacionadas con el uso indebido de la IA, incluso por parte de la República Popular China», pero también «señaló la necesidad de mantener abiertas las líneas de comunicación sobre los riesgos y la seguridad de la IA con el objetivo de gestionar responsablemente la competencia». en este sector.

un último esfuerzo

Estos debates sobre la IA constituyen el último esfuerzo de las dos potencias para mejorar las relaciones entre ellas, tras años de tensiones. Los occidentales están alarmados por los rápidos avances de China en el sector de la IA, incluido su dominio de los ‘deepfakes’, estas imágenes, documentos sonoros o vídeos manipulados digitalmente para transformar la realidad -generalmente con fines maliciosos- y que los observadores temen que estén siendo utilizados. manipular la opinión pública.

En respuesta al alarmante aumento de contenido falso pero de apariencia real, la plataforma de vídeo TikTok dijo la semana pasada que marcaría automáticamente el contenido generado por IA. TikTok está en el ojo del huracán en Estados Unidos, donde una ley adoptada en abril obliga a su propietario chino ByteDance a vender la aplicación en un plazo de doce meses bajo pena de prohibición en suelo americano, donde cuenta con unos 170 millones de usuarios. TikTok ha presentado una denuncia contra Estados Unidos por este tema.



Source link-59

]]>
https://magazineoffice.com/estados-unidos-dice-que-hablo-con-china-sobre-su-uso-indebido-de-la-ia/feed/ 0
La investigación del piloto automático de Tesla se cerró después de que los federales encontraran 13 accidentes fatales relacionados con el uso indebido https://magazineoffice.com/la-investigacion-del-piloto-automatico-de-tesla-se-cerro-despues-de-que-los-federales-encontraran-13-accidentes-fatales-relacionados-con-el-uso-indebido/ https://magazineoffice.com/la-investigacion-del-piloto-automatico-de-tesla-se-cerro-despues-de-que-los-federales-encontraran-13-accidentes-fatales-relacionados-con-el-uso-indebido/#respond Sun, 28 Apr 2024 06:41:02 +0000 https://magazineoffice.com/la-investigacion-del-piloto-automatico-de-tesla-se-cerro-despues-de-que-los-federales-encontraran-13-accidentes-fatales-relacionados-con-el-uso-indebido/

La Administración Nacional de Seguridad del Tráfico en Carreteras cerró una investigación de larga data sobre el sistema de asistencia al conductor Autopilot de Tesla después de revisar cientos de accidentes relacionados con su mal uso, incluidos 13 que fueron fatales y «muchos más con lesiones graves».

Al mismo tiempo, la NHTSA está abriendo una nueva investigación para evaluar si la solución de retiro del piloto automático que Tesla implementó en diciembre es lo suficientemente efectiva.

La Oficina de Investigación de Defectos de la NHTSA dijo en documentos publicados el viernes que completó «un extenso trabajo» que arrojó evidencia de que «el débil sistema de participación del conductor de Tesla no era apropiado para las capacidades operativas permisivas del piloto automático».

«Este desajuste resultó en una brecha de seguridad crítica entre las expectativas de los conductores sobre [Autopilot’s] capacidades operativas y las verdaderas capacidades del sistema”, escribió la agencia. «Esta brecha provocó un mal uso previsible y accidentes evitables».

El cierre de la investigación inicial, que comenzó en 2021, marca el final de uno de los esfuerzos más visibles del gobierno para examinar el software Autopilot de Tesla. Sin embargo, Tesla todavía siente la presión de muchas otras investigaciones.

El Departamento de Justicia también está investigando las afirmaciones de la compañía sobre la tecnología, y el Departamento de Vehículos Motorizados de California ha acusado a Tesla de publicitar falsamente las capacidades del piloto automático y el software beta más avanzado de conducción autónoma total. La empresa también enfrenta múltiples demandas relacionadas con Autopilot. Mientras tanto, Tesla ahora está «contra la pared por la autonomía», según el director ejecutivo, Elon Musk.

La NHTSA dijo que su investigación revisó 956 accidentes reportados hasta el 30 de agosto de 2023. En aproximadamente la mitad (489) de ellos, la agencia dijo que “no había datos suficientes para hacer una evaluación”, que el otro vehículo tuvo la culpa, se descubrió que el piloto automático no estaba en uso o el accidente no estaba relacionado con la sonda.

La NHTSA dijo que los 467 accidentes restantes se dividieron en tres grupos. Hubo muchos (211) choques en los que “el plano frontal del Tesla chocó contra otro vehículo u obstáculo con el tiempo adecuado para que un conductor atento respondiera para evitar o mitigar el choque. Dijo que 145 accidentes involucraron “salidas de la carretera en condiciones de baja tracción, como carreteras mojadas”. Y dijo que 111 de los choques involucraron “desvíos de la carretera donde Autosteer fue desconectado inadvertidamente por las acciones del conductor”.

Estos choques “a menudo son graves porque ni el sistema ni el conductor reaccionan adecuadamente, lo que resulta en una alta diferencia de velocidad y resultados de choques de alta energía”, escribió la agencia.

Tesla les dice a los conductores que deben prestar atención a la carretera y mantener las manos en el volante mientras usan el piloto automático, que mide a través de un sensor de torsión y, en sus autos más nuevos, la cámara en la cabina. Pero la NHTSA y otros grupos de seguridad han dicho que estas advertencias y controles no son suficientes. En diciembre, la NHTSA dijo que estas medidas eran “insuficientes para prevenir el uso indebido”.

Tesla acordó retirar el producto mediante una actualización de software que, en teoría, aumentaría la supervisión del conductor. Pero esa actualización realmente no pareció cambiar mucho el piloto automático, un sentimiento con el que la NHTSA parece estar de acuerdo.

Partes de esa solución de retiro requieren que el «propietario opte por participar», y Tesla permite que un conductor «revierta fácilmente» algunas de las salvaguardas, según la NHTSA.

La NHTSA pasó casi tres años trabajando en la investigación sobre el piloto automático y se reunió o interactuó con Tesla en numerosas ocasiones durante el proceso. Realizó muchos exámenes directos de los accidentes y confió en que la empresa también proporcionara datos sobre ellos.

Pero la agencia criticó los datos de Tesla en uno de los documentos de respaldo.

“Las lagunas en los datos telemáticos de Tesla crean incertidumbre con respecto a la tasa real a la que los vehículos que operan con el piloto automático activado se ven involucrados en accidentes. Tesla no está al tanto de todos los accidentes que involucran el piloto automático, ni siquiera los más graves, debido a lagunas en los informes telemáticos”, escribió la NHTSA. Según la agencia, Tesla «recibe en gran medida datos de choques sólo con el despliegue pirotécnico», es decir, cuando se activan las bolsas de aire, los pretensores de los cinturones de seguridad o la función de mitigación de impacto de peatones del capó del automóvil.

La NHTSA afirma que limitarse a este nivel significa que Tesla sólo recopila datos sobre alrededor del 18% de los accidentes que se informan a la policía. Como resultado, la NHTSA escribió que la investigación descubrió accidentes en los que se activó el piloto automático y de los que Tesla no fue notificado vía telemática.



Source link-48

]]>
https://magazineoffice.com/la-investigacion-del-piloto-automatico-de-tesla-se-cerro-despues-de-que-los-federales-encontraran-13-accidentes-fatales-relacionados-con-el-uso-indebido/feed/ 0
Les Moonves llega a un acuerdo con la ciudad de Los Ángeles por el “uso indebido” del informe de agresión sexual de LAPD de 2017 por parte del exjefe de CBS – Actualización https://magazineoffice.com/les-moonves-llega-a-un-acuerdo-con-la-ciudad-de-los-angeles-por-el-uso-indebido-del-informe-de-agresion-sexual-de-lapd-de-2017-por-parte-del-exjefe-de-cbs-actualizacion/ https://magazineoffice.com/les-moonves-llega-a-un-acuerdo-con-la-ciudad-de-los-angeles-por-el-uso-indebido-del-informe-de-agresion-sexual-de-lapd-de-2017-por-parte-del-exjefe-de-cbs-actualizacion/#respond Thu, 18 Apr 2024 05:17:16 +0000 https://magazineoffice.com/les-moonves-llega-a-un-acuerdo-con-la-ciudad-de-los-angeles-por-el-uso-indebido-del-informe-de-agresion-sexual-de-lapd-de-2017-por-parte-del-exjefe-de-cbs-actualizacion/

ACTUALIZADO, 17 DE ABRIL A LAS 2:11 p. m.: Les Moonves ha saldado sus deudas con la ciudad de Los Ángeles, al menos financieramente.

En una reunión de la Comisión de Ética de Los Ángeles el miércoles por la tarde, el organismo votó por segunda vez sobre un pago del multimillonario exjefe de la CBS. A diferencia de la reunión del 21 de febrero, esta vez se aprobó el acuerdo propuesto.

“Los miembros de la Comisión de Ética aprobaron la estipulación y ordenaron a Leslie Moonves pagar una multa de $15,000 a la Ciudad de Los Ángeles de acuerdo con los términos de la estipulación”, decía la orden (léala aquí) firmada por los comisionados. .

“Moonves, representado en este asunto por Andrew J. Levander y Hartley MK West de Dechert LLP, admite que violó la ley de la Ciudad al ayudar e incitar a la divulgación y el uso indebido de información confidencial y al inducir a un funcionario de la Ciudad a hacer un mal uso de su posición para intento de crear una ventaja privada para Moonves. El personal recomienda resolver este caso aprobando la orden estipulada”, señala el documento.

En 2017, el ex capitán de LAPD y, a veces, guardaespaldas de Moonves, Corey Palka, pasó al círculo íntimo del ejecutivo un informe policial elaborado por la ex ejecutiva de Lorimar-Telepictures Phyllis Golden-Gottlieb.

La ex colega de Moonves alegó que Moonves la agredió sexualmente en varias ocasiones en la década de 1980. A medida que se intensificaba su batalla finalmente infructuosa con Shari Redstone por el control de CBS, Moonves, posteriormente muy acusado, se reunió personalmente con Palka en noviembre de 2017 para discutir más sobre las afirmaciones de Golden-Gottlieb y cómo podrían dañarlo.

A Moonves se le mostró la puerta de CBS en una purga de la junta directiva en 2018. Golden-Gottlieb murió en 2022.

A diferencia de una turbulenta audiencia anterior hace dos meses sobre un acuerdo Moonves finalmente rechazado, la reunión del miércoles transcurrió bastante tranquilamente. En la reunión de febrero, el personal de la ciudad se enfrentó a la indignación de los ciudadanos porque a Moonves sólo se le pedía que pagara 11.250 dólares por sus violaciones.

Hoy, Kenneth Hardy, Director de Cumplimiento del Departamento de Ética de la ciudad, dijo: “Estamos enviando un mensaje al público de que incluso si un individuo no es un funcionario, un funcionario ajeno a la ciudad, eso ayuda, instiga o induce a un funcionario de la ciudad. violar la ley de ética de la ciudad pueden ser considerados responsables. La oficina de Hardy llegó a un acuerdo con los representantes de Moonves para un acuerdo de 15.000 dólares.

Claramente, apenas un escupitajo para Moonves, la multa de la ciudad es de un máximo de $5,000 por cargo, una tarifa que ahora se paga en su totalidad.

ANTERIORMENTE, 21 DE FEBRERO: La Comisión de Ética de Los Ángeles rechazó el acuerdo de 11.250 dólares de Les Moonves con la ciudad por información filtrada al otrora poderoso director ejecutivo de CBS por un oficial de LAPD sobre acusaciones de agresión sexual.

El voto en contra de Moonves fue unánime.

La Comisión de Ética también votó 4-0 para “desaprobar” un acuerdo de 2.500 dólares con el ex vicepresidente de CBS, Ian Metrose. En un acuerdo elaborado por el personal de la ciudad y sus abogados en el bufete de abogados Sutton admitieron que “violó la ley de la ciudad al ayudar e instigar la divulgación y el uso indebido de información confidencial”.

A principios de este mes, Moonves acordó pagar su multa a Los Ángeles por violar el código de ética de la ciudad al «inducir a un funcionario de la ciudad a hacer mal uso de su puesto para crear una ventaja para Moonves». Representado por Andrew Levander y Hartley MK West de Dechert LLP, Moonves envió un cheque de caja la semana pasada. Con las votaciones de hoy, los acuerdos propuestos están caducados y el cheque de Moonves será devuelto. Se espera que se realicen más audiencias sobre nuevas multas y sentencias.

En términos de la “ventaja” que logró el alguna vez temido CEO de CBS, fue conocimiento interno e información sobre un informe policial realizado en 2017 por Phyllis Golden-Gottlieb.

En un momento de crecientes luchas internas corporativas entre Moonves y Shari Redstone, la ex ejecutiva de Lorimar-Telepictures Golden-Gottlieb, quien falleció a mediados de 2022, alegó que su entonces colega Moonves la agredió repetidamente cuando trabajaban juntas en la década de 1980 con una Enfatizó el incidente de 1986. El año siguiente, Golden-Gottlieb estaría entre varias mujeres que acusarían a Moonves de tal mala conducta. A pesar de los intentos de Moonves de manipular los eventos y la junta directiva de CBS, esas acusaciones llevarían a que el ejecutivo fuera expulsado de su posición en CBS durante mucho tiempo en septiembre de 2018.

Ese funcionario de la ciudad en cuestión era el ex capitán de la policía de Los Ángeles, Corey Palka.

Habiendo servido como guardia de seguridad para Moonves en varias ocasiones durante el mandato del primero en la cima de CBS, Palka también fue el oficial al mando de la División de Hollywood del LAPD en 2017. El ex policía llamó a Flack Metrose y dejó un mensaje de voz a fines de noviembre. 2017 que decía en parte del informe condenatorio de Golden-Gottlieb: «es confidencial, como usted sabe, pero llámeme y puedo darle algunos detalles y hacerle saber cuál es la acusación antes de que llegue a los medios o salga a la luz». .” Metrose, que dejó CBS el año pasado, acudió al CCO de CBS, Gil Schwartz, quien murió en 2020, quien le ordenó que llevara la información a Moonves.

Después de obtener una copia del informe policial de Golden-Gottlieb y hacerla circular entre sus principales lugartenientes de la CBS, Moonves solicitó una reunión privada con Palka. Los dos se reunieron el 25 de noviembre de 2017 para discutir qué haría la policía de Los Ángeles con el informe de Golden-Gottlieb y las entrevistas de seguimiento. Después se enviaron mensajes de texto varias veces más y continuaron discutiendo el informe Golden-Gottieb y los posibles resultados.

Cuando Moonves salió de CBS bajo presión casi un año después, Palka le envió un mensaje de texto: “Lamento profundamente que esto haya sucedido. Siempre estaré a tu lado, te apoyaré y te prometeré mi lealtad”.

El ahora retirado Palka está siendo investigado por la policía de Los Ángeles por su conducta, y se dice que la oficina del Fiscal Federal está echando una mano.

Desde que dejó CBS, Moonves luchó durante casi tres años con la empresa ahora dirigida por Paramount Global por su indemnización de 120 millones de dólares. En 2021, esa batalla terminó cuando Moonves, que ganó alrededor de $ 69 millones solo en 2016 y 2017, se quedó corto y CBS dijo que donarían el efectivo a organizaciones benéficas.

En 2022, la fiscal general de Nueva York, Letitia James, reveló por primera vez que la policía de Los Ángeles proporcionó información confidencial a los ejecutivos de CBS mientras intentaban gestionar las acusaciones contra Moonves. Como casi siempre, esto salió a la luz en una investigación de seguimiento del dinero. Los ejecutivos de CBS autorizaron a Schwartz, según el informe del fiscal general de Nueva York, a vender “millones de dólares” en acciones de CBS en 2018, justo antes de que una gama más amplia de conducta sexual inapropiada contra Moonves se hiciera pública en un mordaz artículo del New Yorker, Deadline, y otros lugares.

«Estas acciones constituyeron uso de información privilegiada y violaron las leyes de protección de inversores de Nueva York», dijo James en ese momento. El fiscal general también reveló un acuerdo total acumulado de 30,5 millones de dólares con Moonves y CBS para poner fin a la investigación de su oficina.

Durante la primera hora de la reunión de la Comisión de Ética de hoy, se plantearon sugerencias de mayores penas contra Moonves y Metrose, así como la relevancia de los crímenes de 1997. Confidencial de Los Ángeles fueron presentados por miembros del público.

Esas opiniones fueron en realidad dos de los comentarios públicos más discretos.

Adoptando diversas voces, un ciudadano se burló de las mujeres ahora fallecidas que alegaban agresión sexual en el asunto Moonves. El mismo orador también calificó a Moonves como “una de las personas más poderosas del planeta” y recomendó que la multa contra Metrose se reduzca a cero. Otro orador calificó la “corrupción” del LAPD y de la ciudad como “más que vergonzosa” y alentaba la “cultura de la violación”. Condenando los casos de agresión sexual por parte de agentes de policía, el orador también exigió a la Comisión de Ética aumentar la multa máxima de 5.000 dólares a los “increíblemente ricos” Moonves y Metrose.

Con sólo uno o dos temas más tratados, los asentamientos de Moonves y Metrose fueron, con diferencia, los más comentados por el público en la actualidad.

Una reducción de las penas por su “cooperación” con el City fue criticada una y otra vez. Un orador criticó a la Comisión por “no haber promulgado una reforma constitucional que les hubiera permitido aumentar las multas, entre otras cosas”. Al pedirle a la Comisión que proporcionara “ejemplos morales elevados”, un orador comparó a Moonves con Donald Trump en su trato a las mujeres y su desprecio por la ley.

«No es necesario respetar el acuerdo de solución», rogó otro orador a los comisionados en la reunión de hoy. “Esto es calderilla para los muchachos”, añadió una oradora en sus comentarios, abogando por que la Comisión demuestre que este uso de información interna del LAPD y más “no será tolerado”. El mismo orador también señaló la situación actual en la que el Departamento de Policía de Los Ángeles está arrestando y deteniendo a manifestantes anti-Scientology como un ejemplo de la consideración que el departamento da a los ricos y bien conectados.



Source link-18

]]>
https://magazineoffice.com/les-moonves-llega-a-un-acuerdo-con-la-ciudad-de-los-angeles-por-el-uso-indebido-del-informe-de-agresion-sexual-de-lapd-de-2017-por-parte-del-exjefe-de-cbs-actualizacion/feed/ 0
OpenAI frena el lanzamiento generalizado de tecnología de clonación de voz debido a preocupaciones sobre su uso indebido https://magazineoffice.com/openai-frena-el-lanzamiento-generalizado-de-tecnologia-de-clonacion-de-voz-debido-a-preocupaciones-sobre-su-uso-indebido/ https://magazineoffice.com/openai-frena-el-lanzamiento-generalizado-de-tecnologia-de-clonacion-de-voz-debido-a-preocupaciones-sobre-su-uso-indebido/#respond Sat, 30 Mar 2024 10:55:02 +0000 https://magazineoffice.com/openai-frena-el-lanzamiento-generalizado-de-tecnologia-de-clonacion-de-voz-debido-a-preocupaciones-sobre-su-uso-indebido/

La síntesis de voz ha recorrido un largo camino desde el juguete Speak & Spell de 1978, que alguna vez cautivó a la gente con su capacidad de última generación para leer palabras en voz alta usando una voz electrónica. Ahora, utilizando modelos de inteligencia artificial de aprendizaje profundo, el software puede crear no solo voces que suenan realistas, sino también imitar de manera convincente voces existentes utilizando pequeñas muestras de audio.

En ese sentido, OpenAI acaba de anunciar Voice Engine, un modelo de inteligencia artificial de texto a voz para crear voces sintéticas basadas en un segmento de audio grabado de 15 segundos. Ha proporcionado muestras de audio del Voice Engine en acción en su sitio web.

Una vez que se clona una voz, un usuario puede ingresar texto en Voice Engine y obtener un resultado de voz generado por IA. Pero OpenAI aún no está listo para lanzar ampliamente su tecnología. Inicialmente, la compañía planeó lanzar un programa piloto para que los desarrolladores se registraran en la API Voice Engine a principios de este mes. Pero después de considerar más a fondo las implicaciones éticas, la empresa decidió reducir sus ambiciones por ahora.

«En línea con nuestro enfoque hacia la seguridad de la IA y nuestros compromisos voluntarios, estamos eligiendo una vista previa, pero no lanzar ampliamente esta tecnología en este momento», escribe la compañía. «Esperamos que esta vista previa de Voice Engine destaque su potencial y también motive la necesidad de reforzar la resiliencia de la sociedad frente a los desafíos que plantean modelos generativos cada vez más convincentes».

La tecnología de clonación de voz en general no es particularmente nueva: hemos cubierto varios modelos de síntesis de voz con IA desde 2022 y la tecnología está activa en la comunidad de código abierto con paquetes como OpenVoice y XTTSv2. Pero la idea de que OpenAI esté avanzando poco a poco hacia permitir que cualquiera use su marca particular de tecnología de voz es notable. Y en cierto modo, la reticencia de la empresa a publicarlo en su totalidad podría ser la historia más importante.

OpenAI dice que los beneficios de su tecnología de voz incluyen brindar asistencia de lectura a través de voces que suenan naturales, permitir un alcance global para los creadores al traducir contenido mientras se preservan los acentos nativos, apoyar a las personas no verbales con opciones de habla personalizadas y ayudar a los pacientes a recuperar su propia voz después. condiciones que afectan el habla.

Pero también significa que cualquier persona con 15 segundos de la voz grabada de alguien podría clonarla efectivamente, y eso tiene implicaciones obvias para un posible uso indebido. Incluso si OpenAI nunca lanza ampliamente su motor de voz, la capacidad de clonar voces ya ha causado problemas en la sociedad a través de estafas telefónicas en las que alguien imita la voz de un ser querido y llamadas automáticas de campañas electorales con voces clonadas de políticos como Joe Biden.

Además, investigadores y periodistas han demostrado que la tecnología de clonación de voz se puede utilizar para acceder a cuentas bancarias que utilizan autenticación de voz (como el Voice ID de Chase), lo que llevó al senador Sherrod Brown (demócrata por Ohio), presidente del Senado de Estados Unidos. Comité de Banca, Vivienda y Asuntos Urbanos, enviará una carta a los directores ejecutivos de varios bancos importantes en mayo de 2023 para preguntar sobre las medidas de seguridad que están tomando los bancos para contrarrestar los riesgos impulsados ​​por la IA.



Source link-49

]]>
https://magazineoffice.com/openai-frena-el-lanzamiento-generalizado-de-tecnologia-de-clonacion-de-voz-debido-a-preocupaciones-sobre-su-uso-indebido/feed/ 0
OpenAI y Common Sense Media se asocian para proteger a los adolescentes de los daños y el uso indebido de la IA https://magazineoffice.com/openai-y-common-sense-media-se-asocian-para-proteger-a-los-adolescentes-de-los-danos-y-el-uso-indebido-de-la-ia/ https://magazineoffice.com/openai-y-common-sense-media-se-asocian-para-proteger-a-los-adolescentes-de-los-danos-y-el-uso-indebido-de-la-ia/#respond Wed, 31 Jan 2024 02:27:42 +0000 https://magazineoffice.com/openai-y-common-sense-media-se-asocian-para-proteger-a-los-adolescentes-de-los-danos-y-el-uso-indebido-de-la-ia/

El lunes, OpenAI anunció una asociación con la organización sin fines de lucro Common Sense Media para crear pautas de IA y materiales educativos dirigidos a padres, educadores y adolescentes. Incluye la selección de GPT para familias en la tienda GPT de OpenAI. La colaboración tiene como objetivo abordar las preocupaciones sobre los impactos de la IA en niños y adolescentes.

Conocido por sus reseñas de películas y programas de televisión dirigidos a padres que buscan medios adecuados para que los vean sus hijos, Common Sense Media recientemente se expandió hacia la IA y ha estado revisando asistentes de IA en su sitio.

«La IA no va a ninguna parte, por eso es importante que ayudemos a los niños a comprender cómo usarla de manera responsable», Common Sense Media escribió en X. «Por eso nos hemos asociado con @OpenAI para ayudar a los adolescentes y las familias a aprovechar de forma segura el potencial de la IA».

El director ejecutivo de OpenAI, Sam Altman, y el director ejecutivo de Common Sense Media, James Steyer, anunciaron la asociación en el escenario de San Francisco en la Cumbre de Sentido Común para Niños y Familias de Estados Unidos, un evento que fue bien cubierto por miembros de los medios en el sitio de redes sociales X.

Por su parte, Altman ofreció una declaración enlatada en el comunicado de prensa, diciendo: «La IA ofrece beneficios increíbles para las familias y los adolescentes, y nuestra asociación con Common Sense fortalecerá aún más nuestro trabajo de seguridad, garantizando que las familias y los adolescentes puedan usar nuestras herramientas con confianza». «.

El anuncio parece un poco inespecífico en el comunicado de prensa oficial, con Steyer ofreciendo: «Nuestras guías y curación estarán diseñadas para educar a las familias y educadores sobre el uso seguro y responsable de ChatGPT, para que podamos evitar colectivamente cualquier consecuencia no deseada de esta emergente tecnología.»

La asociación parece apuntar principalmente a traer una pátina de familiaridad a la tienda GPT de OpenAI, y la revelación más sólida es el hecho antes mencionado de que los medios de Common Sense ayudarán con la «curaduría de GPT familiares en la Tienda GPT basada en Common Sense». calificaciones y estándares.»

Reseñas de IA de sentido común

Como se mencionó anteriormente, Common Sense Media comenzó a revisar los asistentes de IA en su sitio a fines del año pasado. Esto coloca a Common Sense Media en una posición interesante con posibles conflictos de intereses con respecto a la nueva asociación con OpenAI. Sin embargo, hasta ahora no parece ofrecer ningún favoritismo hacia OpenAI.

Por ejemplo, la revisión de ChatGPT de Common Sense Media llama al asistente de IA «Un chatbot poderoso, a veces riesgoso, para personas mayores de 13 años, que se utiliza mejor para la creatividad, no para los hechos». Etiqueta a ChatGPT como adecuado para mayores de 13 años (lo cual se encuentra en los Términos de servicio de OpenAI) y le otorga al asistente de OpenAI tres de cinco estrellas. ChatGPT también obtiene una calificación de privacidad del 48 por ciento (que curiosamente se muestra como 55 por ciento en otra página que entra en detalles de privacidad). La revisión que citamos se actualizó por última vez el 13 de octubre de 2023, al momento de escribir este artículo.

Como referencia, Google Bard obtiene una calificación general de tres estrellas y una calificación de privacidad del 75 por ciento en su revisión de Common Sense Media. Stable Diffusion, el modelo de síntesis de imágenes, obtiene una calificación de una estrella con la descripción: «Un potente generador de imágenes puede desatar la creatividad, pero es tremendamente inseguro y perpetúa el daño». DALL-E de OpenAI obtiene dos estrellas y una calificación de privacidad del 48 por ciento.

La información que Common Sense Media incluye sobre cada modelo de IA parece relativamente precisa y detallada (y la organización citó un artículo de Ars Technica como referencia en una explicación), por lo que se sienten justas, incluso frente a la asociación OpenAI. Dadas las bajas puntuaciones, parece que la mayoría de los modelos de IA no han tenido un buen comienzo, pero eso puede cambiar. Aún es temprano en la IA generativa.





Source link-49

]]>
https://magazineoffice.com/openai-y-common-sense-media-se-asocian-para-proteger-a-los-adolescentes-de-los-danos-y-el-uso-indebido-de-la-ia/feed/ 0
Microsoft quiere que USTED sea demandado por infracción de derechos de autor, se lava las manos ante el uso indebido de derechos de autor de la IA y dice que los usuarios deberían ser responsables de la infracción de derechos de autor https://magazineoffice.com/microsoft-quiere-que-usted-sea-demandado-por-infraccion-de-derechos-de-autor-se-lava-las-manos-ante-el-uso-indebido-de-derechos-de-autor-de-la-ia-y-dice-que-los-usuarios-deberian-ser-responsables-de/ https://magazineoffice.com/microsoft-quiere-que-usted-sea-demandado-por-infraccion-de-derechos-de-autor-se-lava-las-manos-ante-el-uso-indebido-de-derechos-de-autor-de-la-ia-y-dice-que-los-usuarios-deberian-ser-responsables-de/#respond Thu, 23 Nov 2023 11:47:11 +0000 https://magazineoffice.com/microsoft-quiere-que-usted-sea-demandado-por-infraccion-de-derechos-de-autor-se-lava-las-manos-ante-el-uso-indebido-de-derechos-de-autor-de-la-ia-y-dice-que-los-usuarios-deberian-ser-responsables-de/

Lo que necesitas saber

  • La Oficina de Derechos de Autor de EE. UU. está analizando nuevas regulaciones sobre material protegido por derechos de autor e inteligencia artificial.
  • Los desarrolladores de IA dicen que la IA generativa no es diferente a usar una cámara de video y grabar lo que ya está disponible en el mundo.
  • Microsoft ha hecho declaraciones afirmando que la IA no puede generar nada a menos que se lo solicite un usuario, culpando al usuario final.

Con las noticias recientes de OpenAI, de que podría haber habido algún desarrollo de IA inseguro que condujo a la derrocamiento de Sam Altman Según la junta directiva de OpenAI, habrá una lupa aún mayor sobre el desarrollo de la IA en el futuro. Aunque Sam Altman parece han regresado a OpenAI ahora, la lucha por hacer IA de forma segura, y respetando las leyes vigentes.

Aunque Sam Altman y Satya Nadella parecían haber salido airosos de esta última crisis, todavía existen problemas regulatorios, especialmente si hay alguna pizca de verdad de que la seguridad no es una prioridad en OpenAI. Según lo informado por CartoonBrew.comuna de estas cuestiones regulatorias que tendrán que afrontar en el futuro es cómo manejar las cuestiones de derechos de autor, especialmente cuando se trata de mal uso o alteración de materiales protegidos por derechos de autor.

Cuando una persona utiliza una aplicación de IA para crear obras expresivas, es posible que los resultados generados por IA infrinjan los derechos de autor si el resultado es sustancialmente similar a un trabajo anterior. Al igual que con cualquier otra herramienta de uso general, como una fotocopiadora, una cámara, una computadora o un teléfono inteligente, los usuarios deben asumir la responsabilidad de utilizar las herramientas de manera responsable y según lo diseñado. Cuando los usuarios emplean herramientas de inteligencia artificial para crear obras supuestamente infractoras, los tribunales deben tomar las mismas consideraciones que harían en un caso.

microsoft

¿Es ilegal utilizar IA para generar material protegido por derechos de autor?

La asociación entre OpenAI y Microsoft es más fuerte que nunca. (Crédito de la imagen: Windows Central)

No parece haber ningún argumento para considerar ilegal el uso de materiales protegidos por derechos de autor en imágenes generadas por IA sin permiso, especialmente fuera de los límites de la ley. Sin embargo, Microsoft sostiene que todavía existen protecciones para el uso legítimo, especialmente con el entrenamiento de modelos de IA. Incluso si hubiera un caso de infracción de derechos de autor que no estuviera incluido en el uso legítimo, a los ojos de Microsoft, eso sería como perseguir a Apple porque alguien usó un iPhone para tomar una fotografía de una pintura y luego la vendió digitalmente en línea como propia. . Si desea leer todas las respuestas de Microsoft a la Oficina de derechos de autor de EE. UU., puede descargar el respuesta de regulaciones.gov.





Source link-40

]]>
https://magazineoffice.com/microsoft-quiere-que-usted-sea-demandado-por-infraccion-de-derechos-de-autor-se-lava-las-manos-ante-el-uso-indebido-de-derechos-de-autor-de-la-ia-y-dice-que-los-usuarios-deberian-ser-responsables-de/feed/ 0
Estudiantes de élite suizos redactan una carta mundial contra el uso indebido de la IA https://magazineoffice.com/estudiantes-de-elite-suizos-redactan-una-carta-mundial-contra-el-uso-indebido-de-la-ia/ https://magazineoffice.com/estudiantes-de-elite-suizos-redactan-una-carta-mundial-contra-el-uso-indebido-de-la-ia/#respond Sun, 01 Oct 2023 03:47:03 +0000 https://magazineoffice.com/estudiantes-de-elite-suizos-redactan-una-carta-mundial-contra-el-uso-indebido-de-la-ia/

En anuncios en periódicos de todo el mundo, los estudiantes del Instituto St. Gallen en Rosenberg dan su opinión: como representantes de la generación que se verá más afectada por los efectos de la IA.

Los alumnos de la escuela privada de Rosenberg se ocupan intensamente en clase de las tecnologías modernas.

Karin Hofer / NZZ

Hay que poder permitirse una aparición así: los domingos aparecen en periódicos de renombre, entre ellos “New York Times”, “Le Monde”, “El País”, “Straits Times” (Singapur), “Gulf News” y “ NZZ am Sonntag”. », aparecieron anuncios de página completa. Lo inusual: los anuncios no fueron diseñados por una organización internacional, sino por una escuela. El Instituto Rosenberg de St. Gallen utiliza este método inusual para distribuir la “Carta Rosenberg de IA para una gobernanza ética de la IA”.

En trece puntos, los estudiantes del internado de élite exponen sus ideas sobre cómo debería abordar el mundo la inteligencia artificial (IA). Los “futuros administradores de este planeta”, como se describen a sí mismos, exigen altos estándares para las empresas y los estados que enfrentan el desafío de la IA.

La vida de los jóvenes está cambiando al revés

Todas las organizaciones privadas y gubernamentales que se ocupan de productos de IA deben ser claramente responsables de la información generada por estos sistemas. Los jóvenes también exigen que una agencia global externa e imparcial supervise y garantice el uso adecuado de la IA.

Otro postulado de la Carta Rosenberg es que los creadores de la IA se preocupan de que sus sistemas se mantengan dentro de límites claramente definidos al implementar comandos humanos. Estos consisten en las leyes de la jurisprudencia y los derechos de cada individuo establecidos en la Declaración Universal de Derechos Humanos.

Pero, ¿cómo pueden los jóvenes de entre 13 y 18 años explicar a la comunidad global cómo lidiar con la tecnología de IA? Según Bernhard Gademann, director del Instituto Rosenberg, nadie tiene tanto interés en ello.

«Esta es la generación que ya utiliza herramientas de IA todos los días y se verá afectada por sus efectos durante el resto de sus vidas», explica Gademann. Así como la computadora e Internet han transformado la vida de la generación actual, la inteligencia artificial hará lo mismo con los niños de hoy. El objetivo es proporcionar ideas sobre las oportunidades asociadas a esta tecnología, pero también sobre cómo se pueden contener los riesgos.

Los estudiantes del Instituto Rosenberg proceden de más de 50 países. Suelen ser hijas e hijos de familias emprendedoras. En el internado de élite, fundado en 1889 y uno de los colegios privados más exclusivos y caros de Suiza, la IA se utiliza desde hace mucho tiempo dentro y fuera de las clases.

Para crear una carta que abordara las oportunidades y los riesgos de esta tecnología, la escuela aprovechó sus buenas relaciones con empresas y universidades. Junto con expertos como Luca Dal Molin, abogado especializado en tecnología, propiedad intelectual y derecho de protección de datos, o el pionero del “meta marketing” Florian Holste, estudiantes y profesores han desarrollado la carta durante los últimos meses.

Inicio del diálogo internacional

Como explica el director, en la carta trabajaron jóvenes de diferentes orígenes. «Tenemos muchos estudiantes conocedores de la tecnología que están interesados ​​principalmente en el aspecto científico. Pero sensibilizados por temas como el cambio climático o la sostenibilidad, los estudiantes también abordan cuestiones éticas y filosóficas”.

Gademann espera que el espectacular lanzamiento de la Carta Rosenberg desencadene un debate global que en última instancia conduzca a la cooperación internacional en el tema de la inteligencia artificial.



Source link-58

]]>
https://magazineoffice.com/estudiantes-de-elite-suizos-redactan-una-carta-mundial-contra-el-uso-indebido-de-la-ia/feed/ 0
Un tribunal del Reino Unido desestima un reclamo de uso indebido de datos de salud al estilo de una demanda colectiva contra Google DeepMind https://magazineoffice.com/un-tribunal-del-reino-unido-desestima-un-reclamo-de-uso-indebido-de-datos-de-salud-al-estilo-de-una-demanda-colectiva-contra-google-deepmind/ https://magazineoffice.com/un-tribunal-del-reino-unido-desestima-un-reclamo-de-uso-indebido-de-datos-de-salud-al-estilo-de-una-demanda-colectiva-contra-google-deepmind/#respond Sat, 20 May 2023 06:24:21 +0000 https://magazineoffice.com/un-tribunal-del-reino-unido-desestima-un-reclamo-de-uso-indebido-de-datos-de-salud-al-estilo-de-una-demanda-colectiva-contra-google-deepmind/

Google prevaleció contra otra demanda de privacidad al estilo de una acción colectiva en el Reino Unido después de que un tribunal de Londres desestimara una demanda presentada el año pasado contra el gigante tecnológico y su división de inteligencia artificial, DeepMind, que buscaba una compensación por el uso indebido de los registros médicos de los pacientes del NHS.

La decisión subraya los obstáculos que enfrentan las reclamaciones de compensación al estilo de las demandas colectivas por violaciones de la privacidad en el Reino Unido.

El denunciante había tratado de presentar un reclamo representativo en nombre de aproximadamente 1,6 millones de personas cuyos registros médicos fueron, a partir de 2015, pasados ​​a DeepMind sin su conocimiento o consentimiento, en busca de daños y perjuicios por el uso ilegal de los datos médicos confidenciales de los pacientes. La firma de inteligencia artificial propiedad de Google había sido contratada por Royal Free NHS Trust, que le pasó datos de pacientes para desarrollar conjuntamente una aplicación para detectar lesiones renales agudas. El organismo de control de protección de datos del Reino Unido descubrió más tarde que el Trust carecía de una base legal para el procesamiento.

En una sentencia emitida hoy por los Tribunales Reales de Justicia de Londres, la jueza Heather Williams desestimó el caso alegando que no cumplía con los requisitos para iniciar una acción representativa, lo que exige que la demanda se base en circunstancias generales que se aplican a la toda la clase en lugar de circunstancias individuales, encontrando por lo tanto que el reclamo estaría destinado a fracasar.

Los demandantes habían intentado escalar este muro legal buscando solo «daños por el mínimo común denominador» para cada miembro de la clase reclamada, lo que significa que estaban demandando una compensación calculada considerando «el daño mínimo irreducible» sufrido por todos los miembros.

Sin embargo, incluso esta barra más baja no pasó la prueba, ya que el juez identificó «muchas variables relevantes» entre los miembros de la clase y consideró que había desafíos abrumadores para cualquier intento de rediseñar la clase para tratar de establecer un reclamo viable, concluyendo que hay » una dificultad fundamental e inherente para identificar un reclamo viable para cualquier miembro de la clase si este reclamo se presenta como una acción representativa sobre la base de circunstancias comunes”.

El bufete de abogados que representa al demandante, Andrew Prismall, fue contactado para hacer comentarios, pero en la prensa no respondió.

Un portavoz de Google DeepMind envió este comunicado dando la bienvenida al fallo: “Nos complace que la Corte haya decidido poner fin a estos procedimientos. Como hemos argumentado, esta afirmación es infundada y sin mérito”.

Esta no es la primera vez que una demanda colectiva por daños a la privacidad contra Google encalló en el Reino Unido. En 2021, la Corte Suprema bloqueó definitivamente otra acción representativa presentada por un defensor de los derechos del consumidor en relación con una solución alternativa que Google tenía. supuestamente se aplicó para anular la configuración de privacidad de los usuarios de iPhone en el navegador Safari de Apple entre 2011 y 2012.

Un intento anterior de Prismall de presentar un reclamo representativo contra Google y DeepMind bajo la ley de protección de datos del Reino Unido fue abandonado luego de la victoria de Google en la Corte Suprema antes mencionada. Luego volvió a presentar el reclamo, bajo el derecho consuetudinario de uso indebido de información privada, solo para que ese caso sea desestimado hoy.

Mientras que una demanda colectiva presentada en los últimos años contra TikTok, alegando abuso de datos de niños, también se retiró el año pasado a raíz de la victoria de Google en la Corte Suprema. Se informó que el demandante en ese caso dijo que la decisión había creado una enorme cantidad de incertidumbre legal en torno a las demandas colectivas de privacidad, lo que generó riesgos de costos que los financiadores del litigio y las aseguradoras ya no estaban dispuestos a asumir, lo que significaba que los padres habrían estado expuestos si ellos había elegido seguir adelante (por lo tanto, no lo hicieron).

Presentar un reclamo legal por daños y perjuicios como individuo también sigue siendo prohibitivamente costoso. Por lo tanto, la falta de una ruta clara (de bajo riesgo) para que los ciudadanos del Reino Unido inicien un litigio al estilo de una demanda colectiva sobre los daños a la privacidad significa que tienen opciones muy limitadas para obtener reparación por el uso indebido de sus datos.

En 2017, el organismo de control de protección de datos del Reino Unido ni siquiera emitió una sanción financiera para el NHS Trust que descubrió que había pasado ilegalmente los registros de los pacientes a DeepMind. Tampoco se ordenó al gigante tecnológico que eliminara los datos de los pacientes. Y aunque Google posteriormente, en 2021, desmanteló la aplicación, DeepMind pudo firmar acuerdos con varios NHS Trusts para usar una pieza de software desarrollada con datos personales procesados ​​ilegalmente. Por lo tanto, quejarse ante el regulador nacional de privacidad con la esperanza de que sancione significativamente a los infractores de las reglas tampoco es una ruta segura para obtener resultados exitosos para los británicos.

Es una imagen cada vez más diferente en la Unión Europea, donde se aprobó una Directiva de reparación colectiva en 2020 que entrará en vigor el próximo mes. Esta ley tiene como objetivo reforzar los derechos de los consumidores al facilitar que los ciudadanos del bloque presenten acciones representativas y demanden colectivamente las violaciones de sus derechos.

Agregue a eso, otro cambio entrante en las reglas de responsabilidad del producto de la UE tiene como objetivo facilitar que las personas demanden por daños causados ​​​​por software y sistemas de inteligencia artificial, incluso por violaciones de derechos fundamentales como la privacidad.

Una sentencia reciente del Tribunal de Justicia de la UE también estableció que el marco de protección de datos del bloque no establece un umbral de daño para un reclamo de compensación por incumplimiento.

Este informe se actualizó con detalles de la demanda de TikTok.



Source link-48

]]>
https://magazineoffice.com/un-tribunal-del-reino-unido-desestima-un-reclamo-de-uso-indebido-de-datos-de-salud-al-estilo-de-una-demanda-colectiva-contra-google-deepmind/feed/ 0
El modo Tile Anti-Theft hace que sus rastreadores sean ‘invisibles’, con una multa de $ 1 millón por uso indebido https://magazineoffice.com/el-modo-tile-anti-theft-hace-que-sus-rastreadores-sean-invisibles-con-una-multa-de-1-millon-por-uso-indebido/ https://magazineoffice.com/el-modo-tile-anti-theft-hace-que-sus-rastreadores-sean-invisibles-con-una-multa-de-1-millon-por-uso-indebido/#respond Fri, 17 Feb 2023 20:18:13 +0000 https://magazineoffice.com/el-modo-tile-anti-theft-hace-que-sus-rastreadores-sean-invisibles-con-una-multa-de-1-millon-por-uso-indebido/

Foto de Allison Johnson / The Verge

Azulejo dice un nueva función antirroboque se implementará a partir de hoy, hace que sus rastreadores Bluetooth sean invisibles para la detección anti-acoso como el Escanear y asegurar función en la aplicación. Al deshabilitar las habilidades de detección, podría ser más efectivo para recuperar algo muy importante: como un maletín que contiene un millón de dólares en efectivo o un maletín de juegos que tiene una PS4 con PT pre instalado.

Pero eso también lo hace invisible para todospor lo que Tile requerirá que los usuarios que deseen habilitar la función registren su identificación con foto, acepten que Tile trabaje con las fuerzas del orden sin una citación y acepten recibir una multa de $ 1 millón si son condenados por mal uso del rastreador de manera criminal.

Este entrada en el blog de Tile explica cómo funciona y describe un…

Sigue leyendo…



Source link-37

]]>
https://magazineoffice.com/el-modo-tile-anti-theft-hace-que-sus-rastreadores-sean-invisibles-con-una-multa-de-1-millon-por-uso-indebido/feed/ 0