directrices – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Thu, 28 Mar 2024 09:51:19 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 La Casa Blanca establece amplias directrices sobre IA para el gobierno federal https://magazineoffice.com/la-casa-blanca-establece-amplias-directrices-sobre-ia-para-el-gobierno-federal/ https://magazineoffice.com/la-casa-blanca-establece-amplias-directrices-sobre-ia-para-el-gobierno-federal/#respond Thu, 28 Mar 2024 09:51:16 +0000 https://magazineoffice.com/la-casa-blanca-establece-amplias-directrices-sobre-ia-para-el-gobierno-federal/

Han pasado cinco meses desde que el presidente Joe Biden firmó una orden ejecutiva (EO) para abordar los rápidos avances en inteligencia artificial. La Casa Blanca está dando hoy un paso más en la implementación de la EO con una política que tiene como objetivo regular el uso de la IA por parte del gobierno federal. Las salvaguardias que las agencias deben implementar incluyen, entre otras cosas, formas de mitigar el riesgo de sesgo algorítmico.

«Creo que todos los líderes del gobierno, la sociedad civil y el sector privado tienen el deber moral, ético y social de garantizar que la inteligencia artificial se adopte y avance de una manera que proteja al público de posibles daños y al mismo tiempo garantice que todos puedan disfrutar. sus beneficios», dijo la vicepresidenta Kamala Harris a los periodistas en una conferencia de prensa.

Harris anunció tres requisitos vinculantes bajo una nueva política de la Oficina de Administración y Presupuesto (OMB). En primer lugar, las agencias deberán garantizar que cualquier herramienta de inteligencia artificial que utilicen «no ponga en peligro los derechos y la seguridad del pueblo estadounidense». Tienen hasta el 1 de diciembre para asegurarse de que cuentan con «salvaguardias concretas» para garantizar que los sistemas de inteligencia artificial que emplean no afecten la seguridad o los derechos de los estadounidenses. De lo contrario, la agencia tendrá que dejar de utilizar un producto de IA a menos que sus líderes puedan justificar que eliminar el sistema tendría un impacto «inaceptable» en las operaciones críticas.

Impacto en los derechos y la seguridad de los estadounidenses

Según la política, se considera que un sistema de IA afecta la seguridad si «se usa o se espera que se use, en condiciones del mundo real, para controlar o influir significativamente en los resultados de» ciertas actividades y decisiones. Entre ellos se incluyen el mantenimiento de la integridad electoral y la infraestructura electoral; controlar funciones críticas de seguridad de infraestructura como sistemas de agua, servicios de emergencia y redes eléctricas; vehículos autónomos; y operar los movimientos físicos de robots en «un lugar de trabajo, escuela, vivienda, transporte, entorno médico o policial».

A menos que cuenten con salvaguardias adecuadas o puedan justificar su uso de otro modo, las agencias también tendrán que deshacerse de los sistemas de IA que infringen los derechos de los estadounidenses. Los propósitos que la política supone que impactan los derechos definidos incluyen vigilancia policial predictiva; monitoreo de redes sociales para las fuerzas del orden; detectar plagio en las escuelas; bloquear o limitar la expresión protegida; detectar o medir emociones y pensamientos humanos; evaluación previa al empleo; y «replicar la imagen o la voz de una persona sin consentimiento expreso».

Cuando se trata de IA generativa, la política estipula que las agencias deben evaluar los beneficios potenciales. Todos también deben «establecer salvaguardias y mecanismos de supervisión adecuados que permitan el uso de IA generativa en la agencia sin representar un riesgo indebido».

Requisitos de transparencia

El segundo requisito obligará a las agencias a ser transparentes sobre los sistemas de inteligencia artificial que utilizan. «Hoy, el presidente Biden y yo exigimos que cada año las agencias gubernamentales de EE. UU. publiquen en línea una lista de sus sistemas de inteligencia artificial, una evaluación de los riesgos que esos sistemas podrían plantear y cómo se están gestionando esos riesgos», dijo Harris.

Como parte de este esfuerzo, las agencias deberán publicar códigos, modelos y datos de IA de propiedad gubernamental, siempre que hacerlo no perjudique al público ni a las operaciones gubernamentales. Si una agencia no puede revelar casos de uso específicos de IA por razones de sensibilidad, igualmente tendrá que informar métricas.

La vicepresidenta Kamala Harris pronuncia un discurso durante un evento de campaña con el presidente Joe Biden en Raleigh, Carolina del Norte, el martes 26 de marzo de 2024. (Foto AP/Stephanie Scarbrough)

ASSOCIATED PRESS

Por último, pero no menos importante, las agencias federales necesitarán una supervisión interna de su uso de la IA. Eso incluye que cada departamento designe a un director de IA para supervisar todo el uso de la IA por parte de una agencia. «Esto es para garantizar que la IA se utilice de manera responsable, entendiendo que debemos tener líderes de alto nivel en todo nuestro gobierno que tengan la tarea específica de supervisar la adopción y el uso de la IA», señaló Harris. Muchas agencias también necesitarán contar con juntas de gobernanza de IA antes del 27 de mayo.

El vicepresidente añadió que figuras destacadas de los sectores público y privado (incluidos líderes de derechos civiles e informáticos) ayudaron a dar forma a la política junto con líderes empresariales y juristas.

La OMB sugiere que, al adoptar las salvaguardias, la Administración de Seguridad en el Transporte podría tener que permitir que los viajeros de las aerolíneas opten por no someterse a escaneos de reconocimiento facial sin perder su lugar en la fila o sufrir un retraso. También sugiere que debería haber supervisión humana sobre aspectos como la detección de fraudes mediante IA y las decisiones de diagnóstico en el sistema federal de salud.

Como se puede imaginar, las agencias gubernamentales ya están utilizando sistemas de inteligencia artificial de diversas formas. La Administración Nacional Oceánica y Atmosférica está trabajando en modelos de inteligencia artificial para ayudar a pronosticar con mayor precisión condiciones climáticas extremas, inundaciones e incendios forestales, mientras que la Administración Federal de Aviación está utilizando un sistema para ayudar a gestionar el tráfico aéreo en las principales áreas metropolitanas para mejorar el tiempo de viaje.

«La IA no sólo presenta riesgos, sino también una tremenda oportunidad para mejorar los servicios públicos y avanzar en desafíos sociales como abordar el cambio climático, mejorar la salud pública y promover oportunidades económicas equitativas», dijo a los periodistas la directora de la OMB, Shalanda Young. «Cuando se utiliza y supervisa de manera responsable, la IA puede ayudar a las agencias a reducir los tiempos de espera para los servicios gubernamentales críticos para mejorar la precisión y ampliar el acceso a los servicios públicos esenciales».

Esta política es la última de una serie de esfuerzos para regular el ámbito de rápida evolución de la IA. Si bien la Unión Europea ha aprobado un amplio conjunto de normas para el uso de la IA en el bloque y hay proyectos de ley federales en tramitación, los esfuerzos para regular la IA en Estados Unidos han adoptado un enfoque más bien fragmentado a nivel estatal. Este mes, Utah promulgó una ley para proteger a los consumidores del fraude de IA. En Tennessee, la Ley de Seguridad de Imagen y Voz para Garantizar la Semejanza (también conocida como Ley Elvis, en serio) es un intento de proteger a los músicos de los deepfakes, es decir, de la clonación de sus voces sin permiso.



Source link-47

]]>
https://magazineoffice.com/la-casa-blanca-establece-amplias-directrices-sobre-ia-para-el-gobierno-federal/feed/ 0
OpenAI se asocia con Common Sense Media para colaborar en directrices de IA https://magazineoffice.com/openai-se-asocia-con-common-sense-media-para-colaborar-en-directrices-de-ia/ https://magazineoffice.com/openai-se-asocia-con-common-sense-media-para-colaborar-en-directrices-de-ia/#respond Tue, 30 Jan 2024 02:50:38 +0000 https://magazineoffice.com/openai-se-asocia-con-common-sense-media-para-colaborar-en-directrices-de-ia/

OpenAI espera ganarse la confianza de los padres (y de los formuladores de políticas) asociándose con organizaciones que trabajan para minimizar los daños de la tecnología y los medios a niños, preadolescentes y adolescentes.

Por ejemplo, OpenAI anunció hoy una asociación con Common Sense Media, la organización sin fines de lucro que revisa y clasifica la idoneidad de diversos medios y tecnologías para niños, para colaborar en pautas de IA y materiales educativos para padres, educadores y adultos jóvenes.

Como parte de la asociación, OpenAI trabajará con Common Sense Media para seleccionar GPT “familiares” (aplicaciones de chatbot impulsadas por los modelos GenAI de OpenAI) en GPT Store, el mercado GPT de OpenAI, basado en los estándares de calificación y evaluación de Common Sense, OpenAI. dice el director ejecutivo Sam Altman.

«La IA ofrece beneficios increíbles para las familias y los adolescentes, y nuestra asociación con Common Sense fortalecerá aún más nuestro trabajo de seguridad, garantizando que las familias y los adolescentes puedan utilizar nuestras herramientas con confianza», añadió Altman en una declaración enlatada.

El lanzamiento de la asociación se produce después de que OpenAI dijera que participaría en el nuevo marco de Common Sense, lanzado en septiembre, para calificaciones y revisiones diseñadas para evaluar la seguridad, la transparencia, el uso ético y el impacto de los productos de IA. El marco de Common Sense tiene como objetivo producir una «etiqueta nutricional» para aplicaciones impulsadas por IA, según el cofundador y director ejecutivo de Common Sense, James Steyer, para arrojar luz sobre los contextos en los que se utilizan las aplicaciones y resaltar áreas de posibles oportunidades y daños contra un conjunto de principios de “sentido común”.

El logotipo de OpenAI se muestra en la pantalla de un teléfono móvil frente a la pantalla de la computadora con el logotipo de ChatGPT

El logotipo de OpenAI mostrado en la pantalla de un teléfono inteligente frente a la pantalla de la computadora con el logotipo de ChatGPT. Créditos de imagen: Didem Mente/Agencia Anadolu / Getty Images

En un comunicado de prensa, Steyer aludió al hecho de que los padres de hoy en día siguen teniendo en general menos conocimientos sobre las herramientas GenAI (por ejemplo, el chatbot viral ChatGPT impulsado por IA de OpenAI) que las generaciones más jóvenes. Una encuesta de Impact Research encargada por Common Sense Media a finales del año pasado encontró que el 58% de los estudiantes de 12 a 18 años han utilizado ChatGPT en comparación con el 30% de los padres de niños en edad escolar.

«Juntos, Common Sense y OpenAI trabajarán para garantizar que la IA tenga un impacto positivo en todos los adolescentes y familias», dijo Steyer en un comunicado enviado por correo electrónico. “Nuestras guías y selección estarán diseñadas para educar a las familias y a los educadores sobre el uso seguro y responsable de [OpenAI tools like] ChatGPT, para que podamos evitar colectivamente cualquier consecuencia no deseada de esta tecnología emergente”.

OpenAI está bajo presión de los reguladores para demostrar que sus aplicaciones impulsadas por GenAI, incluido ChatGPT, son una bendición general para la sociedad, no un perjuicio para ella. El verano pasado, la Comisión Federal de Comercio de EE. UU. abrió una investigación sobre OpenAI para determinar si ChatGPT perjudicaba a los consumidores mediante la recopilación de datos y la publicación de declaraciones falsas sobre individuos. Las autoridades de datos europeas también han expresado su preocupación por el manejo de información privada de OpenAI.

Las herramientas de OpenAI, como todas las herramientas de GenAI, tienden a inventar cosas con confianza y a equivocarse en hechos básicos. Y están sesgados, un reflejo de los datos que se utilizaron para entrenarlos.

Los niños y adolescentes, conscientes de las limitaciones de las herramientas o no, recurren cada vez más a ellas en busca de ayuda no sólo con las tareas escolares sino también con cuestiones personales. Según una encuesta del Centro para la Democracia y la Tecnología, el 29% de los niños afirman haber utilizado ChatGPT para lidiar con la ansiedad o problemas de salud mental, el 22% para problemas con amigos y el 16% para conflictos familiares.



Source link-48

]]>
https://magazineoffice.com/openai-se-asocia-con-common-sense-media-para-colaborar-en-directrices-de-ia/feed/ 0
Peter Studer establece directrices para los medios https://magazineoffice.com/peter-studer-establece-directrices-para-los-medios/ https://magazineoffice.com/peter-studer-establece-directrices-para-los-medios/#respond Mon, 04 Dec 2023 21:17:01 +0000 https://magazineoffice.com/peter-studer-establece-directrices-para-los-medios/

El conocido periodista Peter Studer falleció el pasado sábado a la edad de 88 años. Un obituario.

El abogado y periodista suizo Peter Studer.

Urs Flüeler / Keystone

Peter Studer procedía de la católica Lucerna, pero en realidad parecía más bien un calvinista ginebrino: disciplinado, sobrio, no partidario de las fiestas desenfrenadas ni de las comidas y bebidas opulentas. Ya siendo estudiante escribió para el liberal «Luzerner Tagblatt» y fue presidente de la Unión de Estudiantes Liberales de Zúrich, pero como periodista no acabó en el «Neue Zürcher Zeitung», sino en el «Tages-Anzeiger». Allí actuó como sucesor del otro influyente residente de Lucerna, Walter Stutzer, que había convertido el periódico en un periódico foro, como correctivo a un equipo editorial rebelde inspirado por el movimiento del 68. Pero antes de convertirse en redactor jefe en 1978, Peter Studer realizó una especie de gira como corresponsal, primero en Washington y luego en el Palacio Federal de Berna. Anteriormente había trabajado como periodista independiente en el Congo.

El sábado pasado, Peter Studer se durmió plácidamente poco después de cumplir 88 años. El abogado, notario, coronel y conocedor de arte ocupó tres veces puestos de liderazgo a lo largo de su carrera mediática: en Tamedia, en la televisión suiza SRF y en el Consejo de Prensa. En todas partes garantizó el equilibrio y el principio de escuchar a ambas partes en los conflictos. Implementó innovaciones en todas partes. Como redactor jefe del Tages-Anzeiger tuvo que afrontar fases difíciles, como, por ejemplo, informar sobre los disturbios juveniles de Zurich a principios de los años 80, cuando tuvo que soportar el fuego cruzado de la industria de Zurich, por un lado, y Los editorialistas de izquierda, por otro, o el reportaje sobre las acusaciones contra Hans W. Kopp antes de las elecciones al Consejo Federal de 1984, cuando Elisabeth Kopp era candidata y Peter Studer se veía en el dilema entre los ataques de Niklaus Meienberg contra » Tagi” y su amistad privada con la familia Kopp. En general, fue un perfecto editor en jefe porque animó al equipo editorial a hacer un periodismo interesante, competente y responsable y porque se adhirió estrictamente a la línea del periódico de «un pelo a la izquierda del centro». Y reconstruyó el periódico con el objetivo de aportar más antecedentes, más debates, más temas populares.

En 1987 lo convencieron de pasar a la dirección de la empresa Tamedia como «director de periodismo», lo que en retrospectiva fue un error porque se vio aplastado en sus esfuerzos por defender el equipo editorial y las intenciones del equipo editorial ante la dirección que era crítica. de periodismo de la empresa. Así que no duró mucho allí, sino que pasó a la televisión como redactor jefe en 1989. Rápidamente adquirió conocimientos sobre las posibilidades del medio audiovisual. Pronto, además de redactor jefe (y hasta 1999), dirigió todo el departamento de información y cultura, y en esta capacidad inició nuevos programas: “10 vor 10”, “Arena” y “Sternstunden”. También en este caso resultó influyente en el desarrollo posterior del periodismo: más actualidad, más antecedentes, más debates.

En 2001 asumió otra nueva responsabilidad periodística durante seis años: la presidencia del Consejo Suizo de la Prensa. Una vez más, se preocupó por cosas fundamentales, es decir, registrar los principios que son importantes desde la perspectiva de la ética de los medios (y esto dio como resultado el texto «Cómo escriben los periodistas de manera justa», que escribió junto con Martin Künzi), y desarrollar aún más la comité. Además de cuatro asociaciones de periodistas, también logró convencer a los editores y a la SRG como patrocinadores de la Fundación Consejo de la Prensa. Y estos son los grandes logros periodísticos de Peter Studer: que formuló directrices en todas partes y al mismo tiempo aseguró innovaciones contemporáneas.

Roger Blum, profesor emérito de estudios de medios, fue el predecesor de Peter Studer al frente del Consejo de Prensa.



Source link-58

]]>
https://magazineoffice.com/peter-studer-establece-directrices-para-los-medios/feed/ 0
Los artistas pueden «envenenar» los modelos de IA antes de que la Oficina de Derechos de Autor pueda emitir directrices https://magazineoffice.com/los-artistas-pueden-envenenar-los-modelos-de-ia-antes-de-que-la-oficina-de-derechos-de-autor-pueda-emitir-directrices/ https://magazineoffice.com/los-artistas-pueden-envenenar-los-modelos-de-ia-antes-de-que-la-oficina-de-derechos-de-autor-pueda-emitir-directrices/#respond Sat, 04 Nov 2023 08:43:41 +0000 https://magazineoffice.com/los-artistas-pueden-envenenar-los-modelos-de-ia-antes-de-que-la-oficina-de-derechos-de-autor-pueda-emitir-directrices/

Agrandar / Una imagen OpenAI creada con DALL-E 3.

Los artistas han pasado el año pasado luchando contra empresas que han estado entrenando generadores de imágenes de IA (incluidas herramientas populares como el impresionantemente fotorrealista Midjourney o el ultrasofisticado DALL-E 3) en sus obras originales sin consentimiento ni compensación. Ahora, Estados Unidos ha prometido finalmente abordar en serio las preocupaciones sobre derechos de autor planteadas por la IA, dijo el presidente Joe Biden en su tan esperada orden ejecutiva sobre la IA, que se firmó esta semana.

La Oficina de Derechos de Autor de EE. UU. ya había estado buscando opiniones del público sobre las preocupaciones de la IA durante los últimos meses a través de un período de comentarios que finalizó el 15 de noviembre. La orden ejecutiva de Biden ha aclarado que después de este período de comentarios, la Oficina de Derechos de Autor publicará los resultados de su estudio. Y luego, dentro de los 180 días posteriores a esa publicación (o dentro de los 270 días posteriores a la orden de Biden, «lo que ocurra más tarde»), el director de la Oficina de Derechos de Autor consultará con Biden para «emitir recomendaciones al Presidente sobre posibles acciones ejecutivas relacionadas con los derechos de autor y la IA».

«Las recomendaciones abordarán todos los derechos de autor y cuestiones relacionadas discutidas en el estudio de la Oficina de Derechos de Autor de Estados Unidos, incluido el alcance de la protección de las obras producidas utilizando IA y el tratamiento de las obras protegidas por derechos de autor en la capacitación en IA», decía la orden de Biden.

Eso significa que, potencialmente, dentro de los próximos seis a nueve meses (o más), los artistas pueden tener respuestas a algunas de sus preguntas legales más importantes, incluida una comprensión más clara de cómo proteger sus obras para que no se utilicen para entrenar modelos de IA.

Actualmente, los artistas no tienen muchas opciones para impedir que los creadores de imágenes con IA (que generan imágenes basadas en indicaciones de texto del usuario) hagan referencia a sus obras. Incluso empresas como OpenAI, que recientemente comenzaron a permitir que los artistas opten por no incluir obras en los datos de entrenamiento de IA, solo permiten a los artistas optar por no recibir datos de entrenamiento futuros. Los artistas no pueden optar por no recibir datos de entrenamiento que alimentan las herramientas existentes porque, como dice OpenAI:

Una vez que los modelos de IA han aprendido de sus datos de entrenamiento, ya no tienen acceso a ellos. Los modelos sólo retienen los conceptos que aprendieron. Cuando alguien realiza una solicitud a un modelo, el modelo genera un resultado basado en su comprensión de los conceptos incluidos en la solicitud. No busca ni copia contenido de una base de datos existente.

Según The Atlantic, este proceso de exclusión voluntaria, que requiere que los artistas envíen solicitudes para cada obra de arte y que podría ser demasiado complicado de completar para muchos artistas, deja a los artistas atrapados sólo con la opción de proteger las nuevas obras que «crean de ahora en adelante». «. Parece que es demasiado tarde para proteger cualquier trabajo «ya reclamado por las máquinas» en 2023, advirtió The Atlantic. Y este problema claramente afecta a mucha gente. Un portavoz dijo a The Atlantic que solo Stability AI ha respondido «más de 160 millones de solicitudes de exclusión voluntaria en la próxima capacitación».

Hasta que los reguladores federales determinen qué derechos deben conservar los artistas a medida que las tecnologías de IA avanzan rápidamente, al menos una artista, la caricaturista e ilustradora Sarah Andersen, está presentando una demanda por infracción directa de derechos de autor contra Stability AI, fabricante de Stable Diffusion, otra notable herramienta de síntesis de imágenes de IA. .

Andersen, cuya demanda colectiva propuesta podría afectar a todos los artistas, tiene alrededor de un mes para modificar su demanda para «declarar de manera plausible que los productos de inteligencia artificial de los demandados permiten a los usuarios crear nuevas obras haciendo referencia expresa a las obras de Andersen por su nombre», si quiere «las inferencias». en su denuncia «sobre cómo y cuánto del contenido protegido de Andersen permanece en Stable Diffusion o es utilizado por los productos finales de IA» para «ser más fuerte», recomendó un juez.

En otras palabras, según las leyes de derechos de autor actuales, Andersen probablemente tendrá dificultades para ganar su batalla legal si no muestra al tribunal qué imágenes específicas protegidas por derechos de autor se usaron para entrenar modelos de IA y demuestra que esos modelos usaron esas imágenes específicas para escupir arte que parece exactamente como el de ella. Citar ejemplos específicos será importante, dijo un experto legal a TechCrunch, porque argumentar que las herramientas de inteligencia artificial imitan estilos probablemente no funcione, ya que «el estilo ha demostrado ser casi imposible de proteger con derechos de autor».

Los abogados de Andersen dijeron a Ars que su caso es «complejo», pero siguen confiando en que ella puede ganar, posiblemente porque, como dijeron otros expertos a The Atlantic, podría demostrar que «los programas de IA generativa pueden retener una cantidad sorprendente de información». sobre una imagen en sus datos de entrenamiento, a veces lo suficiente como para reproducirla casi a la perfección». Pero podría fracasar si el tribunal decide que el uso de datos para entrenar modelos de IA es un uso legítimo de las obras de los artistas, una cuestión legal que aún no está clara.



Source link-49

]]>
https://magazineoffice.com/los-artistas-pueden-envenenar-los-modelos-de-ia-antes-de-que-la-oficina-de-derechos-de-autor-pueda-emitir-directrices/feed/ 0
Un grupo tecnológico califica las directrices propuestas por la India contra los patrones oscuros como «superposición regulatoria» https://magazineoffice.com/un-grupo-tecnologico-califica-las-directrices-propuestas-por-la-india-contra-los-patrones-oscuros-como-superposicion-regulatoria/ https://magazineoffice.com/un-grupo-tecnologico-califica-las-directrices-propuestas-por-la-india-contra-los-patrones-oscuros-como-superposicion-regulatoria/#respond Mon, 09 Oct 2023 12:19:13 +0000 https://magazineoffice.com/un-grupo-tecnologico-califica-las-directrices-propuestas-por-la-india-contra-los-patrones-oscuros-como-superposicion-regulatoria/

Un grupo industrial que representa a varias importantes empresas tecnológicas estadounidenses se ha opuesto a la propuesta del gobierno indio contra los patrones oscuros, que se utilizan para engañar a los usuarios en línea, y dijo que la medida afectaría negativamente la promesa estatal de permitir «facilidad para hacer negocios» en la economía y traer “superposición regulatoria” con las leyes existentes.

Nueva Delhi publicó el borrador de directrices (PDF) para prevenir y regular patrones oscuros para consulta pública el mes pasado durante 30 días hasta el jueves 5 de octubre, para obtener comentarios sobre las reglas propuestas para mitigar las prácticas engañosas de las empresas en línea para engañar o manipular a los consumidores utilizando métodos poco éticos. diseños o patrones en su interfaz en línea.

Asia Internet Coalition, que representa a gigantes tecnológicos como Apple, Google, Meta, Amazon y X (anteriormente Twitter), ha sugerido que las reglas propuestas «pueden estancar el crecimiento» de la economía digital del país e instó al gobierno indio a considerar la situación actual. -Marco regulatorio como medida principal para restringir el uso de patrones oscuros. El grupo industrial también dijo que las plataformas en línea ya están reguladas en el país según varias leyes existentes.

“Cualquier intento de introducir un marco regulatorio separado causaría una superposición regulatoria innecesaria. Esta superposición resultará en divergencias entre los marcos legales aplicables, lo que generará incertidumbre en términos de requisitos de cumplimiento”, dijo el grupo en su nota detallada enviada al departamento de asuntos del consumidor que publicó el borrador de las directrices. También se publicó una copia de la nota en el sitio web del grupo.

El grupo afirmó que, si bien las plataformas en línea en la India califican como intermediarios en línea y están reguladas por la Ley de Tecnología de la Información de 2000, las plataformas de comercio electrónico se rigen por las normas de la Ley de Protección al Consumidor de 2019. De manera similar, dijo que las obligaciones independientes del sector se establecen en la Ley de Protección de Datos Personales Digitales de 2023, publicada en agosto.

En junio, el departamento de asuntos del consumidor consultó a las partes interesadas, incluidas plataformas de comercio electrónico y bufetes de abogados, sobre patrones oscuros. El departamento dijo que en la reunión se llegó a un consenso general de que los patrones oscuros estaban causando preocupación y requerían un manejo proactivo. Posteriormente, el gobierno formó un grupo de trabajo compuesto por representantes de asociaciones industriales, plataformas de comercio electrónico y empresas del negocio en línea, entre ellas Google, Flipkart, Reliance Industries, Amazon, Go-MMT, Swiggy, Zomato, Ola, Tata CLiQ, Facebook. , Meta y Shiprocket, que llevaron a la publicación del borrador de las pautas.

La Coalición de Internet de Asia recomendó que el gobierno indio considere adoptar el enfoque adoptado por la Unión Europea, que también está trabajando para regular la práctica del uso de patrones oscuros. También sugirió que si el departamento de asuntos del consumidor deseaba introducir un marco separado, la regulación debería ser independiente del sector y del medio y aplicarse tanto al contenido como a los anuncios en línea y fuera de línea, no específicamente a estos últimos.

El grupo también dijo que el departamento debería proporcionar un “período de reserva suficiente entre la publicación y la implementación” de las reglas propuestas y no deberían aplicarse tras su publicación. Además, solicitó proteger las protecciones de puerto seguro disponibles en la Ley de TI y las plataformas intermediarias en línea, incluidos los mercados de comercio electrónico, «no deben ser consideradas responsables de los patrones oscuros que pueden estar presentes en el contenido de terceros y en los anuncios alojados por ellos».

“En la actualidad, el Borrador de Directrices sobre patrones oscuros prevé una disposición general que exige que ninguna persona, incluidas las plataformas, debe participar en ningún patrón oscuro. Sin embargo, una disposición tan general generaría serias preocupaciones para los intermediarios en línea”, afirmó el grupo.

También ha solicitado al departamento de asuntos del consumidor que defina el término «respaldador» en las reglas para «abordar adecuadamente» los casos de presencia de patrones oscuros a través de anuncios disfrazados, incluidos los respaldos de personas influyentes y celebridades.

El gobierno señaló la falsa urgencia, el engaño, la vergüenza confirmada, la acción forzada, la trampa de suscripción, la interferencia de la interfaz, los precios de cebo y cambio y goteo como algunos de los patrones oscuros reconocidos. El grupo dijo que las prácticas sugeridas por estos patrones ya se consideran “injustas” según las leyes existentes, incluida la Ley de Protección al Consumidor, y las políticas internas de plataformas y proveedores de servicios digitales.

India, la segunda base mundial de usuarios de Internet después de China, es un mercado crucial para las plataformas globales en línea. Sin embargo, con el aumento de la población en línea, el gobierno liderado por el primer ministro Narendra Modi está implementando más regulaciones en el mercado.

El gobierno está buscando reemplazar su ley de TI de más de dos décadas con una nueva regulación llamada Ley de India Digital, que se espera que se presente pronto para consulta pública. Es probable que la próxima ley aborde algunas de las preocupaciones sobre patrones oscuros, junto con nuevas reglas sobre ciberseguridad y gestión de datos, así como tecnologías emergentes como la inteligencia artificial y blockchain.



Source link-48

]]>
https://magazineoffice.com/un-grupo-tecnologico-califica-las-directrices-propuestas-por-la-india-contra-los-patrones-oscuros-como-superposicion-regulatoria/feed/ 0
Directrices para el Fondo de Ayuda Corona de Baja Austria fijas https://magazineoffice.com/directrices-para-el-fondo-de-ayuda-corona-de-baja-austria-fijas/ https://magazineoffice.com/directrices-para-el-fondo-de-ayuda-corona-de-baja-austria-fijas/#respond Fri, 23 Jun 2023 10:47:33 +0000 https://magazineoffice.com/directrices-para-el-fondo-de-ayuda-corona-de-baja-austria-fijas/

El Fondo Corona está dotado con 31,3 millones de euros. Los fondos están disponibles para niños, familias, todos los afectados por las medidas de Covid 19 y para los habitantes de Baja Austria que sufren las consecuencias de Long Covid y deficiencias en la vacunación.

«Amplia mitad de la población»
“La amplia franja media de la población no quiere excluirse e incitarse entre sí, sino volver a la normalidad. Una parte importante de esto es un procesamiento honesto de la pandemia”, enfatizó la gobernadora Johanna Mikl-Leitner (ÖVP) en una transmisión. Se tendrá que gastar menos del uno por ciento “para la demanda de larga data de SPÖ y NEOS de pagos de compensación por sanciones inconstitucionales.

Con el grueso de los fondos apoyamos a las personas que padecen el Covid Largo, niños y jóvenes con rezago escolar y clubes que fomentan el deporte y la vida social”, dijo el gobernador. Los fondos deben ser de fácil y rápido acceso.

“En nombre de los votantes”
“Con el fondo de ayuda, aseguramos justicia. Este es el punto de inflexión, enteramente en nombre de los votantes”, dijo el vicegobernador Udo Landbauer (FPÖ). Las injusticias de los últimos años se han tratado sin descanso. «Hicimos todo lo que fue posible. Las reparaciones también son un recordatorio de que la libertad y los derechos fundamentales de nuestro pueblo no son negociables”, dijo Landbauer.

Luego de la decisión en el gobierno estatal, se iniciará el proceso para indemnizar a aquellas personas cuyas sanciones hayan sido levantadas por la Corte Constitucional. “Los lineamientos que decidiremos el próximo martes en el gobierno estatal deben pasar por un examen del Tribunal de Cuentas Federal, de eso no hay duda. Toda persona que solicite financiación debe cumplir los requisitos y ser capaz de aportar pruebas. Tenemos que decepcionar a los que critican las medidas, que ahora esperan una lluvia de dinero sin base legal”, explicó el consejero de Estado Ludwig Schleritzko (ÖVP).

Las categorías de financiación incluyen las siguientes medidas:

  • Pagos de indemnizaciones por sanciones impuestas por la normativa Covid, que posteriormente fueron levantadas por la Corte Constitucional.
  • Subsidio a honorarios de abogados en relación con procedimientos administrativos penales por sanciones basadas en disposiciones de Covid que hayan sido revocadas por la Corte Constitucional.
  • Pago a tanto alzado por deficiencias en la vacunación confirmadas médicamente en relación con una vacuna Covid-19 aprobada en Austria, también fuera de la Ley de daños por vacunación.
  • Pago para compensar los gastos relacionados con el tratamiento de trastornos y enfermedades mentales y emocionales documentados que hayan surgido durante la pandemia.
  • También se otorgan ayudas económicas para otros apoyos necesarios para eliminar una emergencia personal o familiar por causas ajenas a la pandemia y sus consecuencias (enfermedad, accidente, muerte en la familia) para tratamiento especial, apoyo, terapia o gastos funerarios.

subvenciones para clubes
También se financian clubes que hacen campaña por los intereses de las personas que han sido dañadas o perjudicadas por las vacunas o enfermedades de Covid 19, al igual que las actividades de ocio para niños y jóvenes.

A partir del 1 de septiembre de 2023
A partir del 1 de septiembre de 2023, los gastos incurridos entre el 16 de marzo de 2020 (primer confinamiento) y el 30 de junio de 2023 (fin de las medidas Corona) pueden presentarse hasta el 28 de febrero de 2025. El pago se extiende hasta el 31 de agosto de 2025. El sitio web, en el que se pueden procesar todas las solicitudes, estará en línea con todos los detalles e información específica en julio.



Source link-1

]]>
https://magazineoffice.com/directrices-para-el-fondo-de-ayuda-corona-de-baja-austria-fijas/feed/ 0
Explicación de las directrices de la BBC sobre imparcialidad https://magazineoffice.com/explicacion-de-las-directrices-de-la-bbc-sobre-imparcialidad/ https://magazineoffice.com/explicacion-de-las-directrices-de-la-bbc-sobre-imparcialidad/#respond Sun, 12 Mar 2023 03:44:05 +0000 https://magazineoffice.com/explicacion-de-las-directrices-de-la-bbc-sobre-imparcialidad/

Se le ha dicho al presentador de Match of the Day, Gary Lineker, que se retire de su papel en el programa de la BBC debido a las opiniones que ha expresado en Twitter.

Lineker tiene más de ocho millones de seguidores en la plataforma de redes sociales y, después de usarla para criticar el nuevo proyecto de ley del gobierno sobre el tratamiento de los solicitantes de asilo, la BBC ha estado bajo presión para actuar.

¿Cuáles son las directrices de la BBC?

La emisora ​​dice estar «comprometida» en lograr la debida imparcialidad en todas sus salidas.

Esto es «fundamental para nuestra reputación, nuestros valores y la confianza de las audiencias», añade.

La imparcialidad debe ser «adecuada y apropiada para el producto, teniendo en cuenta el tema y la naturaleza del contenido, la expectativa probable de la audiencia y cualquier señalización que pueda influir en esa expectativa».

También debe «examinar los argumentos, cuestionar el consenso y hacer que el poder rinda cuentas», dicen las pautas.

¿Qué pasa con la política sobre el uso de las redes sociales?

Las pautas de la BBC reconocen que las redes sociales «ahora son parte de la vida cotidiana».

El personal puede «participar en actividades de redes sociales si lo desea».

Pero debe haber una «distinción clara» entre las cuentas de la BBC administradas por la BBC para propósitos de la BBC y las cuentas personales administradas por empleados para fines personales, dicen las pautas.

Leer más:
Una historia de los tuits más controvertidos de Gary Lineker

¿Dónde deja eso a Lineker?

Lineker es un locutor independiente de la BBC, no un miembro permanente del personal.

No presenta noticias ni contenido político.

Tuiteó a los 8,7 millones de seguidores de su cuenta personal, que no incluye ningún enlace a la BBC o Match of the Day en su biografía.

Pero las pautas de la BBC establecen: «También hay otras personas que no son periodistas ni están involucradas en programas basados ​​en hechos que, sin embargo, tienen una responsabilidad adicional ante la BBC debido a su perfil en la BBC. Esperamos que estas personas eviten tomar partido en cuestiones de partidos políticos o políticas». controversias y tener cuidado al abordar asuntos de política pública”.

Y que las personas que están «claramente identificadas con la BBC» deben comportarse «de manera coherente con los valores y políticas editoriales de la BBC».

Richard Sambrook, exdirector de noticias de la BBC y director de BBC Global News y BBC World Service, dijo a la agencia de noticias PA: «Para un presentador de deportes en su vida personal, expresar puntos de vista que no son imparciales, no es tan serio». como si fuera un periodista de noticias».

La BBC ha dicho que Lineker dejará de presentar funciones en Match of the Day hasta que tengan «una posición acordada y clara sobre su uso de las redes sociales».



Source link-33

]]>
https://magazineoffice.com/explicacion-de-las-directrices-de-la-bbc-sobre-imparcialidad/feed/ 0