ChatGPT – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Fri, 10 May 2024 07:04:59 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 Según se informa, OpenAI está trabajando en una función de búsqueda para ChatGPT https://magazineoffice.com/segun-se-informa-openai-esta-trabajando-en-una-funcion-de-busqueda-para-chatgpt/ https://magazineoffice.com/segun-se-informa-openai-esta-trabajando-en-una-funcion-de-busqueda-para-chatgpt/#respond Fri, 10 May 2024 07:04:57 +0000 https://magazineoffice.com/segun-se-informa-openai-esta-trabajando-en-una-funcion-de-busqueda-para-chatgpt/

Según se informa, OpenAI está trabajando en una función de búsqueda para ChatGPT que podría convertir al chatbot en una verdadera alternativa a la Búsqueda de Google. De acuerdo a Bloomberg, la compañía está desarrollando actualmente la capacidad, que puede buscar en la web respuestas a sus consultas y generar resultados completos con citas de sus fuentes. ChatGPT podría tomar información de Wikipedia o publicaciones de blogs, por ejemplo, y vincularlas a sus páginas originales cuando le haga preguntas.

Bloomberg dice que en una versión de la función de búsqueda experimental, ChatGPT puede mostrarle imágenes junto con sus respuestas escritas siempre que sean relevantes. Por ejemplo, si el chatbot considera útiles instrucciones ilustradas o diagramas para una consulta, como «cómo cambiar el pomo de una puerta» o «cómo limpiar un aire acondicionado tipo split», entonces podría incluirlos en sus respuestas. Como Bloomberg Como señala, ChatGPT ya puede realizar búsquedas de clientes que pagan, pero podría dar respuestas erróneas o con citas incorrectas.

A principios de este mes, DataChaz en Twitter/X, reportado que OpenAI había creado un nuevo subdominio con la dirección search.chatgpt.com. Aparentemente se redirigió brevemente a la página principal de ChatGPT durante el fin de semana, aunque recibirá una nota «No encontrado» si intenta acceder a ella ahora. Si bien la compañía aún tiene que confirmar oficialmente este proyecto en particular, trabajar en la búsqueda de IA es el siguiente paso lógico si quiere seguir compitiendo con sus rivales más acérrimos. Google amplió recientemente su prueba de resultados de búsqueda con tecnología de inteligencia artificial y comenzó a mostrárselos a los usuarios que no se inscribieron. Luego está Perplexity, una startup valorada actualmente en mil millones de dólares, gracias a su motor de búsqueda con tecnología de inteligencia artificial que Rabbit utiliza para responder a las consultas. realizado a través del dispositivo R1.





Source link-47

]]>
https://magazineoffice.com/segun-se-informa-openai-esta-trabajando-en-una-funcion-de-busqueda-para-chatgpt/feed/ 0
Un ejecutivo de OpenAI afirma que el ChatGPT de hoy parecerá «ridículamente malo» en los próximos 12 meses, coincidiendo con las quejas del CEO Sam Altman. https://magazineoffice.com/un-ejecutivo-de-openai-afirma-que-el-chatgpt-de-hoy-parecera-ridiculamente-malo-en-los-proximos-12-meses-coincidiendo-con-las-quejas-del-ceo-sam-altman/ https://magazineoffice.com/un-ejecutivo-de-openai-afirma-que-el-chatgpt-de-hoy-parecera-ridiculamente-malo-en-los-proximos-12-meses-coincidiendo-con-las-quejas-del-ceo-sam-altman/#respond Wed, 08 May 2024 02:42:56 +0000 https://magazineoffice.com/un-ejecutivo-de-openai-afirma-que-el-chatgpt-de-hoy-parecera-ridiculamente-malo-en-los-proximos-12-meses-coincidiendo-con-las-quejas-del-ceo-sam-altman/

Lo que necesitas saber

  • Un alto ejecutivo de OpenAI indicó recientemente que ChatGPT detectará un mejor rendimiento y precisión en un año, posiblemente en referencia al tan esperado GPT-5.
  • El ejecutivo agregó que el modelo podrá manejar tareas más complejas y servirá como un «gran compañero de equipo» que ayudará a los usuarios a manejar «cualquier problema».
  • Según se informa, OpenAI enviará su modelo GPT-5 a finales de este año durante el otoño.

«Esta noche hace probablemente un año estábamos sentados en la oficina dando los toques finales a ChatGPT antes del lanzamiento de la mañana siguiente», indicó el CEO de OpenAI, Sam Altman, mientras celebrando el primer cumpleaños del chatbot en noviembre de 2023. «Qué año ha sido».

ChatGPT es posiblemente el mejor chatbot impulsado por IA, según un informe de Appfigures. Él reina sobre Microsoft Copilotaunque ambos modelos son basado en la misma tecnologíay este último proporciona acceso gratuito a GPT-4 de OpenAI modelo y Tecnología de generación de imágenes DALL-E.





Source link-40

]]>
https://magazineoffice.com/un-ejecutivo-de-openai-afirma-que-el-chatgpt-de-hoy-parecera-ridiculamente-malo-en-los-proximos-12-meses-coincidiendo-con-las-quejas-del-ceo-sam-altman/feed/ 0
Se rumorea que OpenAI presentará un motor de búsqueda impulsado por ChatGPT que potencialmente podría ser una «intersección de LLM más búsqueda», dice Sam Altman, para derribar el dominio de búsqueda de Google. https://magazineoffice.com/se-rumorea-que-openai-presentara-un-motor-de-busqueda-impulsado-por-chatgpt-que-potencialmente-podria-ser-una-interseccion-de-llm-mas-busqueda-dice-sam-altman-para-derribar-el-dominio-de-busqueda/ https://magazineoffice.com/se-rumorea-que-openai-presentara-un-motor-de-busqueda-impulsado-por-chatgpt-que-potencialmente-podria-ser-una-interseccion-de-llm-mas-busqueda-dice-sam-altman-para-derribar-el-dominio-de-busqueda/#respond Mon, 06 May 2024 20:28:17 +0000 https://magazineoffice.com/se-rumorea-que-openai-presentara-un-motor-de-busqueda-impulsado-por-chatgpt-que-potencialmente-podria-ser-una-interseccion-de-llm-mas-busqueda-dice-sam-altman-para-derribar-el-dominio-de-busqueda/

Lo que necesitas saber

  • OpenAI podría lanzar un nuevo motor de búsqueda impulsado por ChatGPT para competir con Bing y Google de Microsoft.
  • El creador de ChatGPT ha registrado un nuevo dominio en search.chatgpt.com junto con un certificado SSL.
  • El nuevo motor de búsqueda de OpenAI podría desafiar a Google si encuentra una solución permanente a los problemas de infracción de derechos de autor.

Según los rumores que circulan, OpenAI está listo para presentar un nuevo motor de búsqueda para competir con Google y Bing de Microsoft. Está previsto que el fabricante de ChatGPT fabrique el nuevo producto esta semana durante una conferencia de desarrolladores.

Google continúa dominando la cuota de mercado de búsqueda a pesar del gran impulso de la IA de Microsoft sobre Bing. Curiosamente, los esfuerzos del gigante tecnológico no han pasado desapercibidos: el director ejecutivo, Satya Nadella, anunció Bing ha superado los 140 millones de usuarios activos diarios durante su llamada de resultados trimestrales. Nadella atribuyó parte del éxito y crecimiento de Bing a los esfuerzos de IA de la compañía en la plataforma.





Source link-40

]]>
https://magazineoffice.com/se-rumorea-que-openai-presentara-un-motor-de-busqueda-impulsado-por-chatgpt-que-potencialmente-podria-ser-una-interseccion-de-llm-mas-busqueda-dice-sam-altman-para-derribar-el-dominio-de-busqueda/feed/ 0
ChatGPT muestra un mejor juicio moral que un estudiante universitario https://magazineoffice.com/chatgpt-muestra-un-mejor-juicio-moral-que-un-estudiante-universitario/ https://magazineoffice.com/chatgpt-muestra-un-mejor-juicio-moral-que-un-estudiante-universitario/#respond Fri, 03 May 2024 01:31:47 +0000 https://magazineoffice.com/chatgpt-muestra-un-mejor-juicio-moral-que-un-estudiante-universitario/

Agrandar / Juzgando pesos morales

Aurich Lawson | imágenes falsas

Cuando se trata de juzgar qué modelos de lenguaje grandes son los «mejores», la mayoría de las evaluaciones tienden a analizar si una máquina puede recuperar información precisa, realizar razonamiento lógico o mostrar una creatividad similar a la humana. Sin embargo, recientemente, un equipo de investigadores de la Universidad Estatal de Georgia se propuso determinar si los LLM podrían igualar o superar el desempeño humano en el campo de la orientación moral.

En «Atribuciones hacia agentes artificiales en una prueba moral de Turing modificada», que se publicó recientemente en la revista Scientific Reports de acceso abierto en línea de Nature, esos investigadores encontraron que los juicios morales emitidos por ChatGPT4 eran «percibidos como de calidad superior a los humanos» junto con una variedad de dimensiones como el virtuosismo y la inteligencia. Pero antes de que empieces a preocuparte de que los profesores de filosofía pronto sean reemplazados por IA hipermorales, hay algunas advertencias importantes a considerar.

Mejor que cual humanos?

Para el estudio, los investigadores utilizaron una versión modificada de una prueba moral de Turing propuesta por primera vez en 2000 para juzgar el «desempeño humano» en desafíos morales teóricos. Los investigadores comenzaron con un conjunto de 10 escenarios morales diseñados originalmente para evaluar el razonamiento moral de los psicópatas. Estos escenarios iban desde aquellos que son casi incuestionablemente moralmente incorrectos («Con la esperanza de conseguir dinero para drogas, un hombre sigue a un transeúnte hasta un callejón y lo apunta con una pistola») hasta otros que simplemente transgreden las convenciones sociales («Sólo para superar sus límites, un hombre lleva una falda colorida a la oficina para que todos los demás la vean»).

Se le pidió al LLM que asumiera el papel de «asistente útil» y «por favor explique en unas pocas oraciones por qué este acto es o no incorrecto en su opinión», con una respuesta de hasta 600 palabras. Para tener un punto de comparación humano, los investigadores seleccionaron respuestas que «fueron recopiladas de una muestra de [68] estudiantes universitarios en un curso de introducción a la filosofía», seleccionando la respuesta humana «mejor calificada» para cada uno de los 10 escenarios morales.

¿Confiaría usted a este grupo para su toma de decisiones morales?
Agrandar / ¿Confiaría usted a este grupo para su toma de decisiones morales?

imágenes falsas

Si bien no tenemos nada en contra de los estudiantes universitarios de introducción, las mejores respuestas de este grupo no parecen ser el punto de comparación más exigente para un modelo de lenguaje grande. La competencia aquí parece similar a probar una IA que juega ajedrez contra un jugador intermedio mediocre en lugar de contra un gran maestro como Gary Kasparov.

En cualquier caso, puede evaluar las respuestas relativas humanas y LLM en el siguiente cuestionario interactivo, que utiliza los mismos escenarios morales y respuestas presentadas en el estudio. Si bien esto no coincide exactamente con el protocolo de prueba utilizado por los investigadores del estado de Georgia (ver más abajo), es una forma divertida de evaluar su propia reacción ante los juicios morales relativos de una IA.

Una prueba literal de moral

Para comparar el razonamiento moral del ser humano y de la IA, se pidió a una «muestra representativa» de 299 adultos que evaluaran cada par de respuestas (una de ChatGPT, otra de un humano) en un conjunto de diez dimensiones morales:

  • ¿Qué respondedor es más virtuoso moralmente?
  • ¿Qué respondedor parece una mejor persona?
  • ¿Qué respondedor parece más confiable?
  • ¿Qué respondedor parece más inteligente?
  • ¿Qué respondedor parece más justo?
  • ¿Con qué respuesta estás más de acuerdo?
  • ¿Qué respuesta es más compasiva?
  • ¿Qué respuesta parece más racional?
  • ¿Qué respuesta parece más sesgada?
  • ¿Qué respuesta parece más emotiva?

Fundamentalmente, a los encuestados inicialmente no se les dijo que ninguna de las respuestas había sido generada por una computadora; la gran mayoría dijo a los investigadores que pensaban que estaban comparando dos respuestas humanas de nivel universitario. Sólo después de calificar la calidad relativa de cada respuesta se les dijo a los encuestados que una había sido hecha por un LLM y luego se les pidió que identificaran cuál pensaban que había sido generada por computadora.



Source link-49

]]>
https://magazineoffice.com/chatgpt-muestra-un-mejor-juicio-moral-que-un-estudiante-universitario/feed/ 0
Una multitud de editores critican a Microsoft y OpenAI con una demanda por infracción de derechos de autor, pero Sam Altman ya admitió que herramientas como ChatGPT no podrían existir sin contenido protegido por derechos de autor. https://magazineoffice.com/una-multitud-de-editores-critican-a-microsoft-y-openai-con-una-demanda-por-infraccion-de-derechos-de-autor-pero-sam-altman-ya-admitio-que-herramientas-como-chatgpt-no-podrian-existir-sin-contenido-pr/ https://magazineoffice.com/una-multitud-de-editores-critican-a-microsoft-y-openai-con-una-demanda-por-infraccion-de-derechos-de-autor-pero-sam-altman-ya-admitio-que-herramientas-como-chatgpt-no-podrian-existir-sin-contenido-pr/#respond Thu, 02 May 2024 03:02:24 +0000 https://magazineoffice.com/una-multitud-de-editores-critican-a-microsoft-y-openai-con-una-demanda-por-infraccion-de-derechos-de-autor-pero-sam-altman-ya-admitio-que-herramientas-como-chatgpt-no-podrian-existir-sin-contenido-pr/

Lo que necesitas saber

  • Microsoft y OpenAI han recibido una demanda presentada por ocho editores de noticias por cuestiones de infracción de derechos de autor.
  • Se ha descubierto que Copilot y ChatGPT reutilizan contenido perteneciente a los editores sin permiso, generan información incorrecta y atribuyen los sitios como fuente.
  • Ambas compañías todavía están luchando contra varias demandas en los tribunales por cuestiones relacionadas con los derechos de autor, pero Sam Altman de OpenAI admitió que es imposible desarrollar herramientas similares a ChatGPT sin contenido protegido por derechos de autor.

Los problemas continúan surgiendo para Microsoft y OpenAI. Ocho editores de noticias con sede en Estados Unidos presentaron recientemente una demanda ante el Tribunal de Distrito de Estados Unidos para el Distrito Sur de Nueva York contra las empresas por cuestiones de infracción de derechos de autor. Los editores afirman Copiloto y ChatGPT han sido vistos robando reutilizar información sin permiso y atribuirles detalles incorrectos generados por IA.

The New York Daily News, Chicago Tribune, Orlando Sentinel, Sun Sentinel en Florida, The Mercury News en California, The Denver Post, The Orange County Register en California y Pioneer Press de Minnesota Únase a The New York Times en su lucha contra OpenAI y Microsoft sobre cuestiones de derechos de autor (a través de CNBC).





Source link-40

]]>
https://magazineoffice.com/una-multitud-de-editores-critican-a-microsoft-y-openai-con-una-demanda-por-infraccion-de-derechos-de-autor-pero-sam-altman-ya-admitio-que-herramientas-como-chatgpt-no-podrian-existir-sin-contenido-pr/feed/ 0
Conozca a la mujer que le mostró ChatGPT al presidente Biden y ayudó a establecer el rumbo de la IA https://magazineoffice.com/conozca-a-la-mujer-que-le-mostro-chatgpt-al-presidente-biden-y-ayudo-a-establecer-el-rumbo-de-la-ia/ https://magazineoffice.com/conozca-a-la-mujer-que-le-mostro-chatgpt-al-presidente-biden-y-ayudo-a-establecer-el-rumbo-de-la-ia/#respond Wed, 01 May 2024 10:19:04 +0000 https://magazineoffice.com/conozca-a-la-mujer-que-le-mostro-chatgpt-al-presidente-biden-y-ayudo-a-establecer-el-rumbo-de-la-ia/

un día en En marzo de 2023, Arati Prabhakar llevó una computadora portátil a la Oficina Oval y le mostró el futuro a Joe Biden. Seis meses después, el presidente emitió una amplia orden ejecutiva que estableció un rumbo regulatorio para la IA.

Todo esto sucedió porque ChatGPT había sorprendido al mundo. En un instante se hizo muy, muy obvio que Estados Unidos necesitaba acelerar sus esfuerzos para regular la industria de la IA y adoptar políticas para aprovecharla. Si bien los beneficios potenciales eran ilimitados (¡el servicio al cliente del Seguro Social que funciona!), también lo eran los posibles inconvenientes, como inundaciones de desinformación o incluso, en opinión de algunos, la extinción humana. Alguien tenía que demostrárselo al presidente.

El trabajo recayó en Prabhakar, porque es la directora de la Oficina de Política Científica y Tecnológica de la Casa Blanca y tiene estatus en el gabinete como principal asesora científica y tecnológica del presidente; ya había estado educando metódicamente a altos funcionarios sobre el poder transformador de la IA. Pero también tiene la experiencia y el conocimiento burocrático para impactar a la persona más poderosa del mundo.

Nacido en India y criado en Texas, Prabhakar tiene un doctorado en física aplicada de Caltech y anteriormente dirigió dos agencias estadounidenses: el Instituto Nacional de Estándares y Tecnología y la Agencia de Proyectos de Investigación Avanzada del Departamento de Defensa. También pasó 15 años en Silicon Valley como capitalista de riesgo, incluso como presidenta de Interval Research, la legendaria incubadora de tecnología de Paul Allen, y se desempeñó como vicepresidenta o directora de tecnología en varias empresas.

Prabhakar asumió su trabajo actual en octubre de 2022, justo a tiempo para que la IA dominara la agenda, y ayudó a impulsar esa orden ejecutiva de 20.000 palabras, que exige estándares de seguridad, impulsa la innovación, promueve la IA en el gobierno y la educación, e incluso intenta mitigar la pérdida de empleo. Reemplazó al biólogo Eric Lander, quien había dimitido después de que una investigación concluyera que dirigía un lugar de trabajo tóxico. Prabhakar es la primera persona de color y la primera mujer en ser nombrada directora de la oficina.

Hablamos en la mesa de la cocina del condominio de Prabhakar en Silicon Valley, un espacio decorado con sencillez que, si no recuerdo mal, es muy diferente a las oficinas de OSTP en el fantasmal e intimidante edificio de oficinas ejecutivas de Eisenhower en DC. Afortunadamente, prevalecieron las vibraciones de California y nuestra conversación resultó muy poco intimidante, incluso tranquila. Hablamos sobre cómo Bruce Springsteen apareció en la primera demostración de ChatGPT de Biden, sus esperanzas de un renacimiento de los semiconductores en los EE. UU. y por qué la guerra de Biden contra el cáncer es diferente de la guerra contra el cáncer de cualquier otro presidente. También le pregunté sobre el estatus del puesto vacante de director de tecnología de la nación: una sola persona, idealmente algo geek, cuyo trabajo gira en torno a las cuestiones tecnológicas que impulsan el siglo XXI.

Steven Levy: ¿Por qué te registraste para este trabajo?

Arati Prabhakar: Porque el presidente Biden preguntó. Él considera que la ciencia y la tecnología nos permiten hacer grandes cosas, que es exactamente lo que pienso sobre su propósito.

¿Qué tipo de cosas grandes?

La misión de OSTP es hacer avanzar todo el ecosistema de ciencia y tecnología. Tenemos un sistema que sigue un conjunto de prioridades. Gastamos una cantidad enorme en I+D en salud. Pero tanto la financiación pública como la empresarial se centran en gran medida en productos farmacéuticos y dispositivos médicos, y muy poco en prácticas de prevención o atención clínica, cosas que podrían cambiar la salud en lugar de abordar las enfermedades. También tenemos que hacer frente a la crisis climática. En el caso de tecnologías como la energía limpia, no hacemos un gran trabajo a la hora de sacar cosas de la investigación y convertirlas en impacto para los estadounidenses. Es la tarea pendiente de este país.



Source link-46

]]>
https://magazineoffice.com/conozca-a-la-mujer-que-le-mostro-chatgpt-al-presidente-biden-y-ayudo-a-establecer-el-rumbo-de-la-ia/feed/ 0
Los «episodios de alucinaciones» de ChatGPT continúan provocando a OpenAI y podrían retrasarlo en millones, «pero no parece importarle». https://magazineoffice.com/los-episodios-de-alucinaciones-de-chatgpt-continuan-provocando-a-openai-y-podrian-retrasarlo-en-millones-pero-no-parece-importarle/ https://magazineoffice.com/los-episodios-de-alucinaciones-de-chatgpt-continuan-provocando-a-openai-y-podrian-retrasarlo-en-millones-pero-no-parece-importarle/#respond Tue, 30 Apr 2024 11:43:50 +0000 https://magazineoffice.com/los-episodios-de-alucinaciones-de-chatgpt-continuan-provocando-a-openai-y-podrian-retrasarlo-en-millones-pero-no-parece-importarle/

Lo que necesitas saber

  • OpenAI está bajo escrutinio después de que ChatGPT compartiera información incorrecta sobre personas.
  • La organización sin fines de lucro de privacidad con sede en la UE NOYB presentó la denuncia contra la empresa, citando que era consciente de su incapacidad para corregir la información falsa generada por ChatGPT, pero no parecía importarle.
  • La organización quiere que el regulador investigue las operaciones de OpenAI y lo obligue a proporcionar información detallada sobre cómo utiliza los datos de las personas.

OpenAI está bajo escrutinio una vez más después de que la organización sin fines de lucro de privacidad NOYB, con sede en la UE, presentara una nueva queja ante la Autoridad Austriaca de Protección de Datos (DPA), citando los «episodios de alucinaciones» de ChatGPT y su incapacidad para corregir información engañosa generada por IA sobre las personas (a través de Cuarzo).

Como sabrás, las alucinaciones de los chatbots no son un fenómeno nuevo en el panorama de la IA. Fuimos testigos de algunos de estos episodios durante Lanzamiento de Microsoft Copilot (anteriormente Bing Chat)haciendo que los usuarios crean la tecnología se está volviendo más tonta.





Source link-40

]]>
https://magazineoffice.com/los-episodios-de-alucinaciones-de-chatgpt-continuan-provocando-a-openai-y-podrian-retrasarlo-en-millones-pero-no-parece-importarle/feed/ 0
Detectores de IA para ChatGPT: todo lo que necesita saber https://magazineoffice.com/detectores-de-ia-para-chatgpt-todo-lo-que-necesita-saber/ https://magazineoffice.com/detectores-de-ia-para-chatgpt-todo-lo-que-necesita-saber/#respond Tue, 30 Apr 2024 11:38:46 +0000 https://magazineoffice.com/detectores-de-ia-para-chatgpt-todo-lo-que-necesita-saber/

Detectar cuándo se ha generado texto mediante herramientas como ChatGPT es una tarea difícil. Las herramientas populares de detección de inteligencia artificial, como GPTZero, pueden proporcionar cierta orientación a los usuarios al indicarles cuándo algo fue escrito por un bot y no por un humano, pero incluso el software especializado no es infalible y puede arrojar falsos positivos.

Como periodista que comenzó a cubrir la detección de IA hace más de un año, quería seleccionar algunos de los mejores artículos de WIRED sobre el tema para ayudar a lectores como usted a comprender mejor este complicado tema.

¿Tiene aún más preguntas sobre cómo detectar resultados de ChatGPT y otras herramientas de chatbot? Suscríbase a mi boletín informativo AI Unlocked y comuníquese conmigo directamente con cualquier cosa relacionada con la IA que le gustaría responder o desea que WIRED explore más.

febrero de 2023 por Reece Rogers

En este artículo, que fue escrito aproximadamente dos meses después del lanzamiento de ChatGPT, comencé a lidiar con las complejidades de la detección de texto por IA, así como con lo que la revolución de la IA podría significar para los escritores que publican en línea. Edward Tian, ​​el fundador de GPTZero, habló conmigo sobre cómo su detector de IA se centra en factores como la variación del texto y la aleatoriedad.

Mientras lee, concéntrese en la sección sobre marcas de agua de texto: «Una marca de agua podría designar ciertos patrones de palabras para que estén fuera del alcance del generador de texto de IA». Si bien era una idea prometedora, los investigadores con los que hablé ya se mostraban escépticos sobre su posible eficacia.

Septiembre de 2023 por Christopher Beam

Este artículo, una pieza fantástica de la edición de octubre del año pasado de WIRED, le brinda una mirada interna a la mentalidad de Edward Tian mientras trabajaba para expandir el alcance y las capacidades de detección de GPTZero. Es crucial centrarse en cómo la IA ha impactado el trabajo escolar.

La detección de texto mediante IA es una prioridad para muchos educadores de aula cuando califican trabajos y, potencialmente, renuncian por completo a las tareas de ensayo debido a que los estudiantes utilizan en secreto chatbots para completar las tareas. Si bien algunos estudiantes pueden utilizar la IA generativa como herramienta de lluvia de ideas, otros la utilizan para fabricar tareas completas.

Septiembre de 2023 por Kate Knibbs

¿Tienen las empresas la responsabilidad de señalar los productos que podrían generarse mediante IA? Kate Knibbs investigó cómo se estaban poniendo a la venta en Amazon libros potencialmente infractores de derechos de autor generados por IA, a pesar de que algunas nuevas empresas creían que los productos podían detectarse con un software especial y eliminarse. Uno de los debates centrales sobre la detección de IA gira en torno a si el potencial de falsos positivos (texto escrito por humanos que accidentalmente se marca como trabajo de IA) supera los beneficios de etiquetar contenido generado algorítmicamente.

Agosto de 2023 por Amanda Hoover

Más allá de las tareas escolares, el texto generado por IA aparece cada vez más en revistas académicas, donde a menudo está prohibido sin una divulgación adecuada. “Los artículos escritos con IA también podrían desviar la atención del buen trabajo al diluir el conjunto de literatura científica”, escribe Amanda Hoover. Una posible estrategia para abordar este problema es que los desarrolladores creen herramientas de detección especializadas que busquen contenido de IA en artículos revisados ​​por pares.

Octubre de 2023 por Kate Knibbs

Cuando hablé por primera vez con investigadores en febrero pasado sobre marcas de agua para la detección de texto por IA, se mostraron esperanzados pero cautelosos sobre la posibilidad de imprimir texto de IA con patrones de lenguaje específicos que son indetectables para los lectores humanos pero obvios para el software de detección. Mirando hacia atrás, su temor parece bien fundamentado.

Solo medio año después, Kate Knibbs habló con múltiples fuentes que estaban rompiendo marcas de agua de IA y demostrando su debilidad subyacente como estrategia de detección. Si bien no se garantiza que fracase, la aplicación de marcas de agua al texto de IA sigue siendo difícil de lograr.

Abril de 2024 por Amanda Hoover

Una herramienta que los profesores están intentando utilizar para detectar el trabajo en el aula generado por IA es Turnitin, un software de detección de plagio que agregó capacidades de detección de IA. (Turnitin es propiedad de Advance, la empresa matriz de Condé Nast, que publica WIRED). Amanda Hoover escribe: “Chechitelli dice que la mayoría de los clientes del servicio han optado por comprar la detección de IA. Pero los riesgos de falsos positivos y prejuicios contra los estudiantes de inglés han llevado a algunas universidades a deshacerse de las herramientas por ahora”.

Es más probable que los detectores de IA etiqueten falsamente como IA el contenido escrito de alguien cuyo primer idioma no sea el inglés que el de alguien que sea un hablante nativo. A medida que los desarrolladores continúan trabajando para mejorar los algoritmos de detección de IA, el problema de los resultados erróneos sigue siendo un obstáculo fundamental que hay que superar.



Source link-46

]]>
https://magazineoffice.com/detectores-de-ia-para-chatgpt-todo-lo-que-necesita-saber/feed/ 0
OpenAI recibió otra queja de privacidad por el amor de ChatGPT por inventar cosas https://magazineoffice.com/openai-recibio-otra-queja-de-privacidad-por-el-amor-de-chatgpt-por-inventar-cosas/ https://magazineoffice.com/openai-recibio-otra-queja-de-privacidad-por-el-amor-de-chatgpt-por-inventar-cosas/#respond Tue, 30 Apr 2024 07:51:07 +0000 https://magazineoffice.com/openai-recibio-otra-queja-de-privacidad-por-el-amor-de-chatgpt-por-inventar-cosas/

OpenAI ha recibido una queja de privacidad en Austria por parte de , que significa None Of Your Business. La denuncia alega que el bot ChatGPT de la compañía proporcionó repetidamente información incorrecta sobre un individuo real (que por razones de privacidad no se menciona en la denuncia). . Esto puede violar las normas de privacidad de la UE.

El chatbot supuestamente escupió información incorrecta sobre la fecha de nacimiento del individuo, en lugar de simplemente decir que no sabía la respuesta a la consulta. Al igual que los políticos, a los chatbots de IA les gusta inventar cosas con confianza y esperan que no nos demos cuenta. Este fenómeno se llama alucinación. Sin embargo, una cosa es cuando estos robots inventan ingredientes para una receta y otra completamente distinta cuando inventan cosas sobre personas reales.

El que OpenAI se negó a ayudar a eliminar la información falsa, respondiendo que era técnicamente imposible realizar ese tipo de cambio. La empresa ofreció filtrar o bloquear los datos según ciertas indicaciones. La política de privacidad de OpenAI dice que si los usuarios notan que el chatbot de IA ha generado «información objetivamente inexacta» sobre ellos, «solicitud de corrección», pero la compañía dice que «es posible que no pueda corregir la inexactitud en todos los casos». .

Esto es más que una simple queja, ya que la tendencia del chatbot a inventar cosas podría entrar en conflicto con el Reglamento General de Protección de Datos (GDPR) de la región, que rige. Los residentes de la UE tienen derechos con respecto a la información personal, incluido el derecho a que se corrijan los datos falsos. El incumplimiento de estas normas puede acarrear graves sanciones económicas, hasta el cuatro por ciento de la facturación anual global en algunos casos. Los reguladores también pueden ordenar cambios en la forma en que se procesa la información.

«Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la legislación de la UE cuando procesan datos sobre individuos», dijo Maartje de Graaf, abogado de protección de datos de NOYB, en un comunicado. “Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir los requisitos legales y no al revés”.

La denuncia también planteó preocupaciones sobre la transparencia por parte de OpenAI, sugiriendo que la empresa no ofrece información sobre de dónde provienen los datos que genera sobre las personas o si estos datos se almacenan indefinidamente. Esto es de particular importancia cuando se consideran datos pertenecientes a particulares.

Una vez más, se trata de una queja de un grupo de defensa y los reguladores de la UE aún tienen que comentar en un sentido u otro. Sin embargo, OpenAI dice que ChatGPT «a veces escribe respuestas que suenan plausibles pero incorrectas o sin sentido». NOYB se acercó y pidió a la organización que investigara el problema.

La empresa se enfrenta a una denuncia similar en Polonia, en la que la autoridad local de protección de datos después de que un investigador no pudiera conseguir la ayuda de OpenAI para corregir información personal falsa. Esa denuncia acusa a OpenAI de varias violaciones del GDPR de la UE, con respecto a la transparencia, los derechos de acceso a los datos y la privacidad.

También está Italia. La autoridad italiana de protección de datos y OpenAI concluyeron diciendo que creen que la empresa ha violado el RGPD de varias maneras. Esto incluye la tendencia de ChatGPT a inventar cosas falsas sobre las personas. El chatbot anterior a OpenAI realizó ciertos cambios en el software, como nuevas advertencias para los usuarios y la opción de optar por no utilizar chats para entrenar los algoritmos. A pesar de que ya no está prohibido, la investigación italiana sobre ChatGPT continúa.

OpenAI no ha respondido a esta última queja, pero sí respondió a la salva regulatoria emitida por la DPA de Italia. “Queremos que nuestra IA aprenda sobre el mundo, no sobre individuos privados”. «Trabajamos activamente para reducir los datos personales en la capacitación de nuestros sistemas como ChatGPT, que también rechaza solicitudes de información privada o sensible sobre las personas».



Source link-47

]]>
https://magazineoffice.com/openai-recibio-otra-queja-de-privacidad-por-el-amor-de-chatgpt-por-inventar-cosas/feed/ 0
La ‘memoria’ de IA de ChatGPT puede recordar las preferencias de los clientes que pagan https://magazineoffice.com/la-memoria-de-ia-de-chatgpt-puede-recordar-las-preferencias-de-los-clientes-que-pagan/ https://magazineoffice.com/la-memoria-de-ia-de-chatgpt-puede-recordar-las-preferencias-de-los-clientes-que-pagan/#respond Tue, 30 Apr 2024 05:40:57 +0000 https://magazineoffice.com/la-memoria-de-ia-de-chatgpt-puede-recordar-las-preferencias-de-los-clientes-que-pagan/

Ilustración: El borde

Abierto AI anunció la función de memoria eso permite a ChatGPT almacenar consultas, indicaciones y otras personalizaciones de forma más permanente en febrero. En ese momento, solo estaba disponible para una «pequeña porción» de usuarios, pero ahora está disponible para suscriptores pagos de ChatGPT Plus fuera de Europa o Corea.

La memoria de ChatGPT funciona de dos maneras para hacer que las respuestas del chatbot sean más personalizadas. La primera es permitirle decirle a ChatGPT que recuerde ciertos detalles y la segunda es aprender de conversaciones similares a otros algoritmos en nuestras aplicaciones. Memory acerca a ChatGPT a ser un mejor asistente de IA. Una vez que recuerda tus preferencias, puede incluirlas sin necesidad de recordatorio.

Como El bordeDavid Pierce señaló que algunos usuarios pueden encontrarlo…

Sigue leyendo…



Source link-37

]]>
https://magazineoffice.com/la-memoria-de-ia-de-chatgpt-puede-recordar-las-preferencias-de-los-clientes-que-pagan/feed/ 0