{"id":821377,"date":"2023-09-25T12:53:39","date_gmt":"2023-09-25T12:53:39","guid":{"rendered":"https:\/\/magazineoffice.com\/ahora-puedes-solicitar-chatgpt-con-imagenes-y-comandos-de-voz\/"},"modified":"2023-09-25T12:54:23","modified_gmt":"2023-09-25T12:54:23","slug":"ahora-puedes-solicitar-chatgpt-con-imagenes-y-comandos-de-voz","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/ahora-puedes-solicitar-chatgpt-con-imagenes-y-comandos-de-voz\/","title":{"rendered":"Ahora puedes solicitar ChatGPT con im\u00e1genes y comandos de voz"},"content":{"rendered":"


\n<\/p>\n

\n

La mayor\u00eda de los cambios de OpenAI en ChatGPT involucran lo que el robot impulsado por IA puede hacer hacer<\/em>: preguntas que puede responder, informaci\u00f3n<\/a> puede acceder y modelos subyacentes mejorados<\/a>. Esta vez, sin embargo, se trata de modificar la forma en que usa ChatGPT. La compa\u00f1\u00eda est\u00e1 lanzando una nueva versi\u00f3n del servicio que le permite avisar al robot de IA no solo escribiendo oraciones en un cuadro de texto, sino hablando en voz alta o simplemente cargando una imagen. Las nuevas funciones se est\u00e1n implementando para aquellos que pagar por ChatGPT<\/a> en las pr\u00f3ximas dos semanas, y todos los dem\u00e1s lo obtendr\u00e1n \u201cpoco despu\u00e9s\u201d, seg\u00fan OpenAI.<\/p>\n<\/div>\n

\n

La parte del chat de voz es bastante familiar: tocas un bot\u00f3n y dices tu pregunta, ChatGPT la convierte en texto y la env\u00eda al modelo de lenguaje grande, obtiene una respuesta, la convierte nuevamente en voz y pronuncia la respuesta en voz alta. Deber\u00eda sentirse como hablar con Alexa o el Asistente de Google, solo que, espera OpenAI, las respuestas ser\u00e1n mejores gracias a la tecnolog\u00eda subyacente mejorada. Parece que la mayor\u00eda de los asistentes virtuales est\u00e1n siendo reconstruido para depender de LLM<\/a> \u2013 OpenAI est\u00e1 justo por delante del juego.<\/p>\n<\/div>\n

\n

OpenAI excelente modelo susurro<\/a> hace gran parte del trabajo de conversi\u00f3n de voz a texto, y la compa\u00f1\u00eda est\u00e1 lanzando un nuevo modelo de conversi\u00f3n de texto a voz que, seg\u00fan dice, puede generar \u00abaudio similar al humano a partir de solo texto y unos segundos de muestra de voz\u00bb. Podr\u00e1s elegir la voz de ChatGPT entre cinco opciones, pero OpenAI parece pensar que el modelo tiene mucho m\u00e1s potencial que eso. OpenAI est\u00e1 trabajando con Spotify para traducir podcasts<\/a> a otros idiomas, por ejemplo, manteniendo el sonido de la voz del podcaster. Hay un mont\u00f3n de usos interesantes para voces sint\u00e9ticas<\/a>y OpenAI podr\u00eda ser una gran parte de esa industria.<\/p>\n<\/div>\n

\n

Pero el hecho de que puedas crear una voz sint\u00e9tica capaz con s\u00f3lo unos segundos de audio tambi\u00e9n abre la puerta a todo tipo de casos de uso problem\u00e1ticos. \u00abEstas capacidades tambi\u00e9n presentan nuevos riesgos, como la posibilidad de que actores maliciosos se hagan pasar por figuras p\u00fablicas o cometan fraude\u00bb, dice la compa\u00f1\u00eda en una publicaci\u00f3n de blog que anuncia las nuevas funciones. El modelo no est\u00e1 disponible para un uso amplio precisamente por esa raz\u00f3n, dice OpenAI: estar\u00e1 mucho m\u00e1s controlado y restringido a casos de uso y asociaciones espec\u00edficos.<\/p>\n<\/div>\n

\n

La b\u00fasqueda de im\u00e1genes, por su parte, es un poco como lente de google<\/a>. Tomas una foto de lo que sea que te interese y ChatGPT intentar\u00e1 descubrir qu\u00e9 est\u00e1s preguntando y responder en consecuencia. Tambi\u00e9n puede utilizar la herramienta de dibujo de la aplicaci\u00f3n para aclarar su consulta, o hablar o escribir preguntas que vayan acompa\u00f1adas de la imagen. Aqu\u00ed es donde la naturaleza de ida y vuelta de ChatGPT es \u00fatil: en lugar de hacer una b\u00fasqueda, obtener la respuesta incorrecta y luego hacer otra b\u00fasqueda, puedes avisar al bot y refinar la respuesta a medida que avanzas. (Esto se parece mucho a lo que es Google haciendo con la b\u00fasqueda multimodal<\/a>tambi\u00e9n.) <\/p>\n<\/div>\n

\n

Obviamente, la b\u00fasqueda de im\u00e1genes tambi\u00e9n tiene sus posibles problemas. Uno es lo que podr\u00eda suceder cuando le preguntas a un chatbot sobre una persona: OpenAI dice que ha limitado deliberadamente la \u201ccapacidad de ChatGPT para analizar y hacer declaraciones directas sobre las personas\u201d tanto para razones de precisi\u00f3n y privacidad<\/a>. Eso significa una de las visiones m\u00e1s de ciencia ficci\u00f3n de la IA: la capacidad de mirar a alguien y decir: \u00ab\u00bfQui\u00e9n es?\u00bb. – no llegar\u00e1 pronto. Lo cual es probablemente algo bueno.<\/p>\n<\/div>\n

\n

Casi un a\u00f1o despu\u00e9s del lanzamiento inicial de ChatGPT, OpenAI parece estar todav\u00eda tratando de descubrir c\u00f3mo darle a su bot m\u00e1s caracter\u00edsticas y capacidades sin crear nuevos problemas y desventajas. Con estos lanzamientos, la compa\u00f1\u00eda intent\u00f3 seguir esa l\u00ednea limitando deliberadamente lo que pod\u00edan hacer sus nuevos modelos. Pero ese enfoque no funcionar\u00e1 para siempre. A medida que m\u00e1s personas utilicen el control por voz y la b\u00fasqueda de im\u00e1genes, y que ChatGPT se acerque cada vez m\u00e1s a ser un asistente virtual \u00fatil y verdaderamente multimodal, ser\u00e1 cada vez m\u00e1s dif\u00edcil mantener las barreras.<\/p>\n<\/div>\n


\n
Source link-37 <\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

La mayor\u00eda de los cambios de OpenAI en ChatGPT involucran lo que el robot impulsado por IA puede hacer hacer: preguntas que puede responder, informaci\u00f3n puede acceder y modelos subyacentes…<\/p>\n","protected":false},"author":1,"featured_media":821378,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[6,65604,30011,133,666,2216,39432,3869],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/821377"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=821377"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/821377\/revisions"}],"predecessor-version":[{"id":821379,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/821377\/revisions\/821379"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/821378"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=821377"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=821377"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=821377"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}