{"id":702025,"date":"2023-06-26T15:00:51","date_gmt":"2023-06-26T15:00:51","guid":{"rendered":"https:\/\/magazineoffice.com\/chatgpt-obtiene-una-multa-de-5000-de-un-fiscal-de-los-ee-uu-por-actuar-en-citas-de-casos-falsos\/"},"modified":"2023-06-26T15:00:57","modified_gmt":"2023-06-26T15:00:57","slug":"chatgpt-obtiene-una-multa-de-5000-de-un-fiscal-de-los-ee-uu-por-actuar-en-citas-de-casos-falsos","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/chatgpt-obtiene-una-multa-de-5000-de-un-fiscal-de-los-ee-uu-por-actuar-en-citas-de-casos-falsos\/","title":{"rendered":"ChatGPT obtiene una multa de $ 5,000 de un fiscal de los EE. UU. por actuar en citas de casos falsos"},"content":{"rendered":"


\n<\/p>\n

\n

ChatGPT es uno de los mejores, si no el mejor, trucos de IA que uno puede usar y, sinceramente, lo he usado en varias ocasiones para obtener algunos datos. Sin embargo, lo \u00fanico que nunca usar\u00eda la plataforma es acceder a cualquier cosa que de otro modo podr\u00eda resultar inofensiva. Por ejemplo, en el pasado, hemos visto abogados que obtienen ayuda de este chatbot de IA y se meten en problemas, y aunque uno podr\u00eda imaginar que una vez que se sienta el precedente, la gente se detendr\u00eda, pero ese no parece ser el caso.<\/p>\n

Otro abogado se encuentra en problemas despu\u00e9s de citar informaci\u00f3n de ChatGPT que muestra cu\u00e1n poco confiables pueden ser los chatbots de IA en tales casos.<\/h2>\n

Resulta que un abogado estadounidense, Steven Schwartz, se meti\u00f3 a s\u00ed mismo y a otras partes en problemas despu\u00e9s de usar algunos puntos que hab\u00eda tomado de ChatGPT. Esto result\u00f3 en una multa de $5,000 a Schwartz, junto con otras personas involucradas en esto.<\/p>\n

El tribunal descubri\u00f3 r\u00e1pidamente que las citas generadas por ChatGPT que Schwartz us\u00f3 en el caso eran falsas. Esto significa que Schwartz tuvo acceso a todas las citaciones falsas y pas\u00f3 a presentar el caso con estas citaciones a la mano. Este error result\u00f3 en una multa de $5,000.<\/p>\n

Pero, \u00bfc\u00f3mo sucedi\u00f3 todo esto? Bueno, aqu\u00ed es donde las cosas se ponen un poco divertidas y, sinceramente, tambi\u00e9n tristes. El cliente de Steven Schwartz estaba demandando a la aerol\u00ednea colombiana Avianca y, por alguna raz\u00f3n, Schwartz decidi\u00f3 obtener m\u00e1s informaci\u00f3n sobre casos similares de ChatGPT en lugar de hacer su propia tarea. Este no fue ni siquiera el mayor error. El mayor error fue cuando Schwartz decidi\u00f3 confiar en los resultados que le dio el chatbot de IA en lugar de examinar los resultados. Esto result\u00f3 en que \u00e9l presentara sus hallazgos a la corte, y bueno, ah\u00ed es donde su caso se vino abajo.<\/p>\n

Ver\u00e1, ChatGPT le dio a Schwartz casos judiciales falsos que eran similares a los que estaba tratando. Cuando la corte investig\u00f3 un poco, descubri\u00f3 que los casos en realidad nunca existieron y eso result\u00f3 en que Schwartz fuera multado con $ 5,000 junto con sus asociados. Esta no es la primera vez que sucede algo as\u00ed, ya que hemos informado de un incidente similar en el pasado.<\/p>\n

Honestamente, esto no es nada nuevo. ChatGPT, junto con todos los dem\u00e1s modelos de lenguaje grandes, tiende a manipular la informaci\u00f3n cuando no tienen datos para formular una respuesta correcta. En el caso de Steven Schwartz, los datos que se le proporcionaron eran incorrectos en todos los sentidos, y aunque el juez presidente mencion\u00f3 que el uso de la tecnolog\u00eda se est\u00e1 volviendo mucho m\u00e1s com\u00fan y, si bien no tiene nada de malo, recae completamente en al abogado de verificar la informaci\u00f3n que se le ha proporcionado, y al no hacerlo, ha \u00ababandonado sus responsabilidades\u00bb. En el futuro, realmente espero que dejemos de ver que estos problemas se conviertan en una pr\u00e1ctica com\u00fan porque esto definitivamente puede causar un problema no solo para los abogados, sino para muchas otras personas en diferentes campos.<\/p>\n

Fuente: Engadget<\/p>\n

\n

\t\t\t\tComparte esta historia<\/p>\n

<\/svg> Facebook<\/p>\n

<\/svg> Gorjeo<\/p>\n<\/p><\/div>\n<\/p><\/div>\n


\n
Source link-29 <\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

ChatGPT es uno de los mejores, si no el mejor, trucos de IA que uno puede usar y, sinceramente, lo he usado en varias ocasiones para obtener algunos datos. Sin…<\/p>\n","protected":false},"author":1,"featured_media":702026,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[19819,7233,65604,2993,6030,6222,8,5329,609,110,73],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/702025"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=702025"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/702025\/revisions"}],"predecessor-version":[{"id":702027,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/702025\/revisions\/702027"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/702026"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=702025"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=702025"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=702025"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}