ChatGPT obtiene una multa de $ 5,000 de un fiscal de los EE. UU. por actuar en citas de casos falsos


ChatGPT es uno de los mejores, si no el mejor, trucos de IA que uno puede usar y, sinceramente, lo he usado en varias ocasiones para obtener algunos datos. Sin embargo, lo único que nunca usaría la plataforma es acceder a cualquier cosa que de otro modo podría resultar inofensiva. Por ejemplo, en el pasado, hemos visto abogados que obtienen ayuda de este chatbot de IA y se meten en problemas, y aunque uno podría imaginar que una vez que se sienta el precedente, la gente se detendría, pero ese no parece ser el caso.

Otro abogado se encuentra en problemas después de citar información de ChatGPT que muestra cuán poco confiables pueden ser los chatbots de IA en tales casos.

Resulta que un abogado estadounidense, Steven Schwartz, se metió a sí mismo y a otras partes en problemas después de usar algunos puntos que había tomado de ChatGPT. Esto resultó en una multa de $5,000 a Schwartz, junto con otras personas involucradas en esto.

El tribunal descubrió rápidamente que las citas generadas por ChatGPT que Schwartz usó en el caso eran falsas. Esto significa que Schwartz tuvo acceso a todas las citaciones falsas y pasó a presentar el caso con estas citaciones a la mano. Este error resultó en una multa de $5,000.

Pero, ¿cómo sucedió todo esto? Bueno, aquí es donde las cosas se ponen un poco divertidas y, sinceramente, también tristes. El cliente de Steven Schwartz estaba demandando a la aerolínea colombiana Avianca y, por alguna razón, Schwartz decidió obtener más información sobre casos similares de ChatGPT en lugar de hacer su propia tarea. Este no fue ni siquiera el mayor error. El mayor error fue cuando Schwartz decidió confiar en los resultados que le dio el chatbot de IA en lugar de examinar los resultados. Esto resultó en que él presentara sus hallazgos a la corte, y bueno, ahí es donde su caso se vino abajo.

Verá, ChatGPT le dio a Schwartz casos judiciales falsos que eran similares a los que estaba tratando. Cuando la corte investigó un poco, descubrió que los casos en realidad nunca existieron y eso resultó en que Schwartz fuera multado con $ 5,000 junto con sus asociados. Esta no es la primera vez que sucede algo así, ya que hemos informado de un incidente similar en el pasado.

Honestamente, esto no es nada nuevo. ChatGPT, junto con todos los demás modelos de lenguaje grandes, tiende a manipular la información cuando no tienen datos para formular una respuesta correcta. En el caso de Steven Schwartz, los datos que se le proporcionaron eran incorrectos en todos los sentidos, y aunque el juez presidente mencionó que el uso de la tecnología se está volviendo mucho más común y, si bien no tiene nada de malo, recae completamente en al abogado de verificar la información que se le ha proporcionado, y al no hacerlo, ha «abandonado sus responsabilidades». En el futuro, realmente espero que dejemos de ver que estos problemas se conviertan en una práctica común porque esto definitivamente puede causar un problema no solo para los abogados, sino para muchas otras personas en diferentes campos.

Fuente: Engadget

Comparte esta historia

Facebook

Gorjeo



Source link-29