Google ha emitido una advertencia a su personal sobre los riesgos asociados con el uso de Bard, el propio chatbot de la empresa


Alphabet, la empresa matriz de Google, emitió una advertencia a sus empleados sobre no usar Bard, el propio chatbot de Google que ha estado ganando algo de popularidad durante algún tiempo. El motivo de esta advertencia es simple, la empresa no quiere que los empleados ingresen información confidencial o sensible en el chatbot y también ha hablado sobre los riesgos asociados con el uso de estas herramientas. Esta no es la primera vez que una empresa presenta tales preocupaciones, y por las razones correctas, ya que estos chatbots aprenden y evolucionan continuamente, pero al mismo tiempo, tienden a cometer errores.

Después de Samsung, incluso Google advierte a sus empleados contra el uso de chatbots como Bard

Además de no utilizar los chatbots de forma extensiva con información confidencial en riesgo, Google también ha aconsejado a los ingenieros que eviten utilizar el código proporcionado por el chatbot directamente. En pocas palabras, aunque el código proporcionado por Bard u otros chatbots puede ser preciso, siempre existe el riesgo de que el código sea incorrecto, lo que daría lugar a errores y resultados que no son los que esperan los ingenieros.

Con esto en mente, Google no es la única empresa que ha advertido contra el uso de chatbots de IA. Samsung ha prohibido a sus empleados usar ChatGPT o cualquier otro chatbot por la misma preocupación. Al mismo tiempo, hemos escuchado que la empresa está trabajando en el desarrollo de su propio modelo de lenguaje grande, por lo que es posible que veamos algo muy pronto en el futuro. Apple también ha restringido a los empleados el uso de Bard, por lo que es seguro decir que las preocupaciones son reales.

Entiendo las preocupaciones sobre el uso de chatbots, especialmente para grandes empresas como Apple, Samsung y Google. Especialmente cuando los empleados tienen acceso a mucha información que no debería divulgarse. Con suerte, esto evitará que la información confidencial y sensible caiga en las manos equivocadas porque, en este punto, no se trata solo de que se filtren productos, sino que hay mucho más en juego.

Los riesgos asociados con el uso de chatbots hacen bastante evidente que no son las ofertas más confiables que existen en términos de brindarle pruebas concretas. Y, definitivamente, enviar información confidencial a un bot de chat no es algo que le sugiramos a nadie porque puede hacer que la información se convierta en una parte permanente del bot y llegue a manos de otra persona.

Fuente: Reuters

Comparte esta historia

Facebook

Gorjeo



Source link-29