Parece que a pesar del impulso masivo para aumentar su propia cuota de mercado en el verso de los chatbots de IA, la empresa matriz de Google, Alphabet, ha estado advirtiendo a su propio personal sobre los peligros de los chatbots de IA.
“La empresa matriz de Google aconsejó a los empleados que no ingresen sus materiales confidenciales en los chatbots de IA” y advirtió a “sus ingenieros que eviten el uso directo del código de computadora que pueden generar los chatbots”, según un informe de Reuters. El motivo de estas precauciones de seguridad, que un número cada vez mayor de empresas y organizaciones han estado advirtiendo a sus trabajadores sobre estos programas de chat disponibles públicamente, es doble.
Una es que los revisores humanos, que se ha descubierto que esencialmente potencian los chatbots como ChatGPT, podría leer datos confidenciales ingresados en los chats. Otra razón es que los investigadores encontraron AI podría reproducir los datos que absorbió y crear un riesgo de fuga. Google declaró a Reuters que “pretendía ser transparente sobre las limitaciones de su tecnología”.
Mientras tanto, Google ha estado implementando su propio chatbot. Bardo de Google a 180 países y en más de 40 idiomas, con miles de millones de dólares en inversión, así como publicidad e ingresos en la nube de sus programas de IA. también ha sido expandiendo su conjunto de herramientas de IA a otros productos de Google como Maps y Lens, a pesar de las reservas de algunos líderes en torno a los posibles desafíos de seguridad interna que presentan los programas.
La dualidad de Google
Una de las razones por las que Google está tratando de tener ambas cosas es para evitar cualquier daño comercial potencial. Como se indicó anteriormente, el gigante tecnológico ha invertido mucho en esta tecnología, y cualquier controversia importante o error de seguridad podría costarle a Google una gran cantidad de dinero.
Otras empresas han estado intentando establecer estándares similares sobre cómo sus empleados interactúan con la IA del chatbot en el trabajo. Algunos han confirmado esta noción con Reuters, incluidos Samsung, Amazon y Deutsche Bank. Apple no lo confirmó pero tiene supuestamente hizo lo mismo.
De hecho, Samsung prohibió ChatGPT por completo y otra IA generativa de su lugar de trabajo después de que supuestamente sufrió tres incidentes de empleados que filtraron información confidencial a través de ChatGPT a principios de 2023. Esto es especialmente dañino ya que el chatbot retiene los datos ingresados, lo que significa que los secretos comerciales internos de Samsung ahora están esencialmente en manos de OpenAI. .
Aunque parece bastante hipócrita, hay muchas razones por las que Google y otras empresas son internamente tan cautelosas con los chatbots de IA. Sin embargo, desearía poder extender esa precaución a la rapidez con la que se desarrolla y promueve públicamente esa misma tecnología.