El sueño de la inteligencia artificial ha aterrizado en nuestra vida cotidiana y, como consecuencia, las discusiones éticas en torno a la IA se han intensificado, especialmente en relación con la cantidad de datos que estos servicios de IA recopilan de los usuarios. Después de todo, donde hay un almacenamiento masivo de información posiblemente confidencial, existen problemas de ciberseguridad y privacidad.
El motor de búsqueda Bing de Microsoft, que está recientemente equipado con ChatGPT de OpenAI y actualmente se está implementando, ha generado su propio conjunto de preocupaciones, ya que Microsoft no ha tenido el mejor historial en lo que respecta a respetar la privacidad de sus clientes.
Microsoft ha sido cuestionado ocasionalmente sobre su gestión y acceso a los datos de los usuarios, aunque notablemente menos que sus contemporáneos como Apple, Google y Facebook, a pesar de que maneja una gran cantidad de información de los usuarios, incluso cuando vende anuncios dirigidos.
Ha sido blanco de ciertos organismos y organizaciones reguladores gubernamentales, como cuando Francia exigió que Microsoft dejara de rastrear a los usuarios a través de Windows 10, y la compañía respondió con un conjunto de medidas integrales.
Jennifer King, directora de privacidad del consumidor en el Centro para Internet y la Sociedad de la Facultad de Derecho de Stanford, especuló que esto se debe en parte a la posición de larga data de Microsoft tanto en su mercado respectivo como a las relaciones de larga data con los gobiernos que se le otorgan debido a su legado. Tiene más experiencia en el trato con los reguladores, por lo que podría haber evitado el mismo nivel de escrutinio que sus competidores.
Una afluencia de datos
Microsoft, al igual que otras empresas, ahora se ve obligada a reaccionar ante una afluencia masiva de datos de chat de usuarios debido a la popularidad de chatbots como ChatGPT. De acuerdo con la Telégrafo, Microsoft tiene revisores que analizan los envíos de los usuarios (se abre en una pestaña nueva) para limitar el daño y responder a entradas de usuarios potencialmente peligrosas al revisar los registros de conversaciones de los usuarios con el chatbot e intervenir para moderar el «comportamiento inapropiado».
La compañía afirma que elimina los envíos de información personal, los textos de chat de los usuarios solo son accesibles para ciertos revisores y estos esfuerzos protegen a los usuarios incluso cuando sus conversaciones con el chatbot están bajo revisión.
Un portavoz de Microsoft explicó que emplea tanto esfuerzos de revisión automatizados (ya que hay una gran cantidad de datos para analizar) como revisores manuales. Continúa afirmando que este es el estándar para los motores de búsqueda y también se incluye en la declaración de privacidad de Microsoft.
El portavoz se esfuerza por asegurar a los interesados que Microsoft emplea medidas de privacidad de usuario estándar de la industria, como «seudonimización, cifrado en reposo, gestión de acceso a datos segura y aprobada y procedimientos de retención de datos».
Además, los revisores solo pueden ver los datos de los usuarios sobre la base de «una necesidad comercial verificada únicamente, y no de terceros». Desde entonces, Microsoft actualizó su declaración de privacidad para resumir y aclarar lo anterior: se recopila información del usuario y es posible que los empleados humanos de Microsoft puedan verla.
Bajo el punto de mira
Microsoft no es la única empresa bajo escrutinio sobre cómo recopila y maneja los datos de los usuarios cuando se trata de chatbots de IA. OpenAI, la empresa que creó ChatGPT, también reveló que revisa las conversaciones de los usuarios.
Recientemente, la compañía detrás de Snapchat anunció que estaba presentando un chatbot equipado con ChatGPT que se parecerá a su formato de chat de mensajería ya familiar. Ha advertido a los usuarios que no envíen información confidencial personal, posiblemente por razones similares.
Estas preocupaciones se multiplican cuando se considera el uso de ChatGPT y bots equipados con ChatGPT por parte de quienes trabajan en empresas con su propia información sensible y confidencial, muchos de los cuales han advertido a los empleados que no envíen información confidencial de la empresa a estos chatbots. Algunas empresas, como JP Morgan y Amazon (se abre en una pestaña nueva)han restringido o prohibido por completo su uso en el trabajo.
Los datos personales de los usuarios han sido, y continúan siendo, un tema clave en la tecnología en general. El uso indebido de datos, o incluso el uso malicioso de datos, puede tener consecuencias nefastas tanto para las personas individuales como para las organizaciones. Con cada introducción de una nueva tecnología, estos riesgos aumentan, pero también lo hace la recompensa potencial.
Las empresas tecnológicas harían bien en prestar especial atención para asegurarse de que nuestros datos personales estén lo más seguros posible, o perderían la confianza de sus clientes y podrían acabar con sus incipientes ambiciones de IA.