Calmara sugiere que puede detectar ITS con fotografías de genitales: una idea peligrosa


Te fuiste a casa con una cita de Tinder y las cosas están empeorando. Realmente no conoces ni confías en este tipo, y no quieres contraer una ITS, así que… ¿y ahora qué?

Una empresa llamada Calmara quiere que tomes una foto del pene del chico y luego uses su IA para decirte si tu pareja es «clara» o no.

Dejemos algo claro desde el principio: no debes tomar una fotografía de los genitales de nadie y escanearla con una herramienta de inteligencia artificial para decidir si debes tener relaciones sexuales o no.

La premisa de Calmara tiene más señales de alerta que una mala primera cita, pero a partir de ahí empeora aún más si se tiene en cuenta que la mayoría de las ITS son asintomáticas. Entonces, tu pareja bien podría tener una ITS, pero Calmara te diría que está libre de problemas. Es por eso que las pruebas de ITS reales utilizan muestras de sangre y orina para detectar infecciones, en lugar de un examen visual.

Otras nuevas empresas están abordando la necesidad de pruebas de ITS accesibles de una manera más responsable.

«Con el diagnóstico de laboratorio, la sensibilidad y la especificidad son dos medidas clave que nos ayudan a comprender la propensión de la prueba a omitir infecciones y a falsos positivos», dijo a TechCrunch Daphne Chen, fundadora de TBD Health. «Siempre hay cierto nivel de falibilidad, incluso con pruebas muy rigurosas, pero los fabricantes de pruebas como Roche son sinceros con sus tasas de validación por una razón: para que los médicos puedan contextualizar los resultados».

En letra pequeña, Calmara advierte que sus hallazgos no deben sustituir el consejo médico. Pero su marketing sugiere lo contrario. Antes de que TechCrunch se acercara a Calmara, el título de su sitio web decía: «Calmara: tu mejor amiga íntima para el sexo sin protección» (desde entonces se actualizó para decir «Sexo más seguro»). Y en un video promocional, se describe a sí mismo como «El ¡SITIO WEB PERFECTO para CONECTARSE!”

La cofundadora y directora ejecutiva, Mei-Ling Lu, dijo a TechCrunch que Calmara no estaba pensada como una herramienta médica seria. “Calmara es un producto de estilo de vida, no una aplicación médica. No implica ninguna condición médica ni discusiones dentro de su marco, y ningún médico está involucrado en la experiencia actual de Calmara. Es un servicio de información gratuito”.

«Estamos actualizando las comunicaciones para reflejar mejor nuestras intenciones en este momento», añadió Lu. «La idea clara es iniciar una conversación sobre el estado de las ITS y las pruebas».

Calmara es parte de HeHealth, que se fundó en 2019. Calmara y HeHealth utilizan la misma IA, que, según dice, tiene una precisión del 65-90%. HeHealth se enmarca como un primer paso para evaluar la salud sexual; luego, la plataforma ayuda a los usuarios a conectarse con clínicas asociadas en su área para programar una cita para un examen completo y real.

El enfoque de HeHealth es más tranquilizador que el de Calmara, pero ese es un listón bajo, e incluso entonces, hay una gran bandera roja ondeando: la privacidad de los datos.

«Es bueno ver que ofrecen un modo anónimo, donde no tienes que vincular tus fotos a información de identificación personal», dijo a TechCrunch Valentina Milanova, fundadora de Daye, una startup de detección de ITS basada en tampones. «Esto, sin embargo, no significa que su servicio no esté identificado o sea anónimo, ya que sus fotos aún pueden rastrearse hasta su correo electrónico o dirección IP».

HeHealth y Calmara también afirman que cumplen con HIPAA, una regulación que protege la confidencialidad del paciente, porque utilizan los servicios web de Amazon. Esto suena tranquilizador, pero en su política de privacidad, Calmara escribe que comparte información del usuario con «proveedores de servicios y socios que ayudan en la operación del servicio, incluido el alojamiento de datos, análisis, marketing, procesamiento de pagos y seguridad». Tampoco especifican si estos escaneos de IA se realizan en su dispositivo o en la nube y, de ser así, cuánto tiempo permanecen esos datos en la nube y para qué se utilizan. Eso es demasiado vago para asegurar a los usuarios que sus fotos íntimas están seguras.

Estas cuestiones de seguridad no sólo preocupan a los usuarios: son peligrosas para la propia empresa. ¿Qué sucede si un menor utiliza el sitio web para buscar ITS? Luego, Calmara termina en posesión de material de abuso sexual infantil. La respuesta de Calmara a esta responsabilidad ética y legal es escribir en sus términos de servicio que prohíbe el uso a menores, pero esa defensa no tendría peso legal.

Calmara representa el peligro de la tecnología sobrevalorada: parece un truco publicitario de HeHealth para capitalizar el entusiasmo en torno a la IA, pero en su implementación real, simplemente da a los usuarios una falsa sensación de seguridad sobre su salud sexual. Esas consecuencias son graves.

«La salud sexual es un espacio complicado para innovar y puedo ver dónde sus intenciones son nobles», dijo Chen. «Simplemente creo que podrían apresurarse demasiado en comercializar una solución que no está bien fundamentada».



Source link-48