¿Qué tienen en común Threads, Mastodon y los registros hospitalarios?


Ha tomado un tiempo, pero las plataformas de redes sociales ahora saben que la gente prefiere mantener su información alejada de los ojos corporativos y de algoritmos malévolos. Es por eso que la nueva generación de sitios de redes sociales como Threads, Mastodon y Bluesky se jactan de ser parte del «fediverso». Aquí, los datos de los usuarios se alojan en servidores independientes en lugar de en un silo corporativo. Luego, las plataformas utilizan estándares comunes para compartir información cuando es necesario. Si un servidor comienza a albergar demasiadas cuentas dañinas, otros servidores pueden optar por bloquearlo.

No son los únicos que adoptan este enfoque. Los investigadores médicos creen que una estrategia similar podría ayudarles a entrenar el aprendizaje automático para detectar tendencias de enfermedades en los pacientes. Colocar sus algoritmos de inteligencia artificial en servidores especiales dentro de los hospitales para un «aprendizaje federado» podría mantener altos los estándares de privacidad y al mismo tiempo permitir a los investigadores descubrir nuevas formas de detectar y tratar enfermedades.

«El uso de la IA está explotando en todas las facetas de la vida», afirmó Ronald M. Summers, del Centro Clínico de los Institutos Nacionales de Salud de Maryland, que utiliza el método en sus investigaciones en radiología. «Hay mucha gente interesada en utilizar el aprendizaje federado para una variedad de aplicaciones diferentes de análisis de datos».

¿Como funciona?

Hasta ahora, los investigadores médicos refinaron sus algoritmos de IA utilizando algunas bases de datos cuidadosamente seleccionadas, generalmente información médica anónima de pacientes que participan en estudios clínicos.

Sin embargo, mejorar aún más estos modelos significa que necesitan un conjunto de datos más grande con información de pacientes del mundo real. Los investigadores podrían reunir datos de varios hospitales en una base de datos, pero eso significa pedirles que entreguen información sensible y altamente regulada. Enviar información de pacientes fuera del firewall de un hospital es un gran riesgo, por lo que obtener permiso puede ser un proceso largo y legalmente complicado. Las leyes nacionales de privacidad y la ley GDPR de la UE establecen reglas estrictas sobre cómo compartir la información personal de un paciente.

En cambio, los investigadores médicos están enviando su modelo de IA a los hospitales para que pueda analizar un conjunto de datos mientras permanece dentro del firewall del hospital.

Normalmente, los médicos primero identifican a los pacientes elegibles para un estudio, seleccionan los datos clínicos que necesitan para la capacitación, confirman su exactitud y luego los organizan en una base de datos local. Luego, la base de datos se coloca en un servidor del hospital que está vinculado al software de inteligencia artificial de aprendizaje federado. Una vez que el software recibe instrucciones de los investigadores, puede hacer funcionar su magia de IA, entrenándose con los datos locales del hospital para encontrar tendencias de enfermedades específicas.

De vez en cuando, este modelo entrenado se envía de vuelta a un servidor central, donde se une a modelos de otros hospitales. Un método de agregación procesa estos modelos entrenados para actualizar el modelo original. Por ejemplo, el popular algoritmo de agregación FedAvg de Google toma cada elemento de los parámetros de los modelos entrenados y crea un promedio. Cada promedio pasa a formar parte de la actualización del modelo, y su entrada al modelo agregado se pondera proporcionalmente al tamaño de su conjunto de datos de entrenamiento.

En otras palabras, la forma en que cambian estos modelos se agrega en el servidor central para crear un «modelo de consenso» actualizado. Luego, este modelo de consenso se envía de regreso a la base de datos local de cada hospital para ser entrenado nuevamente. El ciclo continúa hasta que los investigadores juzgan que el modelo de consenso final es lo suficientemente preciso. (Hay una revisión de este proceso disponible).

Esto mantiene contentas a ambas partes. Para los hospitales, ayuda a preservar la privacidad ya que la información enviada al servidor central es anónima; La información personal nunca cruza el firewall del hospital. También significa que el aprendizaje automático/IA puede alcanzar su máximo potencial al entrenarse con datos del mundo real para que los investigadores obtengan resultados menos sesgados y más propensos a ser sensibles a enfermedades específicas.

En los últimos años ha habido un auge en la investigación utilizando este método. Por ejemplo, en 2021, Summers y otros utilizaron el aprendizaje federado para ver si podían predecir la diabetes a partir de tomografías computarizadas del abdomen.

«Descubrimos que había firmas de diabetes en el escáner CT [for] el páncreas que precedió al diagnóstico de diabetes hasta siete años”, dijo Summers. «Eso nos emocionó mucho porque podríamos ayudar a los pacientes que están en riesgo».



Source link-49