Cuatro inversores explican por qué la ética de la IA no puede ser una ocurrencia tardía


Billones de dolares están inundando la IA. Sin embargo, los modelos de IA ya se ven afectados por los prejuicios, como lo demuestra la discriminación hipotecaria hacia los posibles propietarios negros.

Es razonable preguntarse qué papel juega la ética en la construcción de esta tecnología y, quizás lo más importante, dónde encajan los inversores cuando se apresuran a financiarla.

Un fundador le dijo recientemente a TechCrunch+ que es difícil pensar en la ética cuando la innovación es tan rápida: las personas construyen sistemas, luego los rompen y luego los editan. Por lo tanto, parte de la responsabilidad recae en los inversores para asegurarse de que estas nuevas tecnologías estén siendo construidas por fundadores con ética en mente.

Para ver si eso está sucediendo, TechCrunch+ habló con cuatro inversores activos en el espacio sobre cómo piensan sobre la ética en la IA y cómo se puede alentar a los fundadores a pensar más sobre los sesgos y hacer lo correcto.


Estamos ampliando nuestra perspectiva, buscando más inversionistas para participar en las encuestas de TechCrunch, donde encuestamos a los mejores profesionales sobre los desafíos en su industria.

Si eres inversor y te gustaría participar en futuras encuestas, rellena este formulario.


Algunos inversionistas dijeron que abordan esto haciendo la debida diligencia sobre la ética de un fundador para ayudar a determinar si continuarán tomando decisiones que la empresa pueda respaldar.

“La empatía de los fundadores es una gran bandera verde para nosotros”, dijo Alexis Alston, director de Lightship Capital. “Estas personas entienden que mientras buscamos rendimientos de mercado, también buscamos que nuestras inversiones no causen un impacto negativo en el mundo”.

Otros inversionistas piensan que hacer preguntas difíciles puede ayudar a separar el trigo de la paja. “Cualquier tecnología trae consigo consecuencias no deseadas, ya sea parcialidad, agencia humana reducida, violaciones de la privacidad u otra cosa”, dijo Deep Nishar, director gerente de General Catalyst. “Nuestro proceso de inversión se centra en identificar tales consecuencias no deseadas, discutirlas con los equipos fundadores y evaluar si existen o existirán salvaguardas para mitigarlas”.

Las políticas gubernamentales también apuntan a la IA: la UE ha aprobado leyes de aprendizaje automático y EE. UU. ha introducido planes para un grupo de trabajo de IA para comenzar a analizar los riesgos asociados con la IA. Eso se suma a la Declaración de Derechos de AI presentada el año pasado. Dado que muchas de las principales empresas de capital de riesgo inyectan dinero en los esfuerzos de IA en China, es importante preguntarse cómo se puede hacer cumplir la ética global dentro de la IA también a través de las fronteras.

Siga leyendo para descubrir cómo los inversores se están acercando a la diligencia debida, las banderas verdes que buscan y sus expectativas de las regulaciones en IA.

Hablamos con:


Alexis Alston, directora, Lightship Capital

Al invertir en una empresa de IA, ¿cuánta diligencia debida hace sobre cómo su modelo de IA pretende o maneja el sesgo?

Para nosotros, es importante comprender exactamente qué datos recibe el modelo, de dónde provienen y cómo se limpian. Hacemos bastante diligencia técnica con nuestro médico de cabecera centrado en la IA para asegurarnos de que nuestros modelos puedan ser entrenados para mitigar o eliminar el sesgo.

Todos recordamos no poder hacer que los grifos se abrieran automáticamente para lavar nuestras manos más oscuras, y los momentos en que la búsqueda de imágenes de Google “accidentalmente” equiparaba la piel negra con los primates. Haré todo lo que esté a mi alcance para asegurarme de que no terminemos con modelos como ese en nuestra cartera.

¿Cómo afectaría la aprobación de leyes de aprendizaje automático similares a las de la UE en el ritmo de innovación que ve el país en este sector?

Dada la falta de conocimiento técnico y sofisticación en nuestro gobierno, tengo muy poca fe en la capacidad de los EE. UU. para aprobar una legislación precisa y procesable sobre el aprendizaje automático. Tenemos una cola tan larga cuando se trata de legislación oportuna y de expertos técnicos para ser parte de los grupos de trabajo para informar a nuestros legisladores.

De hecho, no veo que la legislación haga ningún cambio importante en el ritmo del desarrollo del LD, dada la forma en que nuestras leyes suelen estar estructuradas. De manera similar a la carrera a la baja por la legislación sobre drogas de diseño en los EE. UU. hace una década, la legislación nunca pudo mantenerse al día.



Source link-48