La privacidad morirá para entregarnos la computadora que piensa y sabe


El 9 de noviembre veremos por primera vez el tan publicitado “PIN AI” de Humane (lo que sea que sea), y la startup de memoria AI personalizada Rewind está lanzando un colgante para rastrear no solo su vida digital sino también su vida física en algún momento del mundo. futuro previsible. Abundan los rumores sobre la reunión de Sam Altman de OpenAI con la antigua deidad del diseño de Apple, Jony Ive, sobre la construcción de un dispositivo de hardware de IA de algún tipo y los murmullos en los pasillos de las oficinas de VC en todas partes anuncian en tonos sin aliento la llegada de un momento iPhone para la IA.

Por supuesto, el potencial es inmenso: un dispositivo que toma y extiende a muchos otros aspectos de nuestras vidas lo que ChatGPT ha podido hacer con la IA generativa, con suerte con un poco más de inteligencia y practicidad. Pero el costo es considerable; no el costo financiero, que no es más que una mayor transferencia de riqueza desde las reservas de carbón de las oficinas familiares ricas y las personas de alto patrimonio neto a los insaciables incendios de las tasas de quema de startups. No, me refiero al precio que pagamos en privacidad.

La muerte de la privacidad ha sido anunciada, cancelada, contrarrestada y repetida muchas veces a lo largo de los años (solo busque la frase en Google) en respuesta a una gran cantidad de avances tecnológicos, incluidos aspectos como compartir la ubicación en vivo de dispositivos móviles; el advenimiento y eventual ubicuidad de las redes sociales y sus gráficos sociales resultantes; cartografía por satélite e imágenes de alta resolución; fugas masivas de credenciales e información de identificación personal (PII) y mucho, mucho más.

La IA generativa, del tipo popularizado por OpenAI y ChatGPT, y al que la mayoría de la gente se refiere cuando anticipa una próxima ola de dispositivos de IA, es otro enemigo mortal de lo que consideramos privacidad, y es uno de sus tipos más voraces y asesinos indiscriminados todavía.

En nuestro reciente evento TechCrunch Disrupt en San Francisco, la presidenta de Signal, Meredith Whittaker, una de las únicas figuras importantes en tecnología que parece dispuesta y ansiosa por abordar las amenazas realistas específicas de la IA, en lugar de señalar eventuales escenarios apocalípticos para mantener la atención de la gente. fuera del premio, dijo que la IA es en esencia “una tecnología de vigilancia” que “requiere el modelo de negocio de vigilancia” en términos de su capacidad y necesidad de absorber todos nuestros datos. También tiene un uso vigilante en términos de reconocimiento de imágenes, análisis de sentimientos y muchas otras aplicaciones similares.

Todas estas compensaciones son para un facsímil razonable de una computadora que piensa y sabe, pero no una que realmente pueda pensar y saber. Las definiciones de esas cosas obviamente variarán, pero la mayoría de los expertos coinciden en que los LLM que tenemos hoy, si bien definitivamente son avanzados y claramente capaces de imitar de manera convincente el comportamiento humano en ciertas circunstancias limitadas, en realidad no están replicando el conocimiento o el pensamiento humanos.

Pero incluso para lograr este nivel de rendimiento, los modelos en los que se basan cosas como ChatGPT han requerido el ingreso de grandes cantidades de datos, datos recopilados posiblemente con el «consentimiento» de quienes los proporcionaron, es decir, que los publicaron libremente en Internet. sin una comprensión firme de lo que eso significaría para la recopilación y reutilización, y mucho menos en un dominio que probablemente no existía realmente cuando lo publicaron para empezar.

Esto tiene en cuenta la información digital, que es en sí misma una colección muy amplia de datos que probablemente revela mucho más de lo que cualquiera de nosotros individualmente se sentiría cómodo. Pero ni siquiera incluye el tipo de información del mundo físico que está a punto de ser recopilada por dispositivos como el pin AI de Humane, el colgante Rewind y otros, incluidos los Ray-Ban Meta Smartglasses que el propietario de Facebook lanzó a principios de este mes, que están listos para agregar funciones el próximo año que brindan información a pedido sobre objetos y lugares del mundo real capturados a través de sus cámaras integradas.

Algunos de los que trabajan en esta categoría emergente han anticipado preocupaciones en torno a la privacidad y han brindado todas las protecciones que pueden: Humane señala que su dispositivo siempre indicará cuándo está capturando a través de un LED amarillo; Meta renovó la luz de notificación en las gafas Ray-Ban Smart en comparación con la primera versión para desactivar físicamente la grabación si detectan manipulación u ofuscación del LED; Rewind dice que está adoptando un enfoque que prioriza la privacidad en todo el uso de datos con la esperanza de que se convierta en el estándar para la industria.

Es poco probable que eso se convierta en el estándar para la industria. Históricamente, el estándar ha sido el mínimo que el mercado y los reguladores soportarán, y ambos han tendido a aceptar más incursiones con el tiempo, ya sea tácitamente o al menos mediante la ausencia de objeciones a los cambios en los términos, condiciones y políticas de privacidad.

Un salto desde lo que tenemos ahora a una verdadera computadora pensante y conocedora que pueda actuar como un compañero virtual con al menos una imagen tan completa de nuestras vidas como la que tenemos nosotros mismos, requerirá la pérdida de tantos datos como podamos esperar. coleccionar o poseer, en la medida en que sea algo que cualquiera de nosotros pueda poseer. Y si logramos nuestros objetivos, el hecho de si estos datos alguna vez abandonan nuestros dispositivos locales (y las inteligencias virtuales que habitan en ellos) o no se vuelve algo discutible, ya que nuestra información será compartida con otro, incluso si el otro en este caso sucede que no tiene forma de carne y hueso.

Es muy posible que en ese momento el concepto de “privacidad” tal como lo entendemos hoy sea anticuado o insuficiente en términos del mundo en el que nos encontramos, y tal vez tengamos algo para reemplazarlo que preserve su espíritu a la luz de este nuevo paradigma. De cualquier manera, creo que el camino hacia el momento de la IA en el iPhone requiere necesariamente la “muerte” de la privacidad tal como la conocemos, lo que coloca a las empresas que consideran y valoran la privacidad como un diferenciador clave, como Apple, en una posición extraña durante la próxima década aproximadamente. .



Source link-48