Las gafas de inteligencia artificial generan alarma sobre la privacidad en los Países Bajos

Zuckerberg con gafas de IA y un público ajeno a todo.
Créditos: Zuck FB & fragmento del vídeo de Klöpping.
Créditos: MZ – FB & Borner – X

Facebook y Meta vuelven a invertir en sus gafas de IA, que en su día fracasaron comercialmente, con la esperanza de llevar modelos portátiles y disponibles a la venta a los estantes de las tiendas para 2027.

Una reciente demostración viral de gafas de IA realizada por el periodista tecnológico neerlandés Alexander Klöpping ha generado una conmoción en los Países Bajos y ha avivado un encendido debate sobre el futuro de la privacidad. Klöpping se puso un par de gafas inteligentes con IA en un popular programa de televisión, mostrando su inquietante capacidad para identificar al instante a desconocidos en la calle y recuperar sus nombres, profesiones e incluso sus perfiles de LinkedIn, todo ello sin recurrir a bases de datos gubernamentales ni a sistemas policiales. El experimento ha llevado a muchos a preguntarse: en un mundo donde cada rostro puede convertirse en un conjunto de datos, ¿qué queda del anonimato?

La perturbadora demostración de Klöpping consistió simplemente en mirar a los transeúntes a través de las discretas lentes. En cuestión de segundos, aparecía ante sus ojos información personal sobre individuos inconscientes, obtenida a partir de datos de acceso público y tecnología de IA disponible comercialmente. Su intención declarada era “asustar de verdad a la gente” y poner de relieve la facilidad y lo invasivo de las capacidades modernas de reconocimiento facial.

Lo más leído en Euro Weekly News

Una espada de doble filo: Ventajas e inconvenientes

Las implicaciones de esta tecnología son profundas y obligan a un cuestionamiento social sobre el equilibrio entre la innovación y los derechos fundamentales. “Para mí, esto marca un punto de inflexión”, observó Pascal Bornet, un destacado experto en privacidad e IA, en X. “Hemos difuminado oficialmente la línea entre ver a las personas y conocerlas. Entre estar en público y estar expuesto”.

LEAR  España destina 615 millones de euros en ayuda para Ucrania

Aunque la reacción inmediata ha sido de alarma, las gafas con IA plantean un dilema complejo, pues ofrecen tanto un potencial increíble como amenazas formidables.

Posibles beneficios de las gafas de IA (Las “ventajas”):

Accesibilidad y asistencia: Para personas con discapacidad visual, gafas de IA como las desarrolladas por la startup neerlandesa Envision ofrecen una independencia que cambia vidas, describiendo el entorno, leyendo texto e incluso identificando a seres queridos. En el ámbito sanitario, podrían asistir a cirujanos con superposiciones de datos en tiempo real o empoderar a técnicos de campo con información crucial.

Navegación e información mejoradas: Imaginemos gafas turísticas que identifiquen monumentos y proporcionen contexto histórico, o gafas profesionales que ofrezcan datos en tiempo real durante tareas complejas, desde la fabricación hasta la logística.

Seguridad (cuestionable): Sus defensores argumentan que la tecnología podría mejorar la seguridad pública ayudando a identificar personas desaparecidas o posibles amenazas, aunque esto se adentra profundamente en la ética de la vigilancia.

Productividad personal: El acceso manos libres a información, servicios de traducción y comunicación podría agilizar tareas cotidianas, desde compras hasta el aprendizaje de idiomas.

Graves preocupaciones sobre las gafas de IA (Los “inconvenientes”):

Eliminación del anonimato: La amenaza más inmediata y visceral puesta de relieve por el experimento de Klöpping. La capacidad de identificar a cualquiera, en cualquier lugar, desmonta fundamentalmente el concepto de anonimato público, una piedra angular de las sociedades liberales.

Vigilancia generalizada: Estas gafas convierten a cada usuario en un potencial agente de vigilancia encubierto. Las personas pueden ser grabadas e identificadas sin su conocimiento o consentimiento, lo que conlleva un efecto paralizante sobre la libertad de expresión y de reunión.

LEAR  El sorprendente comentario de Jason Whitlock sobre Deshaun Watson acompañando a los Browns a Las Vegas

Violaciones de la privacidad: La recopilación y el procesamiento de datos biométricos (escaneos faciales) y otra información personal (nombres, afiliaciones) sin consentimiento explícito constituye una violación directa de los derechos fundamentales a la privacidad, especialmente bajo normativas estrictas como el RGPD en Europa.

Riesgos de seguridad de datos: Las ingentes cantidades de datos altamente personales capturados por estos dispositivos deben almacenarse y procesarse. Centralizar información tan sensible crea objetivos masivos para ciberataques y filtraciones de datos, con consecuencias potencialmente catastróficas para los individuos cuyos datos se vean comprometidos.

Mercado negro ético: Como menciona Bornet, “Puedes prohibirlo, regularlo, añadir luces rojas intermitentes… pero una vez que existe una tecnología así, alguien siempre encontrará la forma de usarla”. Esto plantea el espectro del uso ilícito por parte de acosadores, hostigadores o incluso regímenes autoritarios que busquen rastrear a disidentes.

Sesgo algorítmico y discriminación: La tecnología de reconocimiento facial es notoria por sus prejuicios, particularmente contra ciertos grupos raciales, lo que conduce a identificaciones erróneas, acusaciones falsas y a la exacerbación de desigualdades sociales existentes.

La contundente pregunta final de Bornet señala el desafío que tenemos por delante: “Cuando cada rostro se convierte en un conjunto de datos, ¿cómo protegemos el significado de ser humano?” El experimento neerlandés sirve como una poderosa llamada de atención, instando a legisladores, tecnólogos y ciudadanos a confrontar las profundas implicaciones éticas, legales y sociales antes de que la línea entre observar y conocer se difumine irrevocablemente. El debate sobre cómo regular o incluso restringir una tecnología tan potente acaba de comenzar.

Incluso si no se utiliza a sabiendas con fines nefastos, ¿podría esta tecnología ser empleada por terceros para rastrear la ubicación constante de las personas? El problema es que la política y la legislación tardan más que la tecnología en ponerse al día.

LEAR  Fiebre sobre el regreso de Caitlin Clark: “Sin novedad en su estado”