Silicon Valley alarma a los guardianes de la seguridad en IA

Los líderes de Silicon Valley, entre ellos el zar de IA y criptomonedas de la Casa Blanca, David Sacks, y el director de operaciones de OpenAI, Jason Kwon, generaron polémica esta semana debido a sus comentarios sobre los colectivos que promueven la seguridad en la inteligencia artificial. En declaraciones por separado, insinuaron que ciertos defensores de la seguridad en IA no son tan rectos como aparentan y que actúan en beneficio propio o de billionarios titiriteros tras bambalinas.

Los grupos de seguridad en IA que conversaron con TechCrunch afirman que las acusaciones de Sacks y OpenAI constituyen el último intento de Silicon Valley por amedrentar a sus críticos, aunque ciertamente no es el primero. En 2024, algunas firmas de capital riesgo propagaron rumores de que un proyecto de ley de seguridad de IA en California, el SB 1047, podría llevar a los fundadores de startups a prisión. La Brookings Institution tildó dichos rumores de “tergiversaciones” sobre la iniciativa legal, no obstante, el gobernador Gavin Newsom decidió vetarla.

Con independencia de si Sacks y OpenAI pretendían intimidar a los críticos o no, sus acciones han logrado alarmar a numerosos defensores de la seguridad en IA. Muchos directivos de organizaciones sin ánimo de lucro contactados la semana pasada por TechCrunch solicitaron el anonimato para evitar represalias contra sus colectivos.

Esta controversia subraya la creciente tensión en Silicon Valley entre el desarrollo responsable de la IA y su conversión en un producto de consumo masivo, un tema que mis colegas Kirsten Korosec, Anthony Ha y yo analizamos en el pódcast de esta semana, Equidad. Asimismo, profundizamos en una nueva ley de seguridad de IA promulgada en California para regular los chatbots y en el enfoque de OpenAI respecto al contenido erótico en ChatGPT.

El martes, Sacks publicó un hilo en X argumentando que Anthropic —que ha expresado preocupación sobre la capacidad de la IA para contribuir al desempleo, ciberataques y daños catastróficos a la sociedad— simplemente está sembrando miedo para lograr la aprobación de leyes que la beneficien y ahoguen a las startups más pequeñas en trámites burocráticos. Anthropic fue el único gran laboratorio de IA que respaldó el proyecto de ley SB 53 de California, una iniciativa que establece requisitos de informes de seguridad para las grandes empresas de IA y que fue promulgada el mes pasado.

LEAR  La actriz Kaitlyn Dever perdió a su religiosa 'Weeks' ayer de haber filmado la película 'The Last of Us' que cambió la serie – ButterWord

Sacks respondía a un ensayo contundente del cofundador de Anthropic, Jack Clark, sobre sus temores en relación con la IA. Clark había pronunciado el ensayo como discurso en la conferencia de seguridad Curve AI en Berkeley semanas atrás. Quienes asistieron al evento percibieron el discurso como una exposición genuina de las reservas de un tecnólogo sobre sus propios productos, pero Sacks no compartió esa interpretación.

Anthropic está ejecutando una sofisticada organización de captura regulatoria basada en producir miedo. Es el principal responsable del frenesí regulatorio estatal que está dañando el ecosistema de startups. https://t.co/C5RuJbVi4P

— David Sacks (@DavidSacks) 14 de octubre de 2025

Sacks afirmó que Anthropic lleva a cabo una “sofisticada organización de captura regulatoria”, si bien cabe señalar que una organización verdaderamente sofisticada probablemente no consistiría en convertir al gobierno federal en un enemigo. En una publicación posterior en X, Sacks señaló que Anthropic se ha posicionado “consistentemente como un adversario de la administración Trump”.

Evento tecnológico

san francisco
|
27-29 de octubre de 2025

También esta semana, el director de operaciones de OpenAI, Jason Kwon, publicó un hilo en X explicando por qué la empresa cursaba citaciones a organizaciones sin ánimo de lucro defensoras de la seguridad en IA, como Encode, una entidad que aboga por políticas responsables en IA. (Una citación es un mandato judicial que exige la presentación de documentos o testimonios). Kwon declaró que, tras la demanda interpuesta por Elon Musk contra OpenAI por considerar que ChatGPT se había desviado de su misión original sin ánimo de lucro, OpenAI detectó con suspicacia cómo varias organizaciones expresaron su oposición a su reestructuración. Encode presentó un escrito de *amicus curiae* respaldando la demanda de Musk, y otras entidades sin ánimo de lucro se pronunciaron públicamente en contra de la reestructuración de OpenAI.

LEAR  Los Cien: Oval Invincibles regresan al camino de la victoria con triunfo sobre Manchester Originals | Noticias de Cricket

Hay mucho más en la historia que esto.

Como todo el mundo sabe, nos estamos defendiendo activamente contra Elon en una demanda en la que intenta dañar OpenAI para su propio beneficio financiero.

Encode, la organización para la cual @_NathanCalvin se desempeña como Mentor Universal, fue uno… https://t.co/DiBJmEwtE4

-Jason Kwon (@jasonkwon) 10 de octubre de 2025

“Esto generó dudas acerca de su transparencia en materia de financiación y sobre una posible coordinación entre ellas”, sostuvo Kwon.

NBC News informó esta semana que OpenAI cursó amplias citaciones a Encode y otras seis organizaciones sin ánimo de lucro que habían criticado a la compañía, requiriendo sus comunicaciones relativas a dos de sus principales detractores: Musk y el director ejecutivo de Meta, Mark Zuckerberg. OpenAI también solicitó a Encode las comunicaciones relacionadas con su respaldo al SB 53.

Un destacado líder en seguridad de IA comentó a TechCrunch que existe una brecha cada vez mayor entre el equipo de asuntos gubernamentales de OpenAI y su departamento de investigación. Si bien los investigadores de seguridad de OpenAI publican frecuentemente informes que revelan los riesgos de los sistemas de IA, su equipo de políticas presionó en contra del SB 53, arguyendo que preferirían una normativa uniforme a nivel federal.

El responsable de alineamiento de misiones de OpenAI, Joshua Achiam, se refirió al envío de citaciones a organizaciones sin ánimo de lucro por parte de su empresa en un hilo en X esta semana.

“Aun a riesgo de perjudicar mi trayectoria profesional, he de decir que esto no da una buena imagen”, manifestó Achiam.

Brendan Steinhauser, director ejecutivo de la organización sin ánimo de lucro Alliance for Secure AI (que no ha recibido citación de OpenAI), declaró a TechCrunch que OpenAI parece convencida de que sus críticos forman parte de una conspiración liderada por Musk. Sin embargo, sostiene que ese no es el caso y que gran parte de la comunidad de seguridad en IA es igualmente crítica con las prácticas de seguridad de xAI o las de este.

LEAR  El Benidorm Fest está de vuelta « Euro Weekly News

“Por parte de OpenAI, esto pretende acallar a los críticos, intimidarlos y disuadir a otras organizaciones sin ánimo de lucro de actuar de igual modo”, afirmó Steinhauser. “En cuanto a Sacks, creo que le preocupa que el movimiento por la seguridad de la IA esté creciendo y que la ciudadanía exija responsabilidades a estas empresas”.

Sriram Krishnan, asesor principal de políticas de la Casa Blanca para IA y ex socio general de a16z, intervino en el debate de esta semana con una publicación en redes sociales, tildando a los defensores de la seguridad en IA de estar desconectados de la realidad. Instó a las organizaciones de seguridad en IA a dialogar con “personas del mundo real que utilizan, comercializan y adoptan la IA en sus hogares y empresas”.

Un estudio reciente de Pew constató que aproximadamente la mitad de los estadounidenses se sienten más preocupados que entusiasmados por la IA, si bien no está claro qué es exactamente lo que les inquieta. Otro estudio reciente ahondó en este aspecto y reveló que a los votantes estadounidenses les preocupan más las pérdidas de empleo y los deepfakes que los riesgos catastróficos provocados por la IA, que son el principal foco del movimiento por la seguridad en IA.

Abordar estos problemas de seguridad podría ralentizar el rápido crecimiento de la industria de la IA, un trade-off que preocupa a muchos en Silicon Valley. Dado que la inversión en IA sustenta una parte significativa de la economía estadounidense, el temor a una regulación excesiva es comprensible.

No obstante, tras años de avances sin apenas regulación en IA, el movimiento por la seguridad en IA parece estar ganando un impulso tangible de cara a 2026. Los intentos de Silicon Valley por contrarrestar a los grupos centrados en la seguridad podrían interpretarse como un indicio de su creciente eficacia.