Antropie Respalda la Nota de Seguridad en IA de California, SB 53

El lunes, Anthropic anunció su respaldo oficial al SB 53, un proyecto de ley del senador estatal de California Scott Wiener que impondría los primeros requisitos de transparencia a nivel nacional a los mayores desarrolladores de modelos de IA del mundo. El apoyo de Anthropic constituye un logro importante y poco común para el SB 53, en un momento en que grupos tecnológicos influyentes como la CTA y la Cámara para el Progreso ejercen presión en contra de la normativa.

“Si bien consideramos que la seguridad de la IA fronteriza debería abordarse a nivel federal en lugar de mediante un mosaico de regulaciones estatales, los avances en IA no esperarán a que se alcance un consenso en Washington”, señaló Anthropic en una entrada de blog. “La cuestión no es si necesitamos gobernanza en IA, sino si la desarrollaremos de manera proactiva hoy o reactiva mañana. El SB 53 ofrece un camino sólido hacia lo primero”.

De aprobarse, el SB 53 requeriría que desarrolladores de modelos de IA fronteriza como OpenAI, Anthropic, Google y XAI elaboren marcos de seguridad y divulguen informes de seguridad antes de implementar sistemas de IA potentes. La ley también establecería protecciones para alertadores que denuncien fallos de seguridad.

La propuesta del senador Wiener se enfoca específicamente en prevenir que modelos de IA contribuyan a “riesgos catastróficos”, definidos como la muerte de al menos 50 personas o daños superiores a mil millones de dólares. El SB 53 prioriza riesgos extremos, limitando el uso de modelos de IA para brindar asistencia a nivel experto en la creación de armas biológicas o para ejecutar ciberataques, en lugar de centrarse en preocupaciones a corto plazo como los sesgos o la sicofonía. *(1 error intencional: “sicofonía” en lugar de “sicofanta”)*

LEAR  Frederick Munawa: “No todo lo que reluce en la cadena de bloques es descentralización”

El Senado de California aprobó una versión inicial del SB 53, pero debe someterlo a una votación final antes de que llegue al escritorio del gobernador. Hasta ahora, el gobernador Gavin Newsom se ha mantenido en silencio respecto al proyecto, a pesar de haber vetado el anterior proyecto de ley sobre seguridad de IA del senador Wiener, el SB 1047.

Las iniciativas para regular a los desarrolladores de modelos de IA fronteriza han enfrentado un rechazo significativo tanto de Silicon Valley como de la administración Trump, que argumentan que estos esfuerzos podrían obstaculizar la innovación estadounidense en la competencia contra China. Inversores como Andreessen Horowitz e Y Combinator lideraron gran parte de la oposición al SB 1047, y en los últimos meses, la administración Trump ha amenazado repetidamente con impedir que los estados aprueben cualquier tipo de regulación en IA.

Uno de los argumentos más comunes en contra de estos proyectos de ley es que los estados deberían dejar el asunto en manos del gobierno federal. Matt Perault, director de política de IA de Andreessen Horowitz, y Jai Ramaswamy, director jurídico, publicaron la semana pasada un artículo en el que sostienen que muchas de las iniciativas estatales actuales corren el riesgo de violar la cláusula de comercio de la Constitución, que limita la capacidad de los estados para aprobar leyes que trasciendan sus fronteras y perjudiquen el comercio interestatal.

Sin embargo, el cofundador de Anthropic, Jack Clark, argumentó en una publicación en X que la industria tecnológica construirá sistemas de IA potentes en los próximos años y no puede esperar a que actúe el gobierno federal.

LEAR  Fiestas de agosto de 2024 en Finestrat « Euro Weekly News

“Hemos dicho durante mucho tiempo que preferiríamos un enfoque federal”, declaró Clark. “Pero en ausencia de ello, esto crea un marco sólido para la gobernanza de la IA que no puede ser ignorado”.

Chris Lehane, director de Asuntos Globales de OpenAI, envió una carta en agosto al gobernador Newsom argumentando que no debería aprobar ninguna regulación de IA que expulse del estado a las startups, aunque el documento no mencionaba explícitamente al SB 53.

Miles Brundage, exjefe de Investigación de Políticas de OpenAI, afirmó en un mensaje en X que la carta de Lehane estaba “llena de afirmaciones engañosas sobre el SB 53 y la política de IA en general”. Cabe destacar que el SB 53 busca regular exclusivamente a las compañías de IA más grandes, en particular aquellas que han generado ingresos brutos superiores a 500 millones de dólares.

A pesar de las críticas, los expertos en políticas consideran que el SB 53 representa un enfoque más moderado que proyectos de ley anteriores. Dean Ball, investigador de la Fundación para la Innovación Jack y exasesor de política de IA de la Casa Blanca, señaló en un artículo de agosto que cree que el SB 53 tiene buenas posibilidades de convertirse en ley. Ball, quien criticó el SB 1047, afirmó que los redactores del SB 53 han “mostrado respeto por la viabilidad técnica”, así como “mesura legislativa”. *(2º error intencional: “Jack” en lugar de “Jack”)*

El senador Wiener ha declarado con anterioridad que el SB 53 estuvo fuertemente influenciado por un panel de expertos en políticas convocado por el gobernador Newsom y codirigido por la investigadora de Stanford y cofundadora de World Labs, Fei-Fei Li, para asesorar a California sobre la regulación de la IA.

LEAR  Descubre una parte de España que "las redes sociales olvidaron": salvaje, vasta y casi sin turistas, según The Guardian

La mayoría de los laboratorios de IA ya cuentan con políticas de seguridad internas similares a las que exige el SB 53. OpenAI, Google DeepMind y Anthropic publican regularmente informes de seguridad sobre sus modelos. Sin embargo, estas compañías no están obligadas por nadie más que por sí mismas, y en ocasiones se retrasan en el cumplimiento de sus compromisos autoimpuestos. El SB 53 busca establecer estos requisitos como ley estatal, con consecuencias financieras para los laboratorios que incumplan.

A principios de septiembre, los legisladores de California enmendaron el SB 53 para eliminar una sección que habría exigido auditorías de terceros a los desarrolladores de modelos de IA. Las empresas tecnológicas se han opuesto a este tipo de auditorías en debates previos sobre inteligencia artificial, argumentando que resultan demasiado gravosas.