El gobernador Gavin Newsom deberá decidir si promulga la iniciativa, lo que supondría un movimiento decisivo en su relación con la poderosa industria tecnológica del estado
La legislatura de California aprobó en la madrugada del sábado 13 de septiembre un proyecto de ley considerado histórico en materia de regulación de inteligencia artificial (IA).
Ahora el gobernador Gavin Newsom deberá decidir si promulga la iniciativa, lo que supondría un movimiento decisivo en su relación con la poderosa industria tecnológica del estado.
La propuesta legislativa podría marcar el inicio de un estándar nacional de seguridad en IA, dada la influencia de California como epicentro de empresas tecnológicas y su historial de impulsar regulaciones que luego adoptan otros estados.
De qué se trata la ley
El texto obliga a las compañías desarrolladoras de IA a revelar sus protocolos de pruebas de seguridad y certificar su cumplimiento, una exigencia inédita en Estados Unidos. Alrededor del avance de la tecnología persisten dudas y reservas, tanto de parte de la industria como entre los votantes preocupados por los riesgos potenciales de sistemas avanzados.
Para Newsom, quien, según el portal especializado POLITICO, se perfila como candidato presidencial en 2028, la decisión representa un delicado equilibrio entre las presiones de los titanes tecnológicos y las demandas por mayor protección social.
El propio gobernador expresó en el pasado sus inquietudes sobre el posible impacto negativo de regulaciones demasiado estrictas. En 2023, tras vetar una medida previa más contundente impulsada por el senador estatal Scott Wiener, declaró: “dominamos este espacio, y no quiero perder esa competitividad. El impacto de aprobar los proyectos de ley equivocados, durante algunos años, podría afectar profundamente nuestra fortaleza competitiva”.
La propuesta aprobada, impulsada nuevamente por Wiener —aspirante también al escaño de la representante Nancy Pelosi—, representa una versión más limitada luego del veto del año pasado.
Wiener explicó que basó la iniciativa en un informe encargado por Newsom a un grupo de expertos en seguridad en IA, en respuesta a las objeciones previas. “Este sería el reglamento de seguridad en IA más sólido del país”, sostuvo Wiener en declaraciones a POLITICO, resaltando que agradecía la retroalimentación recibida y la disposición del gobernador para dialogar.

Una de las novedades de la medida es que surgió de un proceso de negociación con representantes del sector tecnológico, logrando cierto respaldo de actores clave como Anthropic, competidor de OpenAI.
El proyecto de ley introduce una distinción relevante entre las empresas según su volumen de ingresos. Los desarrolladores de modelos avanzados de IA que facturen menos de 500 millones de dólares anuales solo deberán revelar información básica y general sobre sus procesos de evaluación de seguridad.
Las compañías por encima de esa cifra enfrentarán requerimientos más detallados. La ley obliga a las grandes empresas a redactar y publicar un marco de trabajo que rija sus programas de IA de frontera y que contemple estándares nacionales, internacionales y mejores prácticas consensuadas en el sector.
Reacciones de los involucrados
Pese a estos cambios, organizaciones como la Cámara de Comercio de California y TechNet —que agrupa a Apple, Amazon y Google, entre otras— continúan oponiéndose a la legislación.
Una carta enviada a Wiener antes de la votación final criticó el enfoque en grandes empresas y alertó sobre posibles omisiones de desarrolladoras más pequeñas con modelos potentes.
“Nos preocupa que el proyecto se centre en los ‘grandes desarrolladores’ excluyendo a otros que trabajan con modelos cuyas capacidades avanzadas también pueden representar riesgos de daños catastróficos”, señala la misiva firmada por Ronak Daylami, en nombre de la Cámara de Comercio, y representantes de la Computer & Communications Industry Association y TechNet.
OpenAI propuso que se permitiera cumplir la norma a través de la adhesión voluntaria a marcos federales de pruebas o al Código de Prácticas de la Unión Europea para IA. Sin embargo, el texto definitivo no incorporó esta opción y mantuvo el requisito de publicar un marco propio de seguridad.
La aprobación final se produjo tras múltiples enmiendas negociadas entre la oficina del gobernador y la industria. El debate que rodea a la norma, lejos del rechazo frontal observado en ocasiones anteriores, esta vez mostró un tono más constructivo.
El futuro de la legislación, y su posible impacto como modelo nacional, ahora depende de la decisión de Newsom, quien debe evaluar el amplio espectro de intereses implicados: desde el fomento a la innovación, hasta las crecientes exigencias por mayor transparencia y seguridad en la inteligencia artificial.
