PAUSA.MX

California propone una ley llamada SB 53 que busca regular los riesgos más graves de los sistemas de inteligencia artificial (IA). Esta iniciativa se centra en las IA “fronterizas”, aquellas que pueden tener un impacto mayor al típico que conocemos hoy.

La ley pretende que empresas de IA que ganen más de US$500 millones al año publiquen marcos de seguridad, reporten incidentes mayores en un plazo de 15 días, y mantengan transparencia respecto a cómo gestionan esos riesgos. El objetivo es evitar daños catastróficos antes de que ocurran.

Se define “riesgo catastrófico” como un evento generado con ayuda de IA que provoque más de 50 muertes o más de mil millones de dólares en pérdidas. Por ejemplo, ataques cibernéticos masivos o uso de IA para armas peligrosas.

El debate se ha polarizado: algunos lo ven como algo necesario, otros dicen que puede frenar innovación y ser complicado de cumplir para empresas más pequeñas. Organismos de IA reconocidos como Anthropic lo apoyan, pero otras firmas expresan que la carga regulatoria será pesada.

Te puede interesar: «Es con buena intención»: político nigeriano anuncia boda con 100 huérfanas

Una parte importante de la discusión es cómo definir los límites: ¿qué IA se considera “fronteriza”? ¿Quién decide qué riesgo es aceptable? Eso no está aún claro, y habrá que ver cómo se estructura el marco legal.

SB 53 también podría sentar precedentes. Si se aprueba, otros estados en EU podrían seguir su ejemplo, o incluso conseguir que se adopten líneas similares a nivel federal. Por otro lado, empresas tecnológicas han pedido claridad y evitar reglas redundantes.

Quienes favorecen la iniciativa consideran que hoy existen IA con ingredientes de riesgo real — modelos de lenguaje, generative AI, automatización crítica — y que regularlos solo cuando haya daños visibles ya es tarde. Quieren que la prevención sea la base.

Los críticos advierten que algunas definiciones podrían ser muy vagas, lo que generaría inseguridad jurídica (“no sabemos si esto aplica para mi empresa”). También temen que empresas grandes tengan ventaja para cumplir costos, dejando atrás a las pequeñas.

Si la ley pasa, habría inspecciones, auditorías, sanciones a quienes no reporten incidentes, y exigencia de ética en el diseño de productos. Se busca balance entre innovación y responsabilidad.

Es una noticia relevante porque muestra que la IA ya no es solo tema técnico o de software: cada vez más es parte de lo político, legal y social. Cómo se regule podría cambiar industrias, inversión y lo que la sociedad espera de la tecnología.

NOTICIAS CHIHUAHUA

Por AL PE

Social Media Auto Publish Powered By : XYZScripts.com