En los últimos meses, uno de los debates más encendidos en el mundo de la inteligencia artificial no tiene que ver con nuevos modelos ni con benchmarks, sino con regulación. Concretamente, con propuestas legislativas que buscan obligar a las grandes tecnológicas a auditar los riesgos de sus sistemas antes de lanzarlos al mercado.
En EE. UU., los senadores Josh Hawley y Richard Blumenthal han presentado el Artificial Intelligence Risk Evaluation Act, una ley que exigiría evaluaciones independientes de riesgo para modelos de IA avanzada. El objetivo: garantizar que estos sistemas no representen amenazas a la seguridad, la privacidad o el bienestar social antes de que lleguen a los usuarios.
¿Por qué ahora?
El ritmo de avance de la IA está siendo vertiginoso. Modelos cada vez más potentes, capaces de generar código, imágenes, textos o incluso hipótesis científicas, están saliendo al mercado en ciclos cada vez más cortos. Este crecimiento ha despertado preocupación en legisladores y expertos sobre su posible uso indebido en:
- Desinformación a gran escala (deepfakes políticos en año electoral).
- Ciberseguridad (IA que ayuda a crear malware más sofisticado).
- Impacto laboral (automatización masiva sin transición justa).
El dilema: seguridad vs. innovación
La propuesta de ley norteamericana refleja una tensión global:
- A favor: una auditoría independiente puede aumentar la confianza de la sociedad, evitar “sorpresas” peligrosas y fomentar un uso más responsable de la tecnología.
- En contra: las startups y empresas más pequeñas podrían quedar rezagadas frente a los gigantes, ya que no todas tienen los recursos para costear auditorías externas antes de cada despliegue.
Europa también avanza en la misma línea con la AI Act, que establece categorías de riesgo y obligaciones según el tipo de aplicación. El mensaje es claro: el tiempo del “desarrolla primero y regula después” parece estar llegando a su fin.
¿Qué podemos esperar?
Si estas medidas se aprueban, veremos un cambio de paradigma: la innovación supervisada. No se tratará solo de quién entrena el modelo más grande, sino de quién lo hace con garantías de seguridad, transparencia y control.
El reto será equilibrar la balanza: proteger a la sociedad sin frenar la creatividad y el dinamismo que han hecho de la IA uno de los motores de transformación más potentes de nuestra era.
¿Favorece eso la seguridad o frena la innovación?
¿Debe la IA pasar por auditorías de riesgo obligatorias antes de salir al mercado?