La Ley General para Regular y Fomentar el Uso de la Inteligencia Artificial (conocida también como LGIA) es una iniciativa legislativa multipartidista que el Senado de la República prepara para discutir y presentar formalmente en los próximos días.
No es todavía ley: se trata de un proyecto de decreto con 223 artículos, 10 transitorios y un glosario detallado, elaborado tras meses de consultas con expertos de academia, industria, gobierno y sociedad civil. Su objetivo es crear el primer marco normativo integral y horizontal para el desarrollo, implementación, uso, supervisión y fomento de la IA en México.
¿Por qué surge ahora esta propuesta?
La IA ya forma parte de la vida cotidiana de los mexicanos: algoritmos deciden si se aprueba un crédito, recomiendan noticias, generan contenidos virales, asisten en diagnósticos médicos o moderan redes sociales. Sin embargo, México carece de una ley específica sobre IA. La regulación actual es fragmentada y tangencial: se aplican de forma parcial la Ley Federal de Protección de Datos Personales, disposiciones del Código Penal para deepfakes o normas sectoriales aisladas. Esto genera vacíos que exponen a la población a riesgos reales: sesgos discriminadores, manipulación electoral con deepfakes, vigilancia masiva sin control, violación de la privacidad mental (neuroderechos) o campañas automatizadas de odio.
La iniciativa responde a esa brecha. Surge en un contexto global de regulaciones como el AI Act de la Unión Europea y ante la necesidad nacional de proteger derechos humanos mientras se aprovecha el potencial económico y social de la tecnología. Legisladores de Morena, PAN, PVEM, PRI, PT y Movimiento Ciudadano coincidieron en que legislar tarde podría costar soberanía tecnológica, daños irreparables a la democracia o exclusión de grupos vulnerables; regular de forma excesiva, en cambio, podría frenar la innovación y la competitividad del país.
¿Qué regula, qué prohíbe y qué derechos y obligaciones plantea?
La propuesta adopta un enfoque basado en riesgos, inspirado en estándares internacionales pero adaptado al contexto mexicano. Clasifica los sistemas de IA en tres niveles: aplicaciones prohibidas, de alto riesgo y de uso limitado o personal.
Regula el ciclo completo de la IA (diseño, entrenamiento, despliegue y monitoreo) en los sectores público y privado, con alcance extraterritorial si afecta a residentes mexicanos. Incluye 31 ámbitos sectoriales y obliga a una interpretación armónica con otras 43 leyes existentes.
Prohíbe expresamente prácticas de alto impacto negativo:
- Manipulación cognitiva o subliminal del comportamiento humano
- Puntuación social estatal
- Identificación biométrica masiva sin base legal
- Sistemas autónomos letales sin supervisión humana
- Deepfakes con fines de violencia digital de género, extorsión o acoso (el consentimiento se considera nulo en casos de menores).
Plantea derechos claros para los ciudadanos:
- Centrarse en la persona y la dignidad humana
- Neuroderechos: identidad psicológica, privacidad mental, integridad cognitiva y autonomía de la voluntad
- Transparencia y explicabilidad: derecho a entender cómo un algoritmo tomó una decisión que afecta derechos (créditos, empleo, justicia)
- No discriminación y perspectiva de género
- Supervisión humana obligatoria en decisiones críticas
- Mecanismos de apelación y reparación de daños
Impone obligaciones a empresas y desarrolladores:
- Clasificar y registrar sistemas de alto riesgo en un Registro Nacional
- Realizar evaluaciones de impacto algorítmico y auditorías periódicas
- Garantizar trazabilidad, robustez y eliminación segura de datos
- Designar responsables humanos y mantener documentación técnica
- Cooperar con autoridades y no destruir registros
Además, fomenta la innovación mediante una Estrategia Nacional de IA, sandboxes regulatorios (espacios de prueba controlada), educación digital, protección a derechos laborales y culturales, y un Fondo Nacional para el desarrollo de capacidades locales.
Se crea una Autoridad Nacional de Inteligencia Artificial como ente rector, junto con mecanismos de gobernanza multinivel y sanciones que van de multas a inhabilitaciones, suspensiones y remisión penal en casos graves (manipulación electoral, malware o fraude con IA).
¿Qué está en juego?
La discusión legislativa pone sobre la mesa un equilibrio delicado. Por un lado, no legislar a tiempo podría dejar a México expuesto a abusos: erosión de la confianza pública, pérdida de empleos por automatización sin transición, o dependencia tecnológica externa. Por otro, una ley demasiado rígida o ambigua podría generar burocracia excesiva, desincentivar inversión extranjera y afectar libertades como la expresión (crítica política, sátira o creación artística), según alertas de organizaciones como Artículo 19.
Expertos y legisladores coinciden en que la ley debe ser “horizontal, flexible y basada en riesgos” para no frenar el crecimiento de un sector estratégico, pero con dientes suficientes para proteger a las personas. Su aprobación marcaría un hito: México pasaría de ser solo consumidor de IA a tener soberanía regulatoria propia.
La iniciativa sigue en trámite y podría modificarse en comisiones y pleno. Su discusión será clave para definir si el país logra que la inteligencia artificial sirva al desarrollo humano, o si los riesgos la convierten en una herramienta de control desregulado. El reloj corre: la tecnología no espera, y la ley tampoco puede llegar tarde.
