El dilema de la inteligencia artificial bonaerense
La provincia de Buenos Aires decidió convertirse en pionera regulando el uso de la inteligencia artificial en la administración pública provincial a través de la resolución 9/2025, publicada e...
La provincia de Buenos Aires decidió convertirse en pionera regulando el uso de la inteligencia artificial en la administración pública provincial a través de la resolución 9/2025, publicada en el Boletín Oficial el 23 de noviembre pasado.
El texto persigue ordenar el despliegue de algoritmos en la administración, creando categorías de riesgo, imponiendo auditorías, exigiendo advertencias al ciudadano, ordenando trazabilidad, prohibiendo ciertos usos y hasta estableciendo un registro provincial de sistemas. Sobre el papel es un menú completo, casi ambicioso. Pero debajo de esa superficie aparece un problema estructural: lo que intenta regular excede, con bastante holgura, lo que una resolución administrativa puede hacer sin una ley que la respalde.
La norma intenta alinearse con la ola global de reglas sobre IA, especialmente la ley de inteligencia artificial de la Unión Europea (AI Act) y la reciente legislación californiana, que obliga a los desarrolladores de modelos avanzados a publicar evaluaciones de riesgos y fallas.
La propuesta bonaerense persigue la intención de no quedarse atrás en un debate que ya no es futuro, sino presente. Pero el salto entre “citar derecho comparado” y “convertir derecho comparado en derecho interno” es más grande de lo que parece.
En Europa, la IA se regula mediante un reglamento aprobado por el Parlamento y el Consejo, de aplicación obligatoria y con una arquitectura institucional robusta, capaz de supervisar, sancionar y controlar. En California, la SB 53 obliga a la transparencia de los grandes modelos porque ese es el nivel de competencia estatal; no pretende abarcarlo todo, sino regular lo que le corresponde. En ambos casos, la clave es la misma: la materia se regula mediante leyes formales, no mediante actos administrativos.
La resolución bonaerense toma ese andamiaje extranjero y trata de apoyarlo sobre una estructura que no tiene facultades ni recursos para sostenerlo. El resultado es un texto solemne, bien intencionado, pero jurídicamente frágil. La norma exige auditorías, matrices de riesgo, evaluaciones de impacto, supervisión humana permanente y advertencias obligatorias para cada interacción con IA. Muchas de esas obligaciones serían razonables si estuvieran ancladas en una ley formal y acompañadas de presupuesto, equipos técnicos y autoridad regulatoria. Sin eso, se convierten en expresiones de deseo difíciles de cumplir.
El ejemplo más claro es la exigencia de advertir cada vez que un ciudadano interactúa con IA. En teoría es atractivo: “Usted está hablando con un sistema automatizado”. Pero cuando uno intenta definir el concepto, quién debe informarlo, cómo se acredita, qué sucede si no se informa, quién fiscaliza y qué sanciones corresponden, el esquema se vuelve casi impracticable. No basta con copiar una frase de la AI Act. Hace falta diseñar un procedimiento completo y eso requiere un poder del Estado con legitimidad normativa para hacerlo.
Otro escollo serio está en la protección de datos personales. La Argentina cuenta con la ley 25.326, que define categorías de datos sensibles, fija obligaciones, establece sanciones y asigna autoridad de control. Ese esquema es federal. Sin embargo, la resolución provincial avanza como si la competencia fuera propia: impone evaluaciones de impacto, regula datos sensibles, habilita auditorías y crea un registro que obligaría a proveedores a entregar documentación técnica. El resultado es un régimen paralelo que puede entrar en conflicto directo con la normativa nacional.
También se advierte un uso excesivo de estándares internacionales como si fueran normas vigentes en el país. Las recomendaciones de la Unesco o la OCDE son valiosos faros éticos, pero no sustituyen la legislación interna. Integrar esos estándares requiere adaptar, debatir, presupuestar y definir autoridades. Importarlos de manera automática puede sonar moderno, pero nada más que eso.
Por otra parte, la AI Act del Viejo Continente no solo define riesgos y obligaciones: crea autoridades técnicas, establece criterios de auditoría, fija plazos, define esquemas de certificación y prevé sanciones millonarias. La resolución bonaerense, en cambio, enuncia principios generales –transparencia, neutralidad, centralidad humana– sin detallar quién audita, cómo se controla, con qué presupuesto, ni qué sucede ante un incumplimiento. Funciona más como una declaración de intenciones que como una regulación operativa.
Sin embargo, sería injusto interpretar esto como un exceso místico del Estado provincial que actúa sobre un vacío real. Hoy la IA opera en sistemas de salud, en turnos, en asignación de recursos, en clasificación de beneficiarios sociales y en cientos de tareas que antes eran manuales. El Estado ya es algorítmico, aunque no siempre lo reconozca. Regular estos procesos es una necesidad democrática: sin reglas, la automatización puede amplificar sesgos, discriminar sin querer o afectar derechos que costó décadas construir.
Pero la pregunta no es si debemos regular; la pregunta es con qué herramientas. Y ahí la respuesta es clara: una resolución administrativa no alcanza. Regular la IA requiere leyes formales, debate parlamentario, definiciones precisas, controles fuertes, recursos concretos y expertos en el tema.
Recordando las enseñanzas del derecho romano, esa caja de herramientas que sigue vigente dos mil años después: lex est norma agendi, non verba pulchra scribentis: la ley es una regla para actuar, no una colección de frases bonitas.
La resolución tiene voluntad, tiene estilo, tiene referencias internacionales. Lo que no tiene es la fuerza normativa necesaria para estructurar un sistema completo de gobernanza algorítmica.
En conclusión, la resolución es un punto de partida, pero no es el punto de llegada. Sirve para abrir la discusión, nunca para cerrarla. Si queremos una regulación de IA con impacto real en la vida de la gente, necesitamos más ingeniería jurídica.
La innovación no espera y el derecho tampoco debería hacerlo. Pero para que esa regulación funcione, no alcanza con copiar modelos; hace falta construir una arquitectura propia, sólida, coherente y ejecutable. Y eso, en nuestro sistema republicano, solo puede lograrse con una ley.
Abogado y consultor en Derecho Digital y Data Privacy; profesor UBA-Austral. Autor de Redes sociales y tecnologias 2.0 y Derecho al Olvido Digital
Fuente: https://www.lanacion.com.ar/opinion/el-dilema-de-la-inteligencia-artificial-bonaerense-nid17122025/