• Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
IA y regulación: el mundo se mueve en direcciones opuestas y Argentina mira

IA y regulación: el mundo se mueve en direcciones opuestas y Argentina mira

Por Maria T. Recondo — Mitrani Caballero

La inteligencia artificial dejó de ser un tema del futuro. Es el presente, y el derecho —siempre más lento que la tecnología— corre para alcanzarla. Lo llamativo no es solo la velocidad del cambio, sino la dirección opuesta que toman los principales bloques regulatorios: mientras Europa y China apuestan por marcos legales, Estados Unidos desanda ese camino. En ese contexto, Argentina debate sin llegar a legislar. La pregunta que subyace es cuánto cuesta esa demora.

Europa: el primer marco legal del mundo

La Unión Europea es hasta hoy el único bloque con una ley integral sobre inteligencia artificial. El Reglamento (UE) 2024/1689 —conocido como AI Act— entró en vigor el 1 de agosto de 2024 con un enfoque basado en niveles de riesgo: cuanto mayor sea el impacto potencial sobre derechos fundamentales, más estrictas son las obligaciones. Su implementación es gradual: desde febrero de 2025 rigen las prohibiciones sobre prácticas inaceptables, desde agosto de 2025 las reglas de gobernanza para modelos de propósito general, y la aplicación plena está prevista para agosto de 2026.

Dos características hacen a esta norma especialmente relevante para empresas argentinas: su alcance extraterritorial —aplica a cualquier organización cuyo sistema de IA opere o afecte al mercado europeo, independientemente de su sede— y el nivel de sus sanciones, que pueden alcanzar los 35 millones de euros o el 7% de la facturación global anual por las infracciones más graves.

Estados Unidos: innovación primero, regulación después

El enfoque americano es diametralmente opuesto. El 11 de diciembre de 2025, el presidente Trump firmó la orden ejecutiva Ensuring a National Policy Framework for Artificial Intelligence. El objetivo: establecer un "marco político mínimamente oneroso" para la IA, argumentando que más de mil proyectos estaduales distintos generan un mosaico regulatorio que amenaza la competitividad frente a China.

El modelo chino — el más intervencionista de todos, con aprobación estatal previa para lanzar productos de IA al mercado — merece un análisis separado que excede el alcance de esta nota.

Argentina: muchos proyectos, ninguna ley

Argentina no está al margen del debate, aunque ninguna iniciativa legislativa ha sido aprobada. El proyecto más reciente es el S-0071/2025 (Senado, marzo de 2025), que clasifica los sistemas de IA según niveles de riesgo —mínimo, limitado, alto e inaceptable— y propone un Registro Nacional de acceso público, tomando como modelo el AI Act europeo.

Lo que viene: tres tendencias que los abogados deberían monitorear

La primera es la convergencia de estándares. Aunque los modelos regulatorios difieren, los problemas son los mismos: transparencia, responsabilidad, protección de datos y supervisión humana. Las organizaciones que operen en múltiples jurisdicciones deberán cumplir marcos simultáneos.

La segunda es la profundización sectorial. Salud, justicia, finanzas y educación serán los primeros sectores en recibir reglas detalladas. El conocimiento de IA deberá integrarse a las prácticas tradicionales, no tratarse como especialidad separada.

La tercera —y la más relevante— es la responsabilidad. La IA no tiene personalidad jurídica: quien responde es siempre el profesional o la organización que la utilizó sin verificar. Los casos de abogados sancionados por citar jurisprudencia inexistente generada por IA —ya documentados en Estados Unidos y en Argentina— lo confirman: confiar ciegamente en la herramienta agrava la responsabilidad profesional. Pero el escenario que se avecina es más complejo: cuando consultar IA sin intermediación profesional se masifique, no tardará en aparecer la primera demanda por "mala praxis" contra una herramienta. Ningún ordenamiento jurídico tiene respuesta lista para eso.

La pregunta impostergable

¿Puede una plataforma de streaming clonar la voz de un actor argentino sin su consentimiento? ¿Puede un juez fundar una sentencia en un informe pericial elaborado con IA sin que las partes conozcan el algoritmo? México ya aprobó legislación que prohíbe el doblaje con IA y reconoce la voz humana como bien artístico protegido. En Argentina, esas mismas conductas se resolverían apelando a normas de derecho de autor y responsabilidad civil no diseñadas para este problema. Lo mismo ocurre con la pericia algorítmica: el Código Procesal no contempla ese escenario.

La pregunta impostergable no es solo si Argentina debe regular la IA, sino cuándo y mirando qué modelo — porque cuando el Congreso finalmente legisle, el mundo ya habrá cambiado de nuevo.-