Buen día entusiastas de la IA. 10 de septiembre de 2025 - Chile se ha acercado a la implementación de una regulación integral de inteligencia artificial a medida que los legisladores avanzan un proyecto de ley pionero que adopta un marco basado en riesgos similar a la Ley de IA de la UE. La legislación propuesta, que se enfrenta a un debate nacional, clasificaría los sistemas de IA en cuatro categorías de riesgo distintas y establecería prohibiciones estrictas sobre las tecnologías consideradas como un riesgo inaceptable para la dignidad humana.
Bajo el marco propuesto, los sistemas de IA que generen deepfakes o contenido sexual que explote a grupos vulnerables, particularmente niños y adolescentes, enfrentarían prohibiciones absolutas. El proyecto de ley también prohíbe los sistemas diseñados para manipular emociones sin consentimiento informado y aquellos que recopilen datos biométricos faciales sin permiso explícito. El ministro Etcheverry explicó que los casos de incumplimiento resultarían en sanciones administrativas impuestas por la futura Agencia de Protección de Datos de Chile, con decisiones sujetas a apelaciones judiciales. Los sistemas de IA de alto riesgo, incluidas las herramientas de reclutamiento que podrían introducir sesgos en la selección de solicitudes de empleo, enfrentarían requisitos de supervisión rigurosos.
Este desarrollo posiciona a Chile como un líder regional en gobernanza de IA, reflejando tendencias globales más amplias hacia una regulación integral de la IA. El enfoque basado en riesgos refleja marcos regulatorios que están surgiendo en múltiples jurisdicciones, a medida que los gobiernos de todo el mundo lidian con equilibrar la innovación frente a los posibles daños sociales. A diferencia de algunos modelos regulatorios, la propuesta de Chile coloca la responsabilidad en las empresas para que autoevalúen y clasifiquen sus sistemas de IA según las categorías de riesgo establecidas, en lugar de requerir una certificación previa a la comercialización.
Nuestra opinión: El enfoque de Chile representa un equilibrio pragmático entre fomentar la innovación y proteger a los ciudadanos de los riesgos relacionados con la IA. El modelo de autoevaluación podría resultar más adaptable que los procesos rígidos de preaprobación, potentially sirviendo como plantilla para otras naciones latinoamericanas que desarrollen sus propios marcos de gobernanza de IA. Sin embargo, la efectividad dependerá en última instancia de mecanismos de aplicación robustos y de una guía clara para las empresas que naveguen el sistema de clasificación.
beFirstComment