Bom dia, entusiastas de IA. 10 de setembro de 2025 - O Chile está mais perto de implementar uma regulamentação abrangente de inteligência artificial, conforme os legisladores avançam um projeto de lei inovador que adota uma estrutura baseada em risco semelhante à Lei de IA da UE. A legislação proposta, que enfrenta debate nacional, classificaria os sistemas de IA em quatro categorias de risco distintas e estabeleceria proibições rigorosas a tecnologias consideradas como representando riscos inaceitáveis para a dignidade humana.
De acordo com a estrutura proposta, sistemas de IA que geram deepfakes ou conteúdo sexual explorando grupos vulneráveis, particularmente crianças e adolescentes, enfrentariam proibições totais. O projeto também proíbe sistemas projetados para manipular emoções sem consentimento informado e aqueles que coletam dados biométricos faciais sem permissão explícita. O Ministro Etcheverry explicou que casos de não conformidade resultariam em sanções administrativas impostas pela futura Agência de Proteção de Dados do Chile, com decisões sujeitas a recursos judiciais. Sistemas de IA de alto risco, incluindo ferramentas de recrutamento que poderiam introduzir viés na triagem de candidaturas de emprego, enfrentariam requisitos rigorosos de supervisão.
Este desenvolvimento posiciona o Chile como um líder regional na governança de IA, refletindo tendências globais mais amplas em direção a uma regulamentação abrangente de IA. A abordagem baseada em risco espelha estruturas regulatórias que estão surgindo em múltiplas jurisdições, à medida que os governos em todo o mundo lutam para equilibrar a inovação com os possíveis danos sociais. Ao contrário de alguns modelos regulatórios, a proposta do Chile coloca a responsabilidade nas empresas de autoavaliar e classificar seus sistemas de IA de acordo com as categorias de risco estabelecidas, em vez de exigir certificação pré-mercado.
Nossa visão: A abordagem do Chile representa um equilíbrio pragmático entre fomentar a inovação e proteger os cidadãos dos riscos relacionados à IA. O modelo de autoavaliação pode se mostrar mais adaptável do que processos rígidos de pré-aprovação, potencialmente servindo como um modelo para outras nações latino-americanas que desenvolvem suas próprias estruturas de governança de IA. No entanto, a eficácia dependerá, em última análise, de mecanismos robustos de fiscalização e orientações claras para as empresas que navegam pelo sistema de classificação.
beFirstComment