Buongiorno appassionati di IA. 10 settembre 2025 - Il Cile si avvicina all'attuazione di una regolamentazione completa sull'intelligenza artificiale poiché i legislatori avanzano un progetto di legge pionieristico che adotta un quadro basato sul rischio simile all'AI Act dell'UE. La proposta legislativa, che attende il dibattito nazionale, classificherebbe i sistemi di IA in quattro distinte categorie di rischio e stabilirebbe divieti rigorosi per le tecnologie ritenute in grado di rappresentare rischi inaccettabili per la dignità umana.
Secondo il quadro proposto, i sistemi di IA che generano deepfake o contenuti sessuali che sfruttano gruppi vulnerabili, in particolare bambini e adolescenti, sarebbero soggetti a divieti assoluti. Il disegno di legge vieta anche i sistemi progettati per manipolare le emozioni senza consenso informato e quelli che raccolgono dati biometrici facciali senza esplicita autorizzazione. Il ministro Etcheverry ha spiegato che i casi di non conformità comporterebbero sanzioni amministrative imposte dalla futura Agenzia per la Protezione dei Dati del Cile, con decisioni soggette a ricorso in tribunale. I sistemi di IA ad alto rischio, inclusi gli strumenti di reclutamento che potrebbero introdurre bias nella selezione delle candidature di lavoro, sarebbero soggetti a rigorosi requisiti di supervisione.
Questo sviluppo posiziona il Cile come leader regionale nella governance dell'IA, riflettendo le tendenze globali più ampie verso una regolamentazione completa dell'IA. L'approccio basato sul rischio rispecchia i quadri normativi emergenti in molteplici giurisdizioni, mentre i governi di tutto il mondo cercano di bilanciare l'innovazione con i potenziali danni sociali. A differenza di alcuni modelli normativi, la proposta del Cile attribuisce alle aziende la responsabilità di autovalutare e classificare i propri sistemi di IA secondo categorie di rischio stabilite, piuttosto che richiedere una certificazione pre-commercializzazione.
La nostra opinione: L'approccio del Cile rappresenta un equilibrio pragmatico tra la promozione dell'innovazione e la protezione dei cittadini dai rischi legati all'IA. Il modello di autovalutazione potrebbe rivelarsi più adattabile dei rigidi processi di pre-approvazione, potenzialmente servendo da modello per altre nazioni latinoamericane che sviluppano i propri quadri di governance dell'IA. Tuttavia, l'efficacia dipenderà in ultima analisi da meccanismi di enforcement robusti e da linee guida chiare per le aziende che navigano il sistema di classificazione.
beFirstComment