Bună ziua, entuziaștilor AI. 10 septembrie 2025 - Chile s-a apropiat de implementarea unei reglementări cuprinzătoare a inteligenței artificiale, pe măsură ce legiuitorii avansează un proiect de lege revoluționar care adoptă un cadru bazat pe risc, similar Actului UE privind IA. Propunerea legislativă, care se confruntă cu dezbateri naționale, ar clasifica sistemele de IA în patru categorii distincte de risc și ar stabili interdicții stricte asupra tehnologiilor considerate a prezenta riscuri inacceptabile pentru demnitatea umană.
În cadrul propus, sistemele de IA care generează deepfake-uri sau conținut sexual exploatând grupuri vulnerabile, în special copiii și adolescenții, s-ar confrunta cu interdicții totale. Proiectul de lege interzice, de asemenea, sistemele concepute pentru a manipula emoțiile fără consimțământ informat și cele care colectează date biometrice faciale fără permisiune explicită. Ministrul Etcheverry a explicat că cazurile de nerespectare vor avea ca rezultat sancțiuni administrative impuse de viitoarea Agenție pentru Protecția Datelor a Chile, deciziile fiind supuse unor contestații în instanță. Sistemele de IA de înalt risc, inclusiv instrumentele de recrutare care ar putea introduce părtinire în selecția candidaților, s-ar confrunta cu cerințe stringente de supraveghere.
Această dezvoltare plasează Chile în postura de lider regional în guvernanța IA, reflectând tendințe globale mai largi către o reglementare cuprinzătoare a inteligenței artificiale. Abordarea bazată pe risc oglindește cadrele de reglementare care apar în multiple jurisdicții, pe măsură ce guvernele din întreaga lume se luptă cu echilibrarea inovației față de potențialele daune societale. Spre deosebire de unele modele de reglementare, propunerea Chilei plasează responsabilitatea asupra companiilor de a-și auto-evalua și clasifica sistemele de IA conform categoriilor de risc stabilite, în loc să necesite o certificare pre-comercializare.
Punctul nostru de vedere: Abordarea Chilei reprezintă un echilibru pragmatic între promovarea inovației și protejarea cetățenilor împotriva riscurilor legate de IA. Modelul de auto-evaluare s-ar putea dovedi mai adaptabil decât procesele rigide de pre-aprobare, servind potențial ca model pentru alte națiuni latino-americane care își dezvoltă propriile cadre de guvernanță a IA. Cu toate acestea, eficacitatea va depinde în ultimă instanță de mecanisme robuste de aplicare și de îndrumări clare pentru companiile care navighează sistemul de clasificare.
beFirstComment