Bonjour aux passionnés d'IA. 10 septembre 2025 - Le Chili se rapproche de la mise en œuvre d'une régulation complète de l'intelligence artificielle alors que les législateurs font avancer un projet de loi novateur qui adopte un cadre basé sur les risques similaire à la loi européenne sur l'IA. La législation proposée, qui fait face à un débat national, classerait les systèmes d'IA en quatre catégories de risque distinctes et établirait des interdictions strictes pour les technologies considérées comme présentant des risques inacceptables pour la dignité humaine.
Dans le cadre proposé, les systèmes d'IA générant des deepfakes ou du contenu sexuel exploitant des groupes vulnérables, en particulier les enfants et les adolescents, seraient purement et simplement interdits. Le projet de loi interdit également les systèmes conçus pour manipuler les émotions sans consentement éclairé et ceux collectant des données biométriques faciales sans autorisation explicite. Le ministre Etcheverry a expliqué que les cas de non-conformité entraîneraient des sanctions administratives imposées par la future Agence de Protection des Données du Chili, les décisions étant susceptibles d'appel devant les tribunaux. Les systèmes d'IA à haut risque, y compris les outils de recrutement qui pourraient introduire un biais dans la présélection des candidatures, seraient soumis à des exigences de contrôle strictes.
Cette évolution positionne le Chili comme un leader régional en matière de gouvernance de l'IA, reflétant les tendances mondiales plus larges vers une régulation complète de l'IA. L'approche basée sur les risques reflète les cadres réglementaires émergeant dans de multiples juridictions, alors que les gouvernements du monde entier s'efforcent de trouver un équilibre entre l'innovation et les préjudices sociétaux potentiels. Contrairement à certains modèles réglementaires, la proposition du Chili place la responsabilité sur les entreprises pour qu'elles auto-évaluent et classent leurs systèmes d'IA selon les catégories de risque établies, plutôt que d'exiger une certification préalable à la mise sur le marché.
Notre point de vue : L'approche du Chili représente un équilibre pragmatique entre la stimulation de l'innovation et la protection des citoyens contre les risques liés à l'IA. Le modèle d'auto-évaluation pourrait s'avérer plus adaptable que des processus d'approbation préalable rigides, servant potentiellement de modèle pour d'autres nations d'Amérique latine développant leurs propres cadres de gouvernance de l'IA. Cependant, l'efficacité dépendra en dernier ressort de mécanismes d'application robustes et de lignes directrices claires pour les entreprises naviguant dans le système de classification.
beFirstComment