يوم طيب لمحبي الذكاء الاصطناعي. ١٠ سبتمبر ٢٠٢٥ - اقتربت تشيلي من تنفيذ تنظيم شامل للذكاء الاصطناعي مع تقدم المشرعين في مشروع قانون رائد يعتمد إطارًا قائمًا على المخاطر يشبه قانون الاتحاد الأوروبي للذكاء الاصطناعي. التشريع المقترح، الذي يواجه نقاشاً وطنياً، سيصنف أنظمة الذكاء الاصطناعي إلى أربع فئات مخاطر متميزة ويضع حظراً صارماً على التقنيات التي يُعتقد أنها تشكل مخاطر غير مقبولة على الكرامة البشرية.
بموجب الإطار المقترح، ستواجه أنظمة الذكاء الاصطناعية التي تولد محتوىً مزيفاً عميقاً (deepfakes) أو محتوى جنسياً يستغل الفئات الضعيفة، ولا سيما الأطفال والمراهقين، حظراً كاملاً. كما يحظر القانون الأنظمة المصممة للتلاعب بالمشاعر دون موافقة مستنيرة وتلك التي تجمع بيانات القياسات الحيوية للوجه بدون إذن صريح. وأوضحت الوزيرة اتشيڤيري أن حالات عدم الامتثال ستنتهي بفرض عقوبات إدارية تُطبقها وكالة حماية البيانات المستقبلية في تشيلي، مع إمكانية استئناف القرارات أمام المحاكم. وستواجه أنظمة الذكاء الاصطناع عالية الخطورة، بما فيها أدوات التوظيف التي قد تُحدث تحيّزاً في فرز طلبات الوظائف، متطلبات رقابية صارمة.
هذا التطور يضع تشيلي في موقع الريادة الإقليمية في حوكمة الذكاء الاصطناعي، مما يعكس اتجاهات عالمية أوسع نحو التنظيم الشامل للذكاء الاصطناعي. النهج القائم على المخاطر يعكس أطراً تنظيمية تبرز عبر ولايات قضائية متعددة، بينما تعاني الحكومات حول العالم لتحقيق التوازن بين الابتكار والأضرار المجتمعية المحتملة. على عكس بعض النماذج التنظيمية، يضع اقتراح تشيلي المسؤولية على الشركات لتقييم ذاتي وتصنيف أنظمتها للذكاء الاصطناعي وفقاً لفئات المخاطر المُحددة، بدلاً من اشتراط الحصول على شهادات ما قبل السوق.
وجهة نظرنا: يمثل نهج تشيلي توازناً واقعياً بين تعزيز الابتكار وحماية المواطنين من المخاطر المرتبطة بالذكاء الاصطناعي. يمكن أن يثبت نموذج التقييم الذاتي أنه أكثر قدرة على التكيف من عمليات الموافقة المسبقة الصارمة، وقد يصبح بمثابة نموذج لدول أمريكا اللاتينية الأخرى التي تطوير أطر حوكمة الذكاء الاصطناعي الخاصة بها. ومع ذلك، فإن الفعالية ستعتمد في نهاية المطاف على آلات إنفاض قوية وإرشادات واضحة للشركات التي تتعامل مع نظام التصنيف.
beFirstComment