יום טוב AI Enthusiasts. 10 בספטמבר 2025 - צ'ילה התקרבה צעד נוסף ליישום רגולציה מקיפה על בינה מלאכותית, לאחר שחברי הפרלמנט קידמו הצעת חוק פורצת דרך המאמצת מסגרת מבוססת סיכונים הדומה לחוק הבינה המלאכותית של האיחוד האירופי. הצעת החוק, העומדת לדיון לאומי, תמיין מערכות בינה מלאכותית לארבע קטגוריות סיכון נפרדות ותקים איסורים חמורים על טכנולוגיות הנחשבות כמעמידות סיכון בלתי מקובל לכבוד האדם.
במסגרת המוצעת, מערכות בינה מלאכותית המייצרות דיפ-פייקים או תוכן מיני המנצל אוכלוסיות פגיעות, במיוחד ילדים ומתבגרים, ייאסרו לחלוטין. הצעת החוק אוסרת גם על מערכות שנועדו לתמרן רגשות ללא הסכמה מדעת ואלו האוספות נתונים ביומטריים של פנים ללא רשות מפורשת. השר אצ'וורי הסביר כי מקרים של אי-עמידה בדרישות יגררו סנקציות מנהליות שיוטלו על ידי סוכנות הגנת המידע העתידית של צ'ילה, והחלטותיה יהיו נתונות לערעור בבתי משפט. מערכות בינה מלאכותית בסיכון גבוה, כולל כלי גיוס העלולים להכניס bias (הטיה) לסינון מועמדים לעבודה, יעמדו בפני דרישות פיקוח מחמירות.
ההתפתחות הזו ממקמת את צ'ילה כמובילה אזורית בממשל הבינה המלאכותית, ומשקפת מגמות גלובליות רחבות יותר לכיוון רגולציה מקיפה על התחום. הגישה מבוססת הסיכונים משקפת מסגרות רגולטוריות העולות במספר רב של מדינות, בעוד ממשלות ברחבי העולם מתמודדות עם האיזון בין חדשנות לבין נזקים חברתיים פוטנציאליים. שלא כמו כמה מודלים רגולטוריים, ההצעה הצ'יליאנית מטילה את האחריות על החברות לבצע הערכה עצמית ולסווג את מערכות הבינה המלאכותית שלהן לפי קטגוריות הסיכון שנקבעו, במקום לדרוש אישור טרם השיווק.
השקפתנו: הגישה של צ'ילה מייצגת איזון מעשי בין טיפוח חדשנות להגנה על האזרחים מפני סיכונים הקשורים לבינה מלאכותית. מודל ההערכה העצמית עשוי להיות גמיש יותר מתהליכי אישור מקדימים נוקשים, ויכול לשמש כתבנית למדינות לטינו-אמריקאיות אחרות המפתחות מסגרות ממשל משלהן לבינה מלאכותית. עם זאת, היעילות בסופו של דבר תהיה תלויה במנגנוני אכיפה חזקים ובהנחיות ברורות לחברות המתמודדות עם מערכת הסיווג.
beFirstComment