சிலி விரிவான AI ஒழுங்குமுறை கட்டமைப்பை முன்னெடுக்கிறது

By M. Otani : AI Consultant Insights : AICI • 9/10/2025

AI News

நல்வரவு AI ஆர்வலர்களே. செப்டம்பர் 10, 2025 - ஐரோப்பிய ஒன்றியத்தின் AI சட்டத்தைப் போன்ற ஒரு அபாயம்-சார்ந்த கட்டமைப்பை ஏற்கும் ஒரு தரை-breaking சட்ட முன்வடிவத்தை சட்டமன்ற உறுப்பினர்கள் முன்னெடுப்பதால், சிலி விரிவான செயற்கை நுண்ணறிவு ஒழுங்குமுறையை நடைமுறைப்படுத்துவதற்கு நெருக்கமாக நகர்ந்துள்ளது. தேசிய விவாதத்தை எதிர்கொள்ளும் இந்த முன்மொழியப்பட்ட சட்டம், AI அமைப்புகளை நான்கு தனித்துவமான அபாய வகைகளாக வகைப்படுத்தி, மனித கண்ணியத்திற்கு ஏற்றுக்கொள்ள முடியாத அபாயங்களை ஏற்படுத்தக்கூடிய தொழில்நுட்பங்களுக்கு கடுமையான தடைகளை நிறுவும்.

முன்மொழியப்பட்ட கட்டமைப்பின் கீழ், ஆழ்ந்த-போலி (deepfakes) அல்லது பாலியல் உள்ளடக்கத்தை உருவாக்கும் AI அமைப்புகள், குறிப்பாக குழந்தைகள் மற்றும் இளைஞர்கள் போன்ற பாதிக்கப்படக்கூடிய குழுக்களை சுரண்டுவது, முழுமையாக தடைசெய்யப்படும். தகவலறிந்த சம்மதம் இல்லாமல் உணர்ச்சிகளை கையாளும் அமைப்புகள் மற்றும் வெளிப்படையான அனுமதி இல்லாமல் முக உயிர்-அளவியல் தரவுகளை சேகரிக்கும் அமைப்புகளையும் இந்த சட்ட முன்வடிவம் தடை செய்கிறது. இணக்கமின்மை நிகழ்வுகள், சிலியின் எதிர்கால தரவு பாதுகாப்பு நிறுவனத்தால் நிர்வாகத் தடைகளை விதிப்பதன் மூலம் முடிவடையும், மேலும் நீதிமன்ற மேல்முறையீடுகளுக்கு உட்பட்டவை என்று அமைச்சர் எட்செவெரி விளக்கினார். வேலைவாய்ப்பு கருவிகளில் சார்பு (bias) ஐ அறிமுகப்படுத்தக்கூடிய உயர்-அபாய AI அமைப்புகள், கடுமையான மேற்பார்வை தேவைகளை எதிர்கொள்ளும்.

இந்த முன்னேற்றம், AI ஆட்சியில் ஒரு பிராந்திய தலைவராக சிலியை நிலைநிறுத்துகிறது, மேலும் இது விரிவான AI ஒழுங்குமுறையை நோக்கிய பரந்த உலகளாவிய போக்குகளை பிரதிபலிக்கிறது. அபாயம்-சார்ந்த அணுகுமுறை, உலகெங்கிலும் உள்ள அரசாங்கங்கள் புதுமையை சாத்தியமான சமூகத் தீங்குகளுக்கு எதிராக சமநிலைப்படுத்துவதால், பல அதிகார வரம்புகளில் எழும் ஒழுங்குமுறை கட்டமைப்புகளை பிரதிபலிக்கிறது. சில ஒழுங்குமுறை மாதிரிகளைப் போலல்லாமல், சிலியின் முன்மொழிவு, சந்தை-முன் சான்றிதழ் தேவைப்படுத்துவதற்கு பதிலாக, நிறுவனங்கள் நிறுவப்பட்ட அபாய வகைகளுக்கு ஏற்ப தங்கள் AI அமைப்புகளை சுய-மதிப்பீடு செய்து வகைப்படுத்தும் பொறுப்பை விதிக்கிறது.

எங்கள் பார்வை: சிலியின் அணுகுமுறை, புதுமையை ஊக்குவிப்பதற்கும் AI-தொடர்பான அபாயங்களிலிருந்து குடிமக்களைப் பாதுகாப்பதற்கும் இடையே ஒரு நடைமுறை சமநிலையை குறிக்கிறது. சுய-மதிப்பீடு மாதிரி, கடினமான முன்-அனுமதி செயல்முறைகளை விட மிகவும் பொருத்தமானதாக நிரூபிக்கக்கூடும், மேலும் தங்கள் சொந்த AI ஆட்சிக் கட்டமைப்புகளை உருவாக்கும் மற்ற லத்தீன் அமெரிக்க நாடுகளுக்கு ஒரு மாதிரியாக செயல்படக்கூடும். இருப்பினும், திறன் கடுமையான அமலாக்க வழிமுறைகள் மற்றும் வகைப்பாட்டு அமைப்பை நாடும் நிறுவனங்களுக்கான தெளிவான வழிகாட்டுதல்களைச் சார்ந்திருக்கும்.

© 2025 Written by Dr Masayuki Otani : AI Consultant Insights : AICI. All rights reserved.

கருத்து

beFirstComment

It's not AI that will take over
it's those who leverage it effectively that will thrive

Obtain your FREE preliminary AI integration and savings report unique to your specific business today wherever your business is located! Discover incredible potential savings and efficiency gains that could transform your operations.

This is a risk free approach to determine if your business could improve with AI.

Your AI journey for your business starts here. Click the banner to apply now.

உங்கள் இலவச அறிக்கையைப் பெறுங்கள்