วิธีเดียวที่จะต่อสู้กับการใช้ปัญญาประดิษฐ์ (AI) ในทางที่ผิดอาจเป็นการพัฒนา AI ที่ทรงพลังยิ่งขึ้นอย่างต่อเนื่องและส่งมอบให้อยู่ในมือของรัฐบาล
และนั่นดูเหมือนจะเป็นข้อสรุปที่ทีมนักวิจัยได้ค้นพบในบทความที่ตีพิมพ์เมื่อเร็ว ๆ นี้ในเรื่อง “Computing power then governance of artificial intelligence” โดยนักวิทยาศาสตร์จาก OpenAI, Cambridge, Oxford และมหาวิทยาลัยและสถาบันอื่นๆ อีกกว่าสิบแห่งได้ทำการวิจัยเพื่อตรวจสอบความท้าทายในปัจจุบัน และอนาคตที่อาจเกิดขึ้นที่เกี่ยวข้องกับการควบคุมการใช้และการพัฒนา AI
การรวมศูนย์
ข้อโต้แย้งหลักของรายงานนี้เกี่ยวข้องกับแนวคิดที่ว่า วิธีเดียวที่จะควบคุมผู้ที่สามารถเข้าถึงระบบ AI ที่ทรงพลังที่สุดในอนาคตคือการควบคุมการเข้าถึงฮาร์ดแวร์ที่จำเป็นในการฝึกอบรมและเรียกใช้โมเดล
“ผู้กำหนดนโยบายสามารถใช้คอมพิวเตอร์เพื่ออำนวยความสะดวกในด้านกฎระเบียบของ AI , จัดสรรทรัพยากรเพื่อส่งเสริมผลลัพธ์ที่เป็นประโยชน์ , และบังคับใช้ข้อจำกัดต่อการพัฒนาและการใช้งาน AI ที่ขาดความรับผิดชอบหรือเป็นอันตราย”
ในบริบทนี้ “การประมวลผล” หมายถึงฮาร์ดแวร์พื้นฐานที่จำเป็นในการพัฒนา AI เช่น GPU และ CPU
นักวิจัยแนะนำว่า วิธีที่ดีที่สุดในการป้องกันไม่ให้ผู้คนใช้ AI เพื่อก่อให้เกิดอันตรายก็คือการตัดพวกเขาออกจากแหล่งที่มา โดยสิ่งนี้ชี้ให้เห็นว่ารัฐบาลจำเป็นต้องพัฒนาระบบเพื่อติดตามการพัฒนา , การขาย , และการทำงานของฮาร์ดแวร์ใด ๆ ที่อาจถือว่าจำเป็นต่อการพัฒนา AI ขั้นสูง
การกำกับดูแล AI
ในบางแง่นั้นพบว่า รัฐบาลทั่วโลกกำลังใช้ “การกำกับดูแลด้านคอมพิวเตอร์” อยู่แล้ว ตัวอย่างเช่น สหรัฐอเมริกามีการจำกัดการขาย GPU บางรุ่นซึ่งโดยทั่วไปใช้ในการฝึกระบบ AI ไปยังประเทศต่างๆ เช่น จีน
แต่จากการวิจัยระบุว่า การจำกัดความสามารถอย่างแท้จริงสำหรับผู้ไม่หวังดีในการทำอันตรายด้วย AI จะทำให้ผู้ผลิตต้องสร้าง “kill switches” ลงในฮาร์ดแวร์ และสิ่งนี้อาจทำให้รัฐบาลสามารถดำเนินการ “บังคับใช้ระยะไกล” ได้ เช่น การปิดศูนย์ฝึกอบรม AI ที่ผิดกฎหมาย
อย่างไรก็ตาม ดังที่นักวิจัยตั้งข้อสังเกตว่า “แนวทางเหล่านั้นมีความเสี่ยงที่สำคัญในด้านต่างๆ เช่น ความเป็นส่วนตัว , ผลกระทบทางเศรษฐกิจ , และการรวมศูนย์อำนาจ”
ตัวอย่างเช่น การตรวจสอบการใช้ฮาร์ดแวร์ในสหรัฐอเมริกา อาจขัดต่อคำแนะนำล่าสุดของทำเนียบขาวในการพัฒนา “พิมพ์เขียวสำหรับร่างกฎหมายสิทธิ AI” ที่ระบุว่าประชาชนมีสิทธิในการปกป้องข้อมูลของตน
นอกเหนือจากข้อกังวลเหล่านั้น นักวิจัยยังชี้ให้เห็นว่าความก้าวหน้าล่าสุดในการฝึกอบรม “ประสิทธิภาพการสื่อสาร” อาจนำไปสู่การใช้การคำนวณแบบ decentralized เพื่อฝึกอบรม , สร้าง , และเรียกใช้โมเดล ซึ่งอาจทำให้รัฐบาลค้นหา ตรวจสอบ และปิดฮาร์ดแวร์ที่เกี่ยวข้องกับการฝึกอบรมที่ผิดกฎหมายได้ยากขึ้น
อ้างอิง : cointelegraph.com
ภาพ vocal.media