Sam Altman CEO ของ OpenAI , หัวหน้าเจ้าหน้าที่เทคโนโลยี Greg Brockman , และนักวิทยาศาสตร์ชั้นนำ Ilya Sutskever เพิ่งเขียนบล็อกโพสต์ที่ให้รายละเอียดเกี่ยวกับจุดยืนของ OpenAI ในการพัฒนาและการกำกับดูแลของ
อาจไม่น่าแปลกใจเลยที่บริษัท ซึ่งได้รับการยอมรับอย่างกว้างขวางว่าเป็นผู้นำในอุตสาหกรรมเทคโนโลยีปัญญาประดิษฐ์ (AI) ในปัจจุบัน เชื่อว่าการไม่พัฒนา AI เหนือมนุษย์จะมีความเสี่ยงกว่าการเดินหน้าด้วยความพยายาม:
“จากภาพที่เราเห็นในตอนนี้ เป็นไปได้ว่าภายใน 10 ปีข้างหน้า ระบบ AI จะเกินระดับทักษะผู้เชี่ยวชาญ และดำเนินกิจกรรมที่มีประสิทธิผลมากพอ ๆ กับหนึ่งในองค์กรที่ใหญ่ที่สุดในปัจจุบัน”
ศักยภาพของระบบ AI ในการเข้าถึงระดับมนุษย์ (ที่มักเรียกกันว่า “AGI” หรือปัญญาประดิษฐ์ทั่วไป) ซึ่งตามที่ OpenAI เตือนว่า AI ที่มีความสามารถเกินขีดของมนุษย์ในระดับผู้เชี่ยวชาญนั้นยังคงเป็นที่ถกเถียงกันอย่างกว้างขวาง โดยผู้เชี่ยวชาญหลายคนอ้างว่ายังห่างไกลที่เครื่องจักรจะตอบสนองหรือเกินความสามารถทางปัญญาของเรา
บล็อกโพสต์ดังกล่าวชี้ให้เห็นถึงการกำกับดูแลของรัฐบาลที่เพิ่มขึ้น , การมีส่วนร่วมของประชาชนในกระบวนการตัดสินใจ , และการทำงานร่วมกันที่แน่นแฟ้นยิ่งขึ้นระหว่างนักพัฒนาซอฟต์แวร์และบริษัทต่าง ๆ ในพื้นที่ ซึ่งประเด็นเหล่านี้สะท้อนถึงคำตอบที่ Altman ให้ไว้ในการตอบคำถามจากสมาชิกคณะอนุกรรมการวุฒิสภาในการพิจารณาของรัฐสภาเมื่อเร็วๆ นี้
ผู้เขียนเสนอแนะว่าการหยุดการสร้าง AI อัจฉริยะที่อ้างว่าหลีกเลี่ยงไม่ได้นั้นจำเป็นต้องมีระบอบการเฝ้าระวังทั่วโลก “และแม้แต่สิ่งนั้น” พวกเขาเขียนว่า “ก็ไม่รับประกันว่าจะได้ผล”
ในท้ายที่สุด ผู้เขียนสรุปได้ว่า เพื่อที่จะพัฒนากลไกการควบคุมและธรรมาภิบาลที่จำเป็นเพื่อปกป้องมนุษยชาติจาก AI ที่ชาญฉลาด OpenAI จะต้องทำงานต่อไปเพื่อสร้าง AI ที่ฉลาดล้ำ