Mira Murati หัวหน้าเจ้าหน้าที่ฝ่ายเทคโนโลยีของ OpenAI เชื่อว่า หน่วยงานกำกับดูแลของรัฐบาลควร “มีส่วนร่วมอย่างมาก” ในการพัฒนามาตรฐานความปลอดภัยสำหรับการใช้งานโมเดลปัญญาประดิษฐ์ขั้นสูง เช่น ChatGPT
นอกจากนี้ เธอยังเชื่อว่า การเสนอให้หยุดพัฒนาเป็นเวลา 6 เดือนไม่ใช่วิธีที่ถูกต้องในการสร้างระบบที่ปลอดภัยขึ้น และอุตสาหกรรมยังไม่ใกล้ที่จะไปถึง AI ที่มีความสามารถ หรือปฏิบัติงานใด ๆ ที่ต้องใช้สติปัญญา รวมทั้งความรู้ความเข้าใจในระดับมนุษย์ โดยความคิดเห็นของเธอมาจากการให้สัมภาษณ์กับ Associated Press ที่เผยแพร่เมื่อวันที่ 24 เมษายน
เมื่อถูกถามเกี่ยวกับข้อควรระวังด้านความปลอดภัยที่ OpenAI ใช้ก่อนการเปิดตัว GPT-4 Murati อธิบายว่า บริษัทใช้วิธีการฝึกอบรมแบบช้า ๆ เพื่อไม่เพียงแต่ยับยั้งพฤติกรรมที่ไม่พึงประสงค์เท่านั้น แต่ยังค้นหาข้อกังวลด้าน downstream ที่เกี่ยวข้องกับการเปลี่ยนแปลงดังกล่าวด้วย:
“คุณต้องระวังให้มาก ๆ เพราะคุณอาจสร้างความไม่สมดุลอื่น ๆ และคุณต้องตรวจสอบอย่างต่อเนื่อง […] และระมัดระวังทุกครั้งที่คุณทำการแทรกแซง”
ภายหลังจากการเปิดตัว GPT-4 ผู้เชี่ยวชาญที่เกรงกลัวและไม่รู้จักเกี่ยวกับอนาคตของ AI ได้เรียกร้องให้มีการแทรกแซง ตั้งแต่การเพิ่มกฎระเบียบของรัฐบาล ไปจนถึงการหยุดพัฒนา AI ทั่วโลกเป็นเวลา 6 เดือน
Murati แสดงการสนับสนุนแนวคิดการเพิ่มการมีส่วนร่วมของรัฐบาล โดยระบุว่า “ระบบเหล่านี้ควรได้รับการควบคุม” และกล่าวต่อว่า “ที่ OpenAI เรากำลังพูดคุยกับรัฐบาลและหน่วยงานกำกับดูแลและองค์กรอื่น ๆ ที่กำลังพัฒนาระบบเหล่านี้อย่างต่อเนื่อง”