OpenAI เปิดตัว GPT-4V ทำให้ ChatGPT สามารถพูด ฟัง และ ดูภาพ ได้แล้ว

OpenAI ได้เปิดตัว GPT-4V ซึ่งเป็นโมเดลที่รองรับการมองเห็น และโหมดการสนทนาหลายรูปแบบสำหรับระบบ ChatGPT 

และด้วยการอัปเกรดใหม่ที่ประกาศเมื่อวันที่ 25 กันยายน ทำให้ผู้ใช้ ChatGPT จะสามารถมีส่วนร่วมกับแชทบอทในการสนทนาได้ โดยโมเดลที่ขับเคลื่อน ChatGPT, GPT-3.5 และ GPT-4 สามารถเข้าใจคำถามที่พูดด้วยภาษาธรรมดาและตอบกลับด้วยเสียงที่แตกต่างกันห้าแบบ

ตามโพสต์บนบล็อกของ OpenAI ระบุว่า อินเทอร์เฟซหลายรูปแบบใหม่นี้จะช่วยให้ผู้ใช้โต้ตอบกับ ChatGPT ในรูปแบบใหม่ต่าง ๆ:

“เพียงคุณถ่ายภาพสถานที่สำคัญขณะเดินทางและลองคุยสด ๆ เกี่ยวกับสิ่งที่น่าสนใจเกี่ยวกับสถานที่นั้น ๆ และเมื่อคุณถึงบ้าน ก็ถ่ายรูปตู้เย็นและตู้กับข้าวเพื่อดูว่ามื้อเย็นมีอะไรกินบ้าง (และถามคำถามเพื่อดูสูตรอาหารทีละขั้นตอน) ส่วนหลังอาหารเย็น ก็ช่วยลูกของคุณแก้โจทย์คณิตศาสตร์โดยการถ่ายรูปโจทย์”

ChatGPT เวอร์ชันอัปเกรดจะเปิดตัวแก่ผู้ใช้ Plus และ Enterprise บนแพลตฟอร์มมือถือในอีกสองสัปดาห์ข้างหน้า พร้อมการเข้าถึงที่ตามมาสำหรับนักพัฒนาและผู้ใช้รายอื่น ๆ “หลังจากนั้นไม่นาน”

อ้างอิง : cointelegraph
ภาพ linkedin

Share on facebook
Share on twitter
Share on linkedin

Radius

ผู้เชี่ยวชาญการเขียนข่าว บทความ ที่เกี่ยวข้องกับ Bitcoin , คริปโตเคอเรนซี่ และ Blockchain ทั้งในไทยและต่างประเทศ อัพเดทราคา มุมมองการลงทุน ใหม่ล่าสุดทุกวัน
ข่าวต่อไป