Nvidia เปิดตัว Alpamayo-R1: โมเดล AI ใหม่สำหรับการขับขี่อัตโนมัติระดับ 4 และ AI เชิงกายภาพ

Nvidia ได้ประกาศเปิดตัวโครงสร้างพื้นฐานและโมเดล AI ใหม่ล่าสุด เพื่อสร้างรากฐานทางเทคโนโลยีสำหรับปัญญาประดิษฐ์เชิงกายภาพ (Physical AI) ซึ่งรวมถึงหุ่นยนต์และยานพาหนะอัตโนมัติที่สามารถรับรู้และโต้ตอบกับโลกแห่งความเป็นจริงได้

Nvidia ยักษ์ใหญ่ด้านเซมิคอนดักเตอร์ ได้ประกาศเปิดตัว Alpamayo-R1 ซึ่งเป็นแบบจำลองภาษาเชิงวิสัยทัศน์และการให้เหตุผลแบบเปิด (open reasoning vision language model) สำหรับการวิจัยการขับขี่อัตโนมัติ ในงานประชุม NeurIPS AI ที่เมืองซานดิเอโก รัฐแคลิฟอร์เนีย

บริษัทอ้างว่านี่คือแบบจำลองการกระทำภาษาเชิงวิสัยทัศน์ (Vision Language Action model) ตัวแรกที่มุ่งเน้นไปที่การขับขี่อัตโนมัติโดยเฉพาะ แบบจำลองภาษาเชิงวิสัยทัศน์สามารถประมวลผลได้ทั้งข้อความและภาพพร้อมกัน ทำให้ยานพาหนะสามารถ “มองเห็น” สภาพแวดล้อมและทำการตัดสินใจตามสิ่งที่รับรู้ได้

โมเดลใหม่นี้มีพื้นฐานมาจากแบบจำลอง Cosmos-Reason ของ Nvidia ซึ่งเป็นแบบจำลองการให้เหตุผลที่ใช้การคิดวิเคราะห์ก่อนที่จะตอบสนองหรือดำเนินการใด ๆ Nvidia ได้เปิดตัวตระกูลแบบจำลอง Cosmos ครั้งแรกในเดือนมกราคม 2025 และมีการเปิดตัวโมเดลเพิ่มเติมในเดือนสิงหาคม

Nvidia ระบุในบล็อกโพสต์ว่า เทคโนโลยีอย่าง Alpamayo-R1 มีความสำคัญอย่างยิ่งต่อบริษัทที่ต้องการบรรลุการขับขี่อัตโนมัติระดับ 4 (Level 4 autonomous driving) ซึ่งหมายถึงความเป็นอิสระอย่างเต็มที่ในพื้นที่ที่กำหนดและภายใต้สถานการณ์เฉพาะ

Nvidia หวังว่าแบบจำลองการให้เหตุผลประเภทนี้จะช่วยให้ยานพาหนะอัตโนมัติมี “สามัญสำนึก” (common sense) เพื่อเข้าถึงการตัดสินใจในการขับขี่ที่ซับซ้อนได้อย่างดียิ่งขึ้น

📝 สรุป

Nvidia เปิดตัว Alpamayo-R1 ซึ่งเป็นแบบจำลองภาษาเชิงวิสัยทัศน์และการให้เหตุผลแบบเปิด (VLA) ที่ออกแบบมาเพื่อการวิจัยการขับขี่อัตโนมัติโดยเฉพาะ โมเดลนี้ช่วยให้ยานพาหนะสามารถประมวลผลทั้งภาพและข้อความเพื่อทำการตัดสินใจอย่างมีเหตุผล โดยมีพื้นฐานมาจากโมเดล Cosmos-Reason เทคโนโลยีนี้ถือเป็นกุญแจสำคัญในการก้าวไปสู่การขับขี่อัตโนมัติระดับ 4 และช่วยเพิ่ม 'สามัญสำนึก' ให้กับ AI ของยานพาหนะ

🏷️ แท็ก:

Nvidia AI AutonomousDriving AlpamayoR1 PhysicalAI Level4Autonomy