โมเดล GPT-5.3-Codex-Spark สร้างโค้ดได้เร็วกว่า 1,000 โทเค็นต่อวินาที ซึ่งเร็วกว่าโมเดลรุ่นก่อนหน้าถึง 15 เท่าอย่างน่าทึ่ง ความเร็วระดับนี้เหนือกว่าคู่แข่งอย่าง Anthropic's Claude Opus 4.6 ที่ทำได้เพียงประมาณ 2.5 เท่าของความเร็วปกติ 68.2 โทเค็นต่อวินาที แม้ว่า Claude Opus จะเป็นโมเดลที่ใหญ่กว่าและมีความสามารถสูงกว่าก็ตาม
การเคลื่อนไหวครั้งนี้นับเป็นการที่ OpenAI เลือกใช้ฮาร์ดแวร์จาก Cerebras ซึ่งมีชิปขนาดใหญ่พิเศษ แทนที่จะพึ่งพา Nvidia ซึ่งครองตลาดชิป AI มาโดยตลอด Sachin Katti หัวหน้าฝ่าย Compute ของ OpenAI กล่าวว่า “Cerebras เป็นพันธมิตรด้านวิศวกรรมที่ยอดเยี่ยม และเรารู้สึกตื่นเต้นกับการเพิ่มขีดความสามารถด้านการอนุมานที่รวดเร็วนี้” Codex-Spark เปิดให้สมาชิก ChatGPT Pro (200 ดอลลาร์ต่อเดือน) ทดลองใช้งานในรูปแบบวิจัยผ่านแอป Codex, อินเทอร์เฟซบรรทัดคำสั่ง และส่วนขยาย VS Code ขณะเดียวกัน OpenAI ก็กำลังทยอยเปิดให้คู่ค้าเลือกใช้ผ่าน API
โมเดลนี้มาพร้อมหน้าต่างบริบท (context window) ขนาด 128,000 โทเค็น ซึ่งช่วยให้ AI ประมวลผลและเข้าใจข้อมูลได้ยาวขึ้น แต่ในระยะเริ่มต้นนี้ GPT-5.3-Codex-Spark ยังคงรองรับการทำงานกับข้อความเท่านั้น
🏷️ หมวดหมู่: AI, Biz & IT, AI agents, AI chips, AI coding, AI development tools, AI speed, Cerebras, code agents, machine learning, NVIDIA, openai, sam altman, tokens
🔗 อ่านบทความฉบับเต็ม: Arstechnica
