การแข่งขันสะสมอาวุธด้านปัญญาประดิษฐ์ร้อนแรงขึ้นด้วย GPT‑5.3
เมื่อต้นปี 2026 การตามให้ทันการเปิดตัว AI กลายเป็นเรื่องยากขึ้น: การอัปเดตมาเร็วและถี่จนพาดหัวข่าวดูล้าสมัยได้ภายในไม่กี่วัน วันหนึ่งโฟกัสคือ “การให้เหตุผลที่แข็งแกร่งขึ้น,” วันถัดมาคือ ความเร็วและความหน่วงที่ต่ำลง และไม่นานหลังจากนั้น ก็เป็น AI ที่เขียนโค้ดได้เหมือนเพื่อนร่วมทีมมากขึ้น พอถึงสุดสัปดาห์ คู่แข่งก็โพสต์การ์ดระบบใหม่ และบทสนทนาก็เลื่อนไปสู่เกณฑ์วัดผลและข้อถกเถียงว่าอะไรนับเป็น “ความก้าวหน้าจริง” อย่างรวดเร็ว
ความเคลื่อนไหวล่าสุดของ OpenAI ในสมรภูมิที่เปลี่ยนเร็วนี้คือ GPT‑5.3‑Codex — โมเดลที่มุ่งเน้นการเขียนโค้ดเชิงเอเจนต์ หมายความว่าสามารถวางแผน ใช้เครื่องมือ และทำงานหลายขั้นตอนด้วยการคอยกำกับดูแลน้อยลง OpenAI อธิบายว่าโมเดลนี้ผสานประสิทธิภาพการเขียนโค้ดชั้นนำจาก Codex รุ่นก่อน เข้ากับการให้เหตุผลที่แข็งแกร่งขึ้นและความรู้ระดับมืออาชีพจากตระกูล GPT‑5 และทำงานได้เร็วขึ้น 25% สำหรับผู้ใช้ Codex
มาดูกันว่า GPT‑5.3‑Codex เปลี่ยนอะไร ทำไมจึงสำคัญ และผู้เล่นรายใหญ่ตอบสนองอย่างไร
ทำไม GPT‑5.3 จึงเป็นเรื่องใหญ่
ก่อนอื่น รายละเอียดเล็กแต่สำคัญ: เมื่อคนพูดว่า “GPT‑5.3” ตอนนี้รุ่นที่เปิดให้สาธารณะคือ GPT‑5.3‑Codex ซึ่งเป็นโมเดลตระกูล Codex ที่มุ่งเน้นการสร้างซอฟต์แวร์และทำงานบนคอมพิวเตอร์ มันถูกออกแบบมาเพื่อรับมือภารกิจยาวที่รวมถึงการค้นคว้า การใช้เครื่องมือ และการดำเนินงานที่ซับซ้อน ให้ทำงานได้คล้ายเพื่อนร่วมงานที่คุณชี้แนะได้ มากกว่าการเป็นแชทบอทง่ายๆ ที่รอคำถาม
OpenAI ยังให้คำประกาศที่ฟังดูเหมือนนิยายวิทยาศาสตร์ แต่เขียนไว้ตรงๆ: GPT‑5.3‑Codex มี “บทบาทสำคัญต่อการสร้างตัวมันเอง” ทีม Codex ใช้รุ่นแรกๆ เพื่อดีบักการฝึก จัดการการดีพลอย และวินิจฉัยผลทดสอบ นั่นคือโมเดลช่วยเร่งวงจรพัฒนาของตัวเอง
เรื่องนี้สำคัญเพราะหนึ่งเหตุผล: วงจรป้อนกลับ (feedback loop) เมื่อเครื่องมือ AI ช่วยสร้างเครื่องมือ AI รุ่นถัดไปได้เร็วขึ้น จังหวะการเปิดตัวก็อาจเร่งขึ้นอีก หากก่อนหน้านี้ความก้าวหน้า AI รู้สึกว่าเร็วอยู่แล้ว ตรงนี้คือช่วงที่มันสวมรองเท้าสเก็ตโรลเลอร์
วันเปิดตัว คุณสมบัติหลัก และราคา ของ GPT‑5.3‑Codex
OpenAI เปิดตัว GPT‑5.3‑Codex เมื่อวันที่ 5 กุมภาพันธ์ 2026 โดยระบุว่าเป็นโมเดลการเขียนโค้ดเชิงเอเจนต์ที่ทรงความสามารถที่สุดของตนจนถึงปัจจุบัน พร้อมชูความเร็วที่เพิ่มขึ้น (เร็วขึ้น 25%) และสมรรถนะที่ดีขึ้นบนเกณฑ์วัดด้านโค้ดและเอเจนต์
GPT‑5.3‑Codex ถูกสร้างมาเพื่ออะไร
OpenAI เน้นงานที่ใช้เวลานาน: งานที่อาจกินเวลาหลายชั่วโมง ใช้เครื่องมือ และต้องทำหลายขั้นตอน
ยังรายงานผลงานที่แข็งแกร่งบนเกณฑ์วัดที่ใช้ทดสอบวิศวกรรมซอฟต์แวร์จริงและพฤติกรรมเอเจนต์ เช่น SWE‑Bench Pro และ Terminal‑Bench และกล่าวถึงประสิทธิภาพบน OSWorld และ GDPval (เกณฑ์วัดที่ตั้งใจวัดความสามารถการใช้เครื่องมือในโลกจริง)
ท่าทีด้านความปลอดภัยดังชัดกว่าก่อน
ในการ์ดระบบมีบรรทัดที่ชัดเจน: OpenAI ปฏิบัติต่อรุ่นนี้ว่าเป็นการเปิดตัวครั้งแรกภายใต้ฉลากไซเบอร์ซีเคียวริตี้ความสามารถสูง โดยเปิดใช้มาตรการป้องกัน
นี่เป็นสัญญาณสำคัญของ “การแข่งขันอาวุธ” บริษัทไม่ได้แข่งกันแค่ความสามารถดิบ แต่ยังแข่งกันด้านกรอบความปลอดภัย การเฝ้าระวัง และความน่าเชื่อถือ
ราคา (OpenAI API) สำหรับ GPT‑5.3‑Codex
สำหรับระดับ Standard ราคาแสดงเป็น:
- $1.75 อินพุต / 1M โทเค็น
- $0.175 อินพุตแบบแคช / 1M โทเค็น
- $14.00 เอาต์พุต / 1M โทเค็น
สำหรับระดับ Priority ราคาเป็น:
- $3.50 อินพุต / 1M โทเค็น
- $0.35 อินพุตแบบแคช / 1M โทเค็น
- $28.00 เอาต์พุต / 1M โทเค็น
ความเร็วกลายเป็นอาวุธ: GPT‑5.3‑Codex‑Spark และศึกความหน่วง
หนึ่งสัปดาห์หลังการเปิดตัวหลักของ GPT‑5.3‑Codex OpenAI เปิดตัว GPT‑5.3‑Codex‑Spark (12 กุมภาพันธ์ 2026) โดยเรียกว่าเป็น research preview และเป็นโมเดลแรกของตนที่ออกแบบมาสำหรับการเขียนโค้ดแบบเรียลไทม์
OpenAI ระบุว่า Codex‑Spark ถูกปรับแต่งสำหรับฮาร์ดแวร์ความหน่วงต่ำเป็นพิเศษ และสามารถส่งออกได้มากกว่า 1000 โทเค็นต่อวินาที มุ่งสู่ประสบการณ์แทบจะทันที
ขณะเปิดตัว OpenAI ระบุว่า:
- หน้าต่างบริบท 128k
- ข้อความล้วน
- ทยอยปล่อยเป็น research preview สำหรับผู้ใช้ ChatGPT Pro โดยมีโควตาการใช้งานแยกต่างหากระหว่างช่วงพรีวิว
OpenAI ระบุว่า Codex‑Spark ทำงานบน Cerebras Wafer Scale Engine 3 โดยอธิบายว่านี่เป็นหมุดหมายสำคัญของความร่วมมือกับ Cerebras
OpenAI ยังบรรยายงานด้านแบ็กเอนด์เพื่อลดความหน่วงทั้งสายงาน โดยกล่าวถึงการลดค่าใช้จ่ายต่อรอบการสื่อสารลง 80% และปรับปรุง time-to-first-token ได้ 50% ผ่านการเปลี่ยนแปลงอย่างการใช้การเชื่อมต่อแบบคงอยู่และการปรับแต่งสแตกอนุมาน
รายงานอิสระยังชี้มุมเชิงกลยุทธ์: การใช้ Cerebras สำหรับการดีพลอยครั้งนี้สะท้อนความพยายามกระจายฮาร์ดแวร์อนุมานให้พ้นจากสแตกที่พึ่งพา Nvidia เป็นหลัก
พูดง่ายๆ ตอนนี้การแข่งขันรวมถึงชิป เครือข่าย และ “time-to-first-token” ด้วย ซึ่งเป็นประโยคที่ทันสมัยมาก และชวนยิ้มนิดหน่อยหากคุณยังจำยุคที่ “กำลังโหลด…” เป็นเรื่องปกติได้
GPT‑5.3 เทียบกับ Claude Opus 4.6 เทียบกับ Gemini 3.1 Pro: เปรียบเทียบสมรภูมิแข่งอาวุธ AI
OpenAI ไม่ได้ปล่อย GPT‑5.3‑Codex เข้าสู่สนามว่างๆ ในเดือนเดียวกัน คู่แข่งรายใหญ่ก็อัปเกรดครั้งใหญ่เช่นกัน — มักมาพร้อมการ์ดระบบ อ้างอิงเกณฑ์วัด และหมายเหตุด้านความปลอดภัยของตนเอง
Anthropic: Claude Opus 4.6 เน้นการให้เหตุผลที่แข็งแกร่งและการทดสอบความปลอดภัย
Anthropic ประกาศ Claude Opus 4.6 เมื่อวันที่ 5 กุมภาพันธ์ 2026 — วันเดียวกับ GPT‑5.3‑Codex — และชี้ผู้อ่านไปยังการ์ดระบบที่มีการประเมินความสามารถและความปลอดภัยโดยละเอียด
Anthropic เน้นย้ำด้วยว่าความสามารถที่เพิ่มขึ้นไม่ได้มากับการจัดแนวที่แย่ลง โดยระบุว่า Opus 4.6 แสดงอัตราพฤติกรรมที่ไม่สอดคล้องต่ำ (รวมถึงการหลอกลวงและการประจบสอพลอ) ในการตรวจสอบพฤติกรรมแบบอัตโนมัติ และกล่าวถึงการขยายการประเมินความปลอดภัยและมาตรการป้องกันใหม่ๆ
ธีมที่โดดเด่นคือไซเบอร์ซีเคียวริตี้: Anthropic ระบุว่า Opus 4.6 แสดงความสามารถด้านไซเบอร์ซีเคียวริตี้ที่เพิ่มขึ้น และได้พัฒนาโพรบไซเบอร์ซีเคียวริตี้ใหม่ 6 รายการเพื่อเฝ้าติดตามรูปแบบการใช้ในทางที่ผิด
ดังนั้น ขณะที่ OpenAI ปักธงความสามารถด้านไซเบอร์ซีเคียวริตี้ภายใต้ Preparedness Framework ของตน Anthropic ก็เน้นการทดสอบและโพรบไซเบอร์ซีเคียวริตี้ใหม่ แนวทางต่างกัน แต่สารเดียวกัน: โมเดลเหล่านี้ทรงพลังพอที่ความเสี่ยงไซเบอร์กลายเป็นส่วนมาตรฐานของเรื่องราวการเปิดตัว
Google: Gemini 3.1 Pro ผลักดันการให้เหตุผลและความแข็งแกร่งด้านมัลติโหมด
Google เปิดตัว Gemini 3.1 Pro ในช่วงพรีวิว และระบุว่ากำลังทยอยปล่อยสู่ผลิตภัณฑ์สำหรับผู้ใช้ทั่วไปและนักพัฒนา
Google เน้นความก้าวหน้าบนเกณฑ์วัด รวมถึงคะแนนยืนยันแล้ว 77.1% บน ARC‑AGI‑2 โดยอธิบายว่าสูงกว่าความสามารถด้านการให้เหตุผลของ Gemini 3 Pro กว่าสองเท่า
สำหรับศึกแข่งอาวุธ กลยุทธ์ของ Google ดูจะเป็น: การให้เหตุผล + มัลติโหมด + การกระจายสู่ผลิตภัณฑ์กว้าง (แอป Gemini, NotebookLM, เครื่องมือนักพัฒนา, ช่องทางองค์กร)
Meta: Llama 4 รักษาแรงกดดันแบบเปิดน้ำหนักในตลาด
ตระกูล Llama 4 ของ Meta (เปิดตัวเมษายน 2025) ยังมีบทบาทสำคัญในปี 2026 เพราะโมเดลแบบเปิดน้ำหนักบังคับให้รายอื่นๆ เดินเกมให้เร็วและตั้งราคาฉลาดขึ้น Meta เปิดตัว Llama 4 Scout และ Maverick ในฐานะโมเดล AI แบบมัลติโหมดโดยกำเนิด
สื่อยังระบุว่าโมเดล Llama 4 ขับเคลื่อน Meta AI ในผลิตภัณฑ์อย่าง WhatsApp และ Instagram และชูรายละเอียดอย่างหน้าต่างบริบทของ Scout ที่ใหญ่มาก (มีรายงานหนึ่งระบุว่า 10 ล้านโทเค็น)
ด้านมืดของการแข่งขัน: ศึกการกลั่นแบบจำลอง การกวาดข้อมูล และคดีความ
เมื่อใดก็ตามที่ตลาดมีมูลค่าสูงขนาดนี้ ผู้คนก็เริ่มโต้เถียงกันเรื่องกติกา โดยเฉพาะกติกาเกี่ยวกับข้อมูล
ตัวอย่างใหญ่ผุดขึ้นในกุมภาพันธ์ 2026: Anthropic ระบุว่าบริษัท AI จีนหลายรายใช้ผลลัพธ์ของ Claude เพื่อพัฒนาโมเดลของตนผ่าน “distillation” โดยอธิบายว่าเป็นการใช้ในทางที่ผิดในวงกว้าง มีบัญชีปลอมราว 24,000 บัญชี และการโต้ตอบกว่า 16 ล้านครั้ง ละเมิดเงื่อนไขและข้อจำกัดการเข้าถึง
การกลั่นแบบจำลอง (distillation) อาจเป็นเทคนิคปกติในแมชชีนเลิร์นนิง แต่เมื่อใช้ผลลัพธ์จากโมเดลปิดของบริษัทอื่นโดยไม่ได้รับอนุญาต มันก็กลายเป็นข้อขัดแย้งด้านทรัพย์สินทางปัญญาและความปลอดภัยอย่างรวดเร็ว และยังมีศึกในชั้นศาลด้วย เมื่อวันที่ 24 กุมภาพันธ์ 2026 Reuters รายงานว่าผู้พิพากษาสหรัฐฯ ยกฟ้อง (ชั่วคราว) คดีของ xAI ที่กล่าวหา OpenAI ฐานยักยอกความลับทางการค้า พร้อมให้เวลา xAI แก้ไขคำร้อง
สิ่งนี้หมายความว่าอย่างไรสำหรับนักพัฒนาและธุรกิจ (และสำหรับผู้ที่ไม่เชี่ยวชาญ)
ถ้าคุณสร้างซอฟต์แวร์ GPT‑5.3‑Codex และ Codex‑Spark ชี้ไปยังอนาคตที่:
- คุณมอบหมายเป็นภารกิจ ไม่ใช่พรอมป์เดียว (“ตรวจสอบบั๊กนี้ เสนอวิธีแก้ รันทดสอบ เปิด PR”)
- AI ทำงานได้นานขึ้น รักษาบริบท และใช้เครื่องมือได้อย่างน่าเชื่อถือยิ่งขึ้น
- ความเร็วกลายเป็นปัจจัยเพิ่มผลผลิตในชีวิตประจำวัน
ถ้าคุณบริหารทีม คำถามก็เปลี่ยนเช่นกัน มันจะน้อยลงจาก “เราควรใช้ AI ไหม?” และมากขึ้นว่า:
- โมเดลใดเหมาะกับระดับความเสี่ยงของเรา (โดยเฉพาะสำหรับโค้ด ความปลอดภัย และข้อมูลอ่อนไหว)?
- เราจะทดสอบผลลัพธ์และป้องกันความล้มเหลวแบบเงียบๆ ได้อย่างไร?
- ต้นทุนที่แท้จริงคืออะไรเมื่อจำนวนโทเค็นและการใช้งานขยายตัว?
หากคุณพยายามให้บทบาทของคุณไม่ค่อยๆ เลื่อนไปเป็นเพียงผู้รีวิวงานที่ AI สร้าง กฎปฏิบัติหนึ่งข้อช่วยได้:
เลือกโมเดลตามงาน
- ต้องการการเขียนโค้ดเชิงเอเจนต์เชิงลึกหรือไม่? GPT‑5.3‑Codex ถูกวางตำแหน่งมาเพื่อสิ่งนั้น
- ต้องการการแก้ไขแบบโต้ตอบที่รวดเร็วหรือไม่? Codex‑Spark ถูกสร้างมาเพื่อการวนรอบความหน่วงต่ำ
- ต้องการการให้เหตุผลกว้าง + อินพุตมัลติโหมดหรือไม่? Gemini 3.1 Pro ถูกทำการตลาดอย่างหนักในทิศทางนั้น
- ต้องการเอกสารด้านความปลอดภัยที่เข้มข้นและสารสื่อสารระดับองค์กรที่แข็งแรงหรือไม่? Claude Opus 4.6 วางการ์ดระบบและการตรวจประเมินไว้ด้านหน้าอย่างเด่นชัด
บทสรุป: GPT‑5.3 เพิ่มระดับ
GPT‑5.3‑Codex คือก้าวสู่การทำงานเชิงเอเจนต์บนคอมพิวเตอร์ พร้อมการปรับปรุงความเร็ว การยืนตำแหน่งบนเกณฑ์วัดที่แข็งแกร่ง และท่าทีด้านความปลอดภัยที่ประกาศชัดถึงความสามารถด้านไซเบอร์ซีเคียวริตี้
จากนั้น Codex‑Spark ก็เติมสารอีกข้อ: ศึกถัดไปไม่ใช่แค่เรื่องความฉลาด แต่เป็นเรื่องความหน่วง — ใครจะทำให้ AI รู้สึกเป็นเรียลไทม์จริงๆ ภายในเครื่องมือที่ผู้คนใช้อยู่แล้วได้
ขณะเดียวกัน Claude Opus 4.6 และ Gemini 3.1 Pro แสดงให้เห็นว่าคู่แข่งไม่ได้รอคิวกันอย่างสุภาพ พวกเขาปล่อยรุ่นเร็ว ออกการ์ดระบบ และผลักดันความสามารถด้านการให้เหตุผลและมัลติโหมดอย่างหนัก
ศึกแข่งอาวุธ AI กำลังทวีความร้อนแรง ส่วนที่ชวนขำขื่นเล็กน้อยคือ ผู้ชนะอาจถูกตัดสินด้วยสิ่งที่ฟังดูน่าเบื่อ — ราคาโทเค็น โพรบความปลอดภัย ขีดจำกัดอัตรา และ time-to-first-token แต่ในปี 2026 “ความน่าเบื่อ” มักเป็นที่ซ่อนของอนาคต