การแข่งขันสะสมอาวุธด้านปัญญาประดิษฐ์ร้อนแรงขึ้นด้วย GPT‑5.3 การแข่งขันสะสมอาวุธด้านปัญญาประดิษฐ์ร้อนแรงขึ้นด้วย GPT‑5.3

เมื่อต้นปี 2026 การตามให้ทันการเปิดตัว AI กลายเป็นเรื่องยากขึ้น: การอัปเดตมาเร็วและถี่จนพาดหัวข่าวดูล้าสมัยได้ภายในไม่กี่วัน วันหนึ่งโฟกัสคือ “การให้เหตุผลที่แข็งแกร่งขึ้น,” วันถัดมาคือ ความเร็วและความหน่วงที่ต่ำลง และไม่นานหลังจากนั้น ก็เป็น AI ที่เขียนโค้ดได้เหมือนเพื่อนร่วมทีมมากขึ้น พอถึงสุดสัปดาห์ คู่แข่งก็โพสต์การ์ดระบบใหม่ และบทสนทนาก็เลื่อนไปสู่เกณฑ์วัดผลและข้อถกเถียงว่าอะไรนับเป็น “ความก้าวหน้าจริง” อย่างรวดเร็ว

ความเคลื่อนไหวล่าสุดของ OpenAI ในสมรภูมิที่เปลี่ยนเร็วนี้คือ GPT‑5.3‑Codex — โมเดลที่มุ่งเน้นการเขียนโค้ดเชิงเอเจนต์ หมายความว่าสามารถวางแผน ใช้เครื่องมือ และทำงานหลายขั้นตอนด้วยการคอยกำกับดูแลน้อยลง OpenAI อธิบายว่าโมเดลนี้ผสานประสิทธิภาพการเขียนโค้ดชั้นนำจาก Codex รุ่นก่อน เข้ากับการให้เหตุผลที่แข็งแกร่งขึ้นและความรู้ระดับมืออาชีพจากตระกูล GPT‑5 และทำงานได้เร็วขึ้น 25% สำหรับผู้ใช้ Codex

มาดูกันว่า GPT‑5.3‑Codex เปลี่ยนอะไร ทำไมจึงสำคัญ และผู้เล่นรายใหญ่ตอบสนองอย่างไร

ทำไม GPT‑5.3 จึงเป็นเรื่องใหญ่

ก่อนอื่น รายละเอียดเล็กแต่สำคัญ: เมื่อคนพูดว่า “GPT‑5.3” ตอนนี้รุ่นที่เปิดให้สาธารณะคือ GPT‑5.3‑Codex ซึ่งเป็นโมเดลตระกูล Codex ที่มุ่งเน้นการสร้างซอฟต์แวร์และทำงานบนคอมพิวเตอร์ มันถูกออกแบบมาเพื่อรับมือภารกิจยาวที่รวมถึงการค้นคว้า การใช้เครื่องมือ และการดำเนินงานที่ซับซ้อน ให้ทำงานได้คล้ายเพื่อนร่วมงานที่คุณชี้แนะได้ มากกว่าการเป็นแชทบอทง่ายๆ ที่รอคำถาม

OpenAI ยังให้คำประกาศที่ฟังดูเหมือนนิยายวิทยาศาสตร์ แต่เขียนไว้ตรงๆ: GPT‑5.3‑Codex มี “บทบาทสำคัญต่อการสร้างตัวมันเอง” ทีม Codex ใช้รุ่นแรกๆ เพื่อดีบักการฝึก จัดการการดีพลอย และวินิจฉัยผลทดสอบ นั่นคือโมเดลช่วยเร่งวงจรพัฒนาของตัวเอง

เรื่องนี้สำคัญเพราะหนึ่งเหตุผล: วงจรป้อนกลับ (feedback loop) เมื่อเครื่องมือ AI ช่วยสร้างเครื่องมือ AI รุ่นถัดไปได้เร็วขึ้น จังหวะการเปิดตัวก็อาจเร่งขึ้นอีก หากก่อนหน้านี้ความก้าวหน้า AI รู้สึกว่าเร็วอยู่แล้ว ตรงนี้คือช่วงที่มันสวมรองเท้าสเก็ตโรลเลอร์

วันเปิดตัว คุณสมบัติหลัก และราคา ของ GPT‑5.3‑Codex

OpenAI เปิดตัว GPT‑5.3‑Codex เมื่อวันที่ 5 กุมภาพันธ์ 2026 โดยระบุว่าเป็นโมเดลการเขียนโค้ดเชิงเอเจนต์ที่ทรงความสามารถที่สุดของตนจนถึงปัจจุบัน พร้อมชูความเร็วที่เพิ่มขึ้น (เร็วขึ้น 25%) และสมรรถนะที่ดีขึ้นบนเกณฑ์วัดด้านโค้ดและเอเจนต์

GPT‑5.3‑Codex ถูกสร้างมาเพื่ออะไร

OpenAI เน้นงานที่ใช้เวลานาน: งานที่อาจกินเวลาหลายชั่วโมง ใช้เครื่องมือ และต้องทำหลายขั้นตอน

ยังรายงานผลงานที่แข็งแกร่งบนเกณฑ์วัดที่ใช้ทดสอบวิศวกรรมซอฟต์แวร์จริงและพฤติกรรมเอเจนต์ เช่น SWE‑Bench Pro และ Terminal‑Bench และกล่าวถึงประสิทธิภาพบน OSWorld และ GDPval (เกณฑ์วัดที่ตั้งใจวัดความสามารถการใช้เครื่องมือในโลกจริง)

ท่าทีด้านความปลอดภัยดังชัดกว่าก่อน

ในการ์ดระบบมีบรรทัดที่ชัดเจน: OpenAI ปฏิบัติต่อรุ่นนี้ว่าเป็นการเปิดตัวครั้งแรกภายใต้ฉลากไซเบอร์ซีเคียวริตี้ความสามารถสูง โดยเปิดใช้มาตรการป้องกัน

นี่เป็นสัญญาณสำคัญของ “การแข่งขันอาวุธ” บริษัทไม่ได้แข่งกันแค่ความสามารถดิบ แต่ยังแข่งกันด้านกรอบความปลอดภัย การเฝ้าระวัง และความน่าเชื่อถือ

ราคา (OpenAI API) สำหรับ GPT‑5.3‑Codex

สำหรับระดับ Standard ราคาแสดงเป็น:

  • $1.75 อินพุต / 1M โทเค็น
  • $0.175 อินพุตแบบแคช / 1M โทเค็น
  • $14.00 เอาต์พุต / 1M โทเค็น

สำหรับระดับ Priority ราคาเป็น:

  • $3.50 อินพุต / 1M โทเค็น
  • $0.35 อินพุตแบบแคช / 1M โทเค็น
  • $28.00 เอาต์พุต / 1M โทเค็น

ความเร็วกลายเป็นอาวุธ: GPT‑5.3‑Codex‑Spark และศึกความหน่วง

หนึ่งสัปดาห์หลังการเปิดตัวหลักของ GPT‑5.3‑Codex OpenAI เปิดตัว GPT‑5.3‑Codex‑Spark (12 กุมภาพันธ์ 2026) โดยเรียกว่าเป็น research preview และเป็นโมเดลแรกของตนที่ออกแบบมาสำหรับการเขียนโค้ดแบบเรียลไทม์

OpenAI ระบุว่า Codex‑Spark ถูกปรับแต่งสำหรับฮาร์ดแวร์ความหน่วงต่ำเป็นพิเศษ และสามารถส่งออกได้มากกว่า 1000 โทเค็นต่อวินาที มุ่งสู่ประสบการณ์แทบจะทันที

ขณะเปิดตัว OpenAI ระบุว่า:

  • หน้าต่างบริบท 128k
  • ข้อความล้วน
  • ทยอยปล่อยเป็น research preview สำหรับผู้ใช้ ChatGPT Pro โดยมีโควตาการใช้งานแยกต่างหากระหว่างช่วงพรีวิว

OpenAI ระบุว่า Codex‑Spark ทำงานบน Cerebras Wafer Scale Engine 3 โดยอธิบายว่านี่เป็นหมุดหมายสำคัญของความร่วมมือกับ Cerebras

OpenAI ยังบรรยายงานด้านแบ็กเอนด์เพื่อลดความหน่วงทั้งสายงาน โดยกล่าวถึงการลดค่าใช้จ่ายต่อรอบการสื่อสารลง 80% และปรับปรุง time-to-first-token ได้ 50% ผ่านการเปลี่ยนแปลงอย่างการใช้การเชื่อมต่อแบบคงอยู่และการปรับแต่งสแตกอนุมาน

รายงานอิสระยังชี้มุมเชิงกลยุทธ์: การใช้ Cerebras สำหรับการดีพลอยครั้งนี้สะท้อนความพยายามกระจายฮาร์ดแวร์อนุมานให้พ้นจากสแตกที่พึ่งพา Nvidia เป็นหลัก

พูดง่ายๆ ตอนนี้การแข่งขันรวมถึงชิป เครือข่าย และ “time-to-first-token” ด้วย ซึ่งเป็นประโยคที่ทันสมัยมาก และชวนยิ้มนิดหน่อยหากคุณยังจำยุคที่ “กำลังโหลด…” เป็นเรื่องปกติได้

GPT‑5.3 เทียบกับ Claude Opus 4.6 เทียบกับ Gemini 3.1 Pro: เปรียบเทียบสมรภูมิแข่งอาวุธ AI

OpenAI ไม่ได้ปล่อย GPT‑5.3‑Codex เข้าสู่สนามว่างๆ ในเดือนเดียวกัน คู่แข่งรายใหญ่ก็อัปเกรดครั้งใหญ่เช่นกัน — มักมาพร้อมการ์ดระบบ อ้างอิงเกณฑ์วัด และหมายเหตุด้านความปลอดภัยของตนเอง

Anthropic: Claude Opus 4.6 เน้นการให้เหตุผลที่แข็งแกร่งและการทดสอบความปลอดภัย

Anthropic ประกาศ Claude Opus 4.6 เมื่อวันที่ 5 กุมภาพันธ์ 2026 — วันเดียวกับ GPT‑5.3‑Codex — และชี้ผู้อ่านไปยังการ์ดระบบที่มีการประเมินความสามารถและความปลอดภัยโดยละเอียด

Anthropic เน้นย้ำด้วยว่าความสามารถที่เพิ่มขึ้นไม่ได้มากับการจัดแนวที่แย่ลง โดยระบุว่า Opus 4.6 แสดงอัตราพฤติกรรมที่ไม่สอดคล้องต่ำ (รวมถึงการหลอกลวงและการประจบสอพลอ) ในการตรวจสอบพฤติกรรมแบบอัตโนมัติ และกล่าวถึงการขยายการประเมินความปลอดภัยและมาตรการป้องกันใหม่ๆ

ธีมที่โดดเด่นคือไซเบอร์ซีเคียวริตี้: Anthropic ระบุว่า Opus 4.6 แสดงความสามารถด้านไซเบอร์ซีเคียวริตี้ที่เพิ่มขึ้น และได้พัฒนาโพรบไซเบอร์ซีเคียวริตี้ใหม่ 6 รายการเพื่อเฝ้าติดตามรูปแบบการใช้ในทางที่ผิด

ดังนั้น ขณะที่ OpenAI ปักธงความสามารถด้านไซเบอร์ซีเคียวริตี้ภายใต้ Preparedness Framework ของตน Anthropic ก็เน้นการทดสอบและโพรบไซเบอร์ซีเคียวริตี้ใหม่ แนวทางต่างกัน แต่สารเดียวกัน: โมเดลเหล่านี้ทรงพลังพอที่ความเสี่ยงไซเบอร์กลายเป็นส่วนมาตรฐานของเรื่องราวการเปิดตัว

Google: Gemini 3.1 Pro ผลักดันการให้เหตุผลและความแข็งแกร่งด้านมัลติโหมด

Google เปิดตัว Gemini 3.1 Pro ในช่วงพรีวิว และระบุว่ากำลังทยอยปล่อยสู่ผลิตภัณฑ์สำหรับผู้ใช้ทั่วไปและนักพัฒนา

Google เน้นความก้าวหน้าบนเกณฑ์วัด รวมถึงคะแนนยืนยันแล้ว 77.1% บน ARC‑AGI‑2 โดยอธิบายว่าสูงกว่าความสามารถด้านการให้เหตุผลของ Gemini 3 Pro กว่าสองเท่า

สำหรับศึกแข่งอาวุธ กลยุทธ์ของ Google ดูจะเป็น: การให้เหตุผล + มัลติโหมด + การกระจายสู่ผลิตภัณฑ์กว้าง (แอป Gemini, NotebookLM, เครื่องมือนักพัฒนา, ช่องทางองค์กร)

Meta: Llama 4 รักษาแรงกดดันแบบเปิดน้ำหนักในตลาด

ตระกูล Llama 4 ของ Meta (เปิดตัวเมษายน 2025) ยังมีบทบาทสำคัญในปี 2026 เพราะโมเดลแบบเปิดน้ำหนักบังคับให้รายอื่นๆ เดินเกมให้เร็วและตั้งราคาฉลาดขึ้น Meta เปิดตัว Llama 4 Scout และ Maverick ในฐานะโมเดล AI แบบมัลติโหมดโดยกำเนิด

สื่อยังระบุว่าโมเดล Llama 4 ขับเคลื่อน Meta AI ในผลิตภัณฑ์อย่าง WhatsApp และ Instagram และชูรายละเอียดอย่างหน้าต่างบริบทของ Scout ที่ใหญ่มาก (มีรายงานหนึ่งระบุว่า 10 ล้านโทเค็น)

ด้านมืดของการแข่งขัน: ศึกการกลั่นแบบจำลอง การกวาดข้อมูล และคดีความ

เมื่อใดก็ตามที่ตลาดมีมูลค่าสูงขนาดนี้ ผู้คนก็เริ่มโต้เถียงกันเรื่องกติกา โดยเฉพาะกติกาเกี่ยวกับข้อมูล

ตัวอย่างใหญ่ผุดขึ้นในกุมภาพันธ์ 2026: Anthropic ระบุว่าบริษัท AI จีนหลายรายใช้ผลลัพธ์ของ Claude เพื่อพัฒนาโมเดลของตนผ่าน “distillation” โดยอธิบายว่าเป็นการใช้ในทางที่ผิดในวงกว้าง มีบัญชีปลอมราว 24,000 บัญชี และการโต้ตอบกว่า 16 ล้านครั้ง ละเมิดเงื่อนไขและข้อจำกัดการเข้าถึง

การกลั่นแบบจำลอง (distillation) อาจเป็นเทคนิคปกติในแมชชีนเลิร์นนิง แต่เมื่อใช้ผลลัพธ์จากโมเดลปิดของบริษัทอื่นโดยไม่ได้รับอนุญาต มันก็กลายเป็นข้อขัดแย้งด้านทรัพย์สินทางปัญญาและความปลอดภัยอย่างรวดเร็ว และยังมีศึกในชั้นศาลด้วย เมื่อวันที่ 24 กุมภาพันธ์ 2026 Reuters รายงานว่าผู้พิพากษาสหรัฐฯ ยกฟ้อง (ชั่วคราว) คดีของ xAI ที่กล่าวหา OpenAI ฐานยักยอกความลับทางการค้า พร้อมให้เวลา xAI แก้ไขคำร้อง

สิ่งนี้หมายความว่าอย่างไรสำหรับนักพัฒนาและธุรกิจ (และสำหรับผู้ที่ไม่เชี่ยวชาญ)

ถ้าคุณสร้างซอฟต์แวร์ GPT‑5.3‑Codex และ Codex‑Spark ชี้ไปยังอนาคตที่:

  • คุณมอบหมายเป็นภารกิจ ไม่ใช่พรอมป์เดียว (“ตรวจสอบบั๊กนี้ เสนอวิธีแก้ รันทดสอบ เปิด PR”)
  • AI ทำงานได้นานขึ้น รักษาบริบท และใช้เครื่องมือได้อย่างน่าเชื่อถือยิ่งขึ้น
  • ความเร็วกลายเป็นปัจจัยเพิ่มผลผลิตในชีวิตประจำวัน

ถ้าคุณบริหารทีม คำถามก็เปลี่ยนเช่นกัน มันจะน้อยลงจาก “เราควรใช้ AI ไหม?” และมากขึ้นว่า:

  • โมเดลใดเหมาะกับระดับความเสี่ยงของเรา (โดยเฉพาะสำหรับโค้ด ความปลอดภัย และข้อมูลอ่อนไหว)?
  • เราจะทดสอบผลลัพธ์และป้องกันความล้มเหลวแบบเงียบๆ ได้อย่างไร?
  • ต้นทุนที่แท้จริงคืออะไรเมื่อจำนวนโทเค็นและการใช้งานขยายตัว?

หากคุณพยายามให้บทบาทของคุณไม่ค่อยๆ เลื่อนไปเป็นเพียงผู้รีวิวงานที่ AI สร้าง กฎปฏิบัติหนึ่งข้อช่วยได้:

เลือกโมเดลตามงาน

  • ต้องการการเขียนโค้ดเชิงเอเจนต์เชิงลึกหรือไม่? GPT‑5.3‑Codex ถูกวางตำแหน่งมาเพื่อสิ่งนั้น
  • ต้องการการแก้ไขแบบโต้ตอบที่รวดเร็วหรือไม่? Codex‑Spark ถูกสร้างมาเพื่อการวนรอบความหน่วงต่ำ
  • ต้องการการให้เหตุผลกว้าง + อินพุตมัลติโหมดหรือไม่? Gemini 3.1 Pro ถูกทำการตลาดอย่างหนักในทิศทางนั้น
  • ต้องการเอกสารด้านความปลอดภัยที่เข้มข้นและสารสื่อสารระดับองค์กรที่แข็งแรงหรือไม่? Claude Opus 4.6 วางการ์ดระบบและการตรวจประเมินไว้ด้านหน้าอย่างเด่นชัด

บทสรุป: GPT‑5.3 เพิ่มระดับ

GPT‑5.3‑Codex คือก้าวสู่การทำงานเชิงเอเจนต์บนคอมพิวเตอร์ พร้อมการปรับปรุงความเร็ว การยืนตำแหน่งบนเกณฑ์วัดที่แข็งแกร่ง และท่าทีด้านความปลอดภัยที่ประกาศชัดถึงความสามารถด้านไซเบอร์ซีเคียวริตี้

จากนั้น Codex‑Spark ก็เติมสารอีกข้อ: ศึกถัดไปไม่ใช่แค่เรื่องความฉลาด แต่เป็นเรื่องความหน่วง — ใครจะทำให้ AI รู้สึกเป็นเรียลไทม์จริงๆ ภายในเครื่องมือที่ผู้คนใช้อยู่แล้วได้

ขณะเดียวกัน Claude Opus 4.6 และ Gemini 3.1 Pro แสดงให้เห็นว่าคู่แข่งไม่ได้รอคิวกันอย่างสุภาพ พวกเขาปล่อยรุ่นเร็ว ออกการ์ดระบบ และผลักดันความสามารถด้านการให้เหตุผลและมัลติโหมดอย่างหนัก

ศึกแข่งอาวุธ AI กำลังทวีความร้อนแรง ส่วนที่ชวนขำขื่นเล็กน้อยคือ ผู้ชนะอาจถูกตัดสินด้วยสิ่งที่ฟังดูน่าเบื่อ — ราคาโทเค็น โพรบความปลอดภัย ขีดจำกัดอัตรา และ time-to-first-token แต่ในปี 2026 “ความน่าเบื่อ” มักเป็นที่ซ่อนของอนาคต

โพสต์อื่น ๆ ของผู้เขียน

สิ่งที่ 81,000 คนบอกกับ Anthropic ว่าพวกเขาต้องการจาก AI
บทความ
สิ่งที่ 81,000 คนบอกกับ Anthropic ว่าพวกเขาต้องการจาก AI
Anthropic วิเคราะห์การสัมภาษณ์ผู้ใช้ AI จำนวน 80,508 ราย จาก 159 ประเทศ เพื่อทำความเข้าใจว่าผู้คนต้องการอะไรจาก AI มีความกังวลอะไร และเครื่องมือในปัจจุบันยังบกพร่องตรงไหนบ้าง
Nebius วางแผนสร้างศูนย์ข้อมูล AI มูลค่า 10,000 ล้านดอลลาร์ในฟินแลนด์ ท่ามกลางการแข่งขัน AI ในยุโรป
บทความ
Nebius วางแผนสร้างศูนย์ข้อมูล AI มูลค่า 10,000 ล้านดอลลาร์ในฟินแลนด์ ท่ามกลางการแข่งขัน AI ในยุโรป
Nebius วางแผนสร้างศูนย์ข้อมูล AI กำลังไฟ 310 เมกะวัตต์ในฟินแลนด์ นี่คือเหตุผลที่โครงการ Lappeenranta มีความสำคัญต่อการแข่งขันด้าน AI ของยุโรป โครงสร้างพื้นฐาน และอธิปไตย
Anthropic ชนะรอบแรกในการปะทะ AI ของเพนตากอน
บทความ
Anthropic ชนะรอบแรกในการปะทะ AI ของเพนตากอน
Anthropic ชนะการต่อสู้ทางกฎหมายระยะแรกในการพิพาทเรื่อง AI กับเพนตากอน ทำให้เกิดคำถามที่ใหญ่ขึ้นเกี่ยวกับมาตรการคุ้มครองของ AI ทางทหาร สัญญา และการควบคุม
Anthropic วัดการใช้ปัญญาประดิษฐ์ในที่ทำงาน ผลลัพธ์ไม่เป็นอย่างที่คุณคิด
บทความ
Anthropic วัดการใช้ปัญญาประดิษฐ์ในที่ทำงาน ผลลัพธ์ไม่เป็นอย่างที่คุณคิด
รายงานตลาดแรงงาน Claude ปี 2026 ของ Anthropic แสดงให้เห็นว่า AI ในสถานที่ทำงานกำลังปรับโฉมการสรรหา งานสายออฟฟิศ และอาชีพระดับเริ่มต้น ก่อนที่การปลดพนักงานจำนวนมากจะมาถึง