ไขรหัส “Context Window” – ทำไมขนาดความจำชั่วคราวของ AI ถึงสำคัญ
ผู้เขียนได้รับคำถามน่าสนใจจากผู้อ่านท่านหนึ่ง ประมาณว่า "context window คืออะไร ช่วยอธิบายแบบเข้าใจง่าย ๆ ให้หน่อยนะค่ะ" ก็ต้องตอบว่าได้เลยครับ คืออย่างนี้
เวลาคุยกับ AI แล้วรู้สึกว่ามัน “ลืม” สิ่งที่เราพูดไปก่อนหน้า ทั้งที่เพิ่งคุยกันเมื่อครู่ จริง ๆ แล้วมันไม่ได้ความจำสั้นเพราะขี้ลืม แต่มันมี “ขอบเขตความจำชั่วคราว” อยู่ และเจ้าสิ่งนี้มีชื่อว่า Context Window
ถ้าเปรียบง่าย ๆ Context Window ก็คือ สมุดบันทึกที่ AI ใช้จดบทสนทนาล่าสุด แต่สมุดเล่มนี้มีจำนวนหน้าจำกัด ต่อให้เป็น AI รุ่นใหม่สุด ก็ยังอยู่ภายใต้ข้อจำกัดนี้ เพียงแต่… หน้าสมุดมันเยอะขึ้นเรื่อย ๆ ตามวิวัฒนาการของแต่ละรุ่น
Context Window คืออะไร
ในเชิงเทคนิค Context Window คือ จำนวนโทเค็น (token) ที่โมเดล AI สามารถรับเข้ามาและใช้เป็น “บริบท” (context) สำหรับคิดและตอบกลับได้ในการทำงานรอบหนึ่ง
โทเค็น (token) คือหน่วยข้อมูลที่เล็กกว่าคำ อาจเป็นแค่พยางค์ ตัวอักษร หรือกลุ่มตัวอักษร ขึ้นกับภาษา เช่น คำว่า “สวัสดีครับ” อาจนับได้ 3–4 โทเค็น และประโยคหนึ่ง ๆ จึงมีโทเค็นมากกว่าจำนวนคำ
ทำงานอย่างไร
-
AI จะอ่านข้อมูลที่เราป้อน (prompt) พร้อมกับข้อมูลก่อนหน้าที่อยู่ในขอบเขตโทเค็นสูงสุด
-
ขนาด Context Window รวมทั้ง input + output
-
ถ้าเราป้อนข้อมูลจนเกินโทเค็นที่กำหนด ส่วนต้น ๆ จะถูก “ดัน” ออกไป (เหมือนหน้าสมุดที่เต็มแล้วต้องฉีกออกเพื่อเขียนใหม่)
ตัวอย่างการนับโทเค็น:
-
ข้อความ 100 คำ ภาษาอังกฤษ ≈ 130–150 tokens
-
โค้ด 200 บรรทัด อาจใช้เกิน 1,000 tokens
ทำไมมันสำคัญ
-
ขนาดใหญ่ → AI จำบทสนทนาที่ยาวได้ต่อเนื่อง เหมาะกับงานสรุปเอกสาร วิเคราะห์ข้อมูล หรือเขียนโค้ดหลายไฟล์
-
ขนาดเล็ก → ต้องป้อนข้อมูลซ้ำ หรือทำการย่อก่อน
พูดง่าย ๆ คือ ยิ่ง Context Window ใหญ่ เราก็ยิ่งสามารถ “เล่าเรื่อง” ให้ AI ฟังยาว ๆ โดยไม่หลุดประเด็น
วิวัฒนาการของ Context Window
| รุ่น | ขนาด Context Window (สูงสุด) | หมายเหตุ |
|---|---|---|
| GPT-3 | ~2,048 tokens | เพียงพอสำหรับบทสนทนาสั้น |
| GPT-4 | 8K–32K tokens | ใช้งานเอกสารยาวขึ้นได้ |
| GPT-4 Turbo | 128K tokens | ก้าวกระโดด เหมาะกับโปรเจกต์ใหญ่ |
| GPT-5 (ChatGPT) | 8K–128K tokens | ขึ้นกับแผนใช้งาน |
| GPT-5 (API) | 400K tokens | รองรับเอกสาร/ข้อมูลมหาศาลในครั้งเดียว |
ข้อจำกัดและความเข้าใจผิด
-
ไม่ใช่ความจำถาวร: Context Window จำได้เฉพาะใน session เดียวกัน
-
ข้อมูลเกินจะถูกตัด: ส่วนแรก ๆ ของบทสนทนาหรือไฟล์จะหลุดออกเมื่อเกินขนาด
-
ขนาดใหญ่ ≠ ฉลาดขึ้นเสมอ: ใหญ่ขึ้นช่วยจำได้มากขึ้น แต่คุณภาพคำตอบยังขึ้นกับการฝึกและโครงสร้างโมเดล
ตัวอย่างการใช้งานจริง
-
สรุปรายงาน 500 หน้า โดยป้อนเนื้อหาทั้งหมดในครั้งเดียว (GPT-5 API 400K tokens ทำได้)
-
วิเคราะห์ข้อมูลหลายไฟล์ เช่น CSV, PDF, DOCX ร่วมกัน
-
รีวิวโค้ดทั้งโปรเจกต์ โดยไม่ต้องส่งไฟล์ทีละส่วน
เทคนิคใช้ให้คุ้มค่า
-
ย่อข้อมูลก่อนป้อน – ลดโทเค็นที่สิ้นเปลือง
-
ใช้ Prompt ที่มีโครงสร้าง – เช่น Bullet points หรือ Table เพื่อลดความซ้ำซ้อน
-
แบ่งงานเป็นชุด – ให้ AI ประมวลผลทีละส่วนแล้วรวมผล
สรุป
Context Window คือเส้นแบ่งระหว่าง “AI ที่คุยกันเข้าใจ” กับ “AI ที่ต้องเริ่มเล่าใหม่ทุกครั้ง” GPT-5 ได้ขยายขอบเขตนี้อย่างมาก โดยเฉพาะใน API ที่ให้ถึง 400,000 tokens ซึ่งเปิดทางให้ทำสิ่งที่ครั้งหนึ่งเคยเป็นไปไม่ได้ เช่น อ่านหนังสือทั้งเล่ม วิเคราะห์ข้อมูลมหาศาล หรือออกแบบระบบซับซ้อนแบบครบวงจรในครั้งเดียว
ในอนาคต ขนาด Context Window จะยังโตขึ้นอีก และเมื่อมันจับคู่กับระบบความจำถาวร (long-term memory) จริง ๆ เราอาจได้เห็น AI ที่ “ฟังเราได้ทั้งเรื่อง” อย่างแท้จริง

Comments
Post a Comment