ไขรหัส “Context Window” – ทำไมขนาดความจำชั่วคราวของ AI ถึงสำคัญ

ผู้เขียนได้รับคำถามน่าสนใจจากผู้อ่านท่านหนึ่ง ประมาณว่า "context window คืออะไร ช่วยอธิบายแบบเข้าใจง่าย ๆ ให้หน่อยนะค่ะ" ก็ต้องตอบว่าได้เลยครับ คืออย่างนี้

เวลาคุยกับ AI แล้วรู้สึกว่ามัน “ลืม” สิ่งที่เราพูดไปก่อนหน้า ทั้งที่เพิ่งคุยกันเมื่อครู่ จริง ๆ แล้วมันไม่ได้ความจำสั้นเพราะขี้ลืม แต่มันมี “ขอบเขตความจำชั่วคราว” อยู่ และเจ้าสิ่งนี้มีชื่อว่า Context Window

ถ้าเปรียบง่าย ๆ Context Window ก็คือ สมุดบันทึกที่ AI ใช้จดบทสนทนาล่าสุด แต่สมุดเล่มนี้มีจำนวนหน้าจำกัด ต่อให้เป็น AI รุ่นใหม่สุด ก็ยังอยู่ภายใต้ข้อจำกัดนี้ เพียงแต่… หน้าสมุดมันเยอะขึ้นเรื่อย ๆ ตามวิวัฒนาการของแต่ละรุ่น

Context Window คืออะไร

ในเชิงเทคนิค Context Window คือ จำนวนโทเค็น (token) ที่โมเดล AI สามารถรับเข้ามาและใช้เป็น “บริบท” (context) สำหรับคิดและตอบกลับได้ในการทำงานรอบหนึ่ง

โทเค็น (token) คือหน่วยข้อมูลที่เล็กกว่าคำ อาจเป็นแค่พยางค์ ตัวอักษร หรือกลุ่มตัวอักษร ขึ้นกับภาษา เช่น คำว่า “สวัสดีครับ” อาจนับได้ 3–4 โทเค็น และประโยคหนึ่ง ๆ จึงมีโทเค็นมากกว่าจำนวนคำ

ทำงานอย่างไร

  • AI จะอ่านข้อมูลที่เราป้อน (prompt) พร้อมกับข้อมูลก่อนหน้าที่อยู่ในขอบเขตโทเค็นสูงสุด

  • ขนาด Context Window รวมทั้ง input + output

  • ถ้าเราป้อนข้อมูลจนเกินโทเค็นที่กำหนด ส่วนต้น ๆ จะถูก “ดัน” ออกไป (เหมือนหน้าสมุดที่เต็มแล้วต้องฉีกออกเพื่อเขียนใหม่)

ตัวอย่างการนับโทเค็น:

  • ข้อความ 100 คำ ภาษาอังกฤษ ≈ 130–150 tokens

  • โค้ด 200 บรรทัด อาจใช้เกิน 1,000 tokens

ทำไมมันสำคัญ

  • ขนาดใหญ่ → AI จำบทสนทนาที่ยาวได้ต่อเนื่อง เหมาะกับงานสรุปเอกสาร วิเคราะห์ข้อมูล หรือเขียนโค้ดหลายไฟล์

  • ขนาดเล็ก → ต้องป้อนข้อมูลซ้ำ หรือทำการย่อก่อน
    พูดง่าย ๆ คือ ยิ่ง Context Window ใหญ่ เราก็ยิ่งสามารถ “เล่าเรื่อง” ให้ AI ฟังยาว ๆ โดยไม่หลุดประเด็น

วิวัฒนาการของ Context Window

รุ่น ขนาด Context Window (สูงสุด) หมายเหตุ
GPT-3 ~2,048 tokens เพียงพอสำหรับบทสนทนาสั้น
GPT-4 8K–32K tokens ใช้งานเอกสารยาวขึ้นได้
GPT-4 Turbo 128K tokens ก้าวกระโดด เหมาะกับโปรเจกต์ใหญ่
GPT-5 (ChatGPT) 8K–128K tokens ขึ้นกับแผนใช้งาน
GPT-5 (API) 400K tokens รองรับเอกสาร/ข้อมูลมหาศาลในครั้งเดียว

ข้อจำกัดและความเข้าใจผิด

  • ไม่ใช่ความจำถาวร: Context Window จำได้เฉพาะใน session เดียวกัน

  • ข้อมูลเกินจะถูกตัด: ส่วนแรก ๆ ของบทสนทนาหรือไฟล์จะหลุดออกเมื่อเกินขนาด

  • ขนาดใหญ่ ≠ ฉลาดขึ้นเสมอ: ใหญ่ขึ้นช่วยจำได้มากขึ้น แต่คุณภาพคำตอบยังขึ้นกับการฝึกและโครงสร้างโมเดล

ตัวอย่างการใช้งานจริง

  • สรุปรายงาน 500 หน้า โดยป้อนเนื้อหาทั้งหมดในครั้งเดียว (GPT-5 API 400K tokens ทำได้)

  • วิเคราะห์ข้อมูลหลายไฟล์ เช่น CSV, PDF, DOCX ร่วมกัน

  • รีวิวโค้ดทั้งโปรเจกต์ โดยไม่ต้องส่งไฟล์ทีละส่วน

เทคนิคใช้ให้คุ้มค่า

  1. ย่อข้อมูลก่อนป้อน – ลดโทเค็นที่สิ้นเปลือง

  2. ใช้ Prompt ที่มีโครงสร้าง – เช่น Bullet points หรือ Table เพื่อลดความซ้ำซ้อน

  3. แบ่งงานเป็นชุด – ให้ AI ประมวลผลทีละส่วนแล้วรวมผล

สรุป

Context Window คือเส้นแบ่งระหว่าง “AI ที่คุยกันเข้าใจ” กับ “AI ที่ต้องเริ่มเล่าใหม่ทุกครั้ง” GPT-5 ได้ขยายขอบเขตนี้อย่างมาก โดยเฉพาะใน API ที่ให้ถึง 400,000 tokens ซึ่งเปิดทางให้ทำสิ่งที่ครั้งหนึ่งเคยเป็นไปไม่ได้ เช่น อ่านหนังสือทั้งเล่ม วิเคราะห์ข้อมูลมหาศาล หรือออกแบบระบบซับซ้อนแบบครบวงจรในครั้งเดียว

ในอนาคต ขนาด Context Window จะยังโตขึ้นอีก และเมื่อมันจับคู่กับระบบความจำถาวร (long-term memory) จริง ๆ เราอาจได้เห็น AI ที่ “ฟังเราได้ทั้งเรื่อง” อย่างแท้จริง

Comments

Popular Posts of Last 30 days

ยิ่งแข็งแกร่ง ยิ่งอ่อนโยน

Branch in New Chat: แตกแขนงความคิดใหม่โดยไม่ต้องเริ่มต้นจากศูนย์

ไม่ได้ใจเย็น แค่ไม่เห็นค่าพอจะร้อนใส่