คำเชิญปฏิทินและการผสานการทำงาน Gmail ของ ChatGPT: รูปแบบการโจมตี
เมื่อวันที่ 12 กันยายน 2025 นักวิจัยด้านความปลอดภัย Eito Miyamura ได้สาธิตช่องโหว่ที่อาจกล่าวได้ว่าเป็นรายแรก แต่แน่นอนว่าไม่ใช่รายสุดท้ายในลักษณะเดียวกัน: Google Calendar ที่เป็นอันตรายฉีดพรอมป์ต์เข้าไปใน ChatGPT ซึ่งเมื่อเชื่อมต่อกับ Gmail แล้ว จะทำให้อีเมลส่วนตัวรั่วไหลเป็นการตอบสนอง ใช่ มีเงื่อนไขเบื้องต้นบางประการ — คุณต้องตั้งค่าการเชื่อมต่อระหว่าง AI กับ Gmail และใช้ Google Calendar อย่างหนักจนคำเชิญที่ไม่รู้จักเล็ดลอดเข้ามาได้ — แต่รูปแบบเช่นนี้มักพัฒนาเพื่อขยายขอบเขตการโจมตี ดังนั้นจึงควรรู้ให้ชัดว่าเกิดอะไรขึ้นและจะป้องกันตนเองได้อย่างไร อ่านต่อเพื่อดูทั้งสองส่วน
คำเชิญ Google Calendar ที่เป็นอันตราย: เบื้องหลังทำงานอย่างไร
อาวุธในที่นี้เรียกว่า “การฉีดพรอมป์ต์ทางอ้อม” พวกมันฉวยโอกาสจากความละเอียดรอบคอบของ AI โดยสอดแทรกคำสั่งอันตรายลงในข้อมูลภายนอกที่โมเดลประมวลผล รวมถึงเว็บไซต์ อีเมล คำเชิญปฏิทิน หรือเอกสาร ในกรณีของคำเชิญ Google Calendar และการผสาน ChatGPT เข้ากับ Gmail นั้น AI รับคำเชิญตามปกติ แล้วถูกล่อลวงให้เปิดเผยอีเมล (เมื่อเชื่อมต่อแล้วมันเข้าถึงข้อมูลได้มากมาย) ด้วยคำสั่งที่ซ่อนอยู่ในคำเชิญเหล่านั้น
คำว่า “prompt injection” ถูกบัญญัติโดย Simon Willison ในปี 2022; นักวิจัยรายนี้อธิบายว่าผู้ไม่หวังดีสามารถส่งคำสั่งให้ AI ได้ไม่ต่างจากการโจมตีแบบ SQL injection ส่วน “indirect prompt injections” ตามชื่อ ก็คือการซ่อนคำสั่งเหล่านั้นไว้ใต้ชั้นของเนื้อหาที่ดูปลอดภัย คำนี้ยกเครดิตให้ Kai Greshake และทีมงาน NVIDIA ผู้ทำให้รูปแบบการโจมตีเป็นทางการและอธิบายยุทธวิธีป้องกันไว้ในปี 2025
จะปกป้องตนเองจากการโจมตีที่เกี่ยวข้องกับการฉีดพรอมป์ต์ทางอ้อมได้อย่างไร?
การพยายามงดใช้ปัญญาประดิษฐ์โดยสิ้นเชิงแทบไม่มีประโยชน์: วันนี้คุณอาจแยกตัวได้ตามต้องการ แต่พรุ่งนี้แบบจำลองภาษาขนาดใหญ่จะถูกฝังอยู่ในบริการฝั่งผู้ให้บริการ และคุณจะไม่สามารถตัดมันออกจากบัญชีของคุณได้ แถมคุณอาจไม่รู้ด้วยซ้ำว่ามีการเชื่อมต่อนั้นอยู่ ดังนั้น คุณจะทำอย่างไรเพื่อปกป้องทรัพย์สินดิจิทัลของตน?
- ความเฝ้าระวัง. ก่อนอื่นที่สุด คุณต้องเฝ้าระวังอยู่เสมอ และอย่าปล่อยให้สิ่งที่น่าสงสัยใด ๆ เข้าสู่ปฏิทินหรือระบบอื่นที่พึ่งพา AI เพื่อวัตถุประสงค์ใด ๆ
- ความเป็นระเบียบ. รักษาสิ่งต่าง ๆ ให้เรียบร้อย หากคุณไม่ได้ต้องการให้ ChatGPT ช่วยจัดการอีเมล ให้ปิดมันไว้ คุณอาจลองใช้และชอบก็จริง แต่ถ้าไม่มีกรณีใช้งานจริง — อย่าลังเล และอย่าเก็บไว้เป็นงานค้าง
- ขีดจำกัด. แม้ในวันนี้ การผสาน AI จำนวนมากสามารถตั้งค่าให้คุณควบคุมได้มากขึ้นว่าโมเดลจะทำงานกับข้อมูลใด และภายใต้เงื่อนไขใดจึงจะเข้าถึงข้อมูลได้ พิจารณาปิดกระบวนการอัตโนมัติทั้งหมด ใช่ มันจะเพิ่มขั้นตอนการอนุมัติด้วยตนเอง แต่วิธีนี้ปลอดภัยกว่า
- มาตรการป้องกันที่มีอยู่. ตัวอย่างเช่น ใน Google Calendar คุณสามารถตั้งค่าให้รับคำเชิญจากผู้ส่งที่รู้จักเท่านั้น นี่ถือเป็นเกราะป้องกัน; ใช้มันทุกครั้งที่ทำได้
OpenAI รับทราบปัญหาและแนะนำให้ปิดตัวเชื่อมต่อ (connectors) บริษัทกำลังพัฒนาการป้องกันต่อการโจมตีลักษณะนี้ แต่การแข่งขันก็เหมือนดาบกับโล่ ดังนั้นการมีชุดความปลอดภัยที่มองไปข้างหน้าจึงสมเหตุสมผล ค้นหาได้ที่นี่: