دعوات التقويم وتكامل Gmail الخاص بـ ChatGPT: نمط الهجوم
في 12 سبتمبر 2025، عرض الباحث الأمني إيتو مييامورا ثغرة يُمكن القول إنها الأولى من نوعها، وإن لم تكن الأخيرة بالتأكيد: تقويم Google خبيث يحقن مُوجِّهات في ChatGPT، والذي، عند اتصاله بـGmail، يُسرّب رسائل بريد إلكتروني خاصة كردّ. نعم، هناك متطلبات محددة — عليك إنشاء الاتصال بين الذكاء الاصطناعي وGmail، وأن تستخدم Google Calendar بكثافة إلى حدّ أن تتمكن دعوة غير معروفة من شق طريقها إليه — لكن مثل هذه الأنماط تميل إلى التطوّر بطريقة توسّع نطاق الهجوم، لذا من الأفضل أن تعرف بالضبط ما الذي يحدث وكيف يمكنك حماية نفسك. تابع القراءة للتعرّف على الأمرين كليهما.
دعوات تقويم Google الخبيثة: ما الذي يجري تحت الغطاء
السلاح هنا يُسمّى “حقن الموجّهات غير المباشرة.” يستغلّ هذا الأسلوب حرص الذكاء الاصطناعي عبر إدراج تعليمات خبيثة في البيانات الخارجية التي يعالجها النموذج، بما في ذلك مواقع الويب ورسائل البريد الإلكتروني ودعوات التقويم أو المستندات. في حالة دعوات تقويم Google وتكامل ChatGPT مع Gmail، تعامل الذكاء الاصطناعي مع الدعوة كما يُفترض، ثم جرى خداعه للكشف عن رسائل البريد الإلكتروني (إذ يمتلك عند الاتصال وصولاً إلى الكثير من الأشياء) بواسطة أوامر مخفية في تلك الدعوات.
صاغ سيمون ويليسون مصطلح “حقن الموجّه” في عام 2022؛ إذ وصف كيف يمكن للجهات الخبيثة أن تُصدر تعليمات للذكاءات الاصطناعية بطريقة تشبه إلى حد كبير حقن SQL. أما “حقن الموجّهات غير المباشرة”، كما يوحي الاسم، فتُخفى فيها تلك الأوامر تحت طبقة من مواد تبدو آمنة. ويُنسب المصطلح نفسه إلى كاي غريشاك وفريق NVIDIA، الذين قاموا بترسيم نمط الهجوم ووصف استراتيجيات الدفاع ضده في عام 2025.
كيف تحمي نفسك من الهجمات التي تتضمن حقن الموجّهات غير المباشرة؟
لا جدوى من محاولة الامتناع عن استخدام الذكاء الاصطناعي كلياً: فاليوم قد تتمكّن من تحقيق العزلة المنشودة، لكن غداً ستُدمج النماذج اللغوية الكبيرة في الخدمات على جهة المزوّد، ولن يتوافر ببساطة أي سبيل لفصلها عن حساباتك. بل إنك قد لا تعلم أصلاً بوجود ذلك الاتصال. إذاً، ماذا يمكنك أن تفعل لحماية أصولك؟
- اليقظة. قبل كل شيء، عليك أن تبقى يقظاً وألا تسمح بدخول أي شيء مريب إلى تقويمك أو أي نظام آخر يعتمد على الذكاء الاصطناعي لهذا الغرض أو ذاك.
- النظام. أبقِ الأمور مرتبة. إذا لم تكن بحاجة فعلية إلى مساعدة ChatGPT في رسائلك الإلكترونية، فقم بتعطيله. قد تكون جرّبت الميزة وأعجبتك حتى، لكن إن لم يكن لها استخدام عملي حقيقي — فلا تتردد، ولا تؤجل الأمر.
- الحدود. حتى اليوم يمكن تخصيص تكاملات الذكاء الاصطناعي لتمنحك تحكماً أكبر بما يعمل عليه النموذج وتحت أي شروط يمكنه الوصول إلى البيانات. فكّر في تعطيل جميع الإجراءات التلقائية. نعم، سيضيف ذلك موافقات يدوية إلى قائمتك، لكنه أكثر أماناً بهذه الطريقة.
- وسائل الحماية الموجودة. في Google Calendar، على سبيل المثال، يمكنك إعداد الأمور بحيث لا تُسمح إلا بدعوات المرسلين المعروفين. هذه وسيلة حماية؛ استخدم مثلها كلما أمكن.
أقرت OpenAI بالمشكلة واقترحت تعطيل الموصّلات. وتعمل الشركة على دفاعات ضد مثل هذه الهجمات، لكنها سباق بين السيف والدرع، لذا من المنطقي اقتناء حزمة أمنية متقدّمة التفكير. يمكنك العثور على واحدة هنا: