دعوتهای تقویم و یکپارچهسازی جیمیلِ ChatGPT: الگوی حمله
در ۱۲ سپتامبر ۲۰۲۵، پژوهشگر امنیتی Eito Miyamura بهرهبرداریای را نشان داد که شاید بتوان آن را نخستین نمونه از نوع خود دانست، اما قطعاً آخرینِ آن نیست: یک Google Calendar مخرب پرامپتها را به ChatGPT تزریق میکند و این مدل، وقتی به Gmail متصل باشد، در پاسخ، ایمیلهای خصوصی را افشا میکند. بله، پیشنیازهای مشخصی وجود دارد — باید اتصال میان هوش مصنوعی و Gmail را برقرار کنید و Google Calendar را آنقدر پرکاربرد استفاده کنید که یک دعوت ناشناس بتواند راهش را به آن باز کند — اما چنین الگوهایی معمولاً بهگونهای تکامل مییابند که دامنهٔ حمله را گسترش دهند؛ پس بهتر است دقیقاً بدانید چه رخ میدهد و چگونه میتوانید از خود محافظت کنید. برای هر دو جنبه ادامه را بخوانید.
دعوتهای مخرب Google Calendar: زیر پوسته چه خبر است؟
سلاح در اینجا «تزریق پرامپت غیرمستقیم» نام دارد. مهاجمان از دقتِ هوش مصنوعی سوءاستفاده میکنند و دستورهای مخرب را در دادههای بیرونیِ پردازششده توسط مدل جای میدهند؛ از جمله وبسایتها، ایمیلها، دعوتهای تقویم یا اسناد. در سناریوی دعوتهای Google Calendar و یکپارچهسازی ChatGPT با Gmail، هوش مصنوعی همانطور که باید، دعوت را دریافت کرد و با فرمانهایی که در آن دعوتنامهها پنهان شده بود فریب خورد تا ایمیلها را افشا کند (وقتی اتصال برقرار باشد، به چیزهای زیادی دسترسی دارد).
اصطلاح «تزریق پرامپت» را Simon Willison در سال ۲۰۲۲ وضع کرد؛ او توصیف کرد چگونه عاملان مخرب میتوانند به شیوهای مشابه تزریقهای SQL به هوشهای مصنوعی دستور بدهند. «تزریق پرامپت غیرمستقیم» همانطور که از نامش پیداست، فرمانها را زیر لایهای از محتوای ظاهراً بیخطر پنهان میکند. خودِ این اصطلاح به Kai Greshake و تیم NVIDIA نسبت داده میشود که در ۲۰۲۵ الگوی حمله را صورتبندی کردند و راهبردهای دفاعی در برابر آن را شرح دادند.
چگونه در برابر حملاتی که پای «تزریق پرامپت غیرمستقیم» در میان است از خود محافظت کنیم؟
پرهیز کامل از استفاده از هوش مصنوعی سودی ندارد: امروز شاید بتوانید انزوای دلخواه را به دست آورید، اما فردا مدلهای زبانی بزرگ در سوی ارائهدهنده در خدمات ادغام میشوند و عملاً راهی برای جدا کردن آنها از حسابهایتان نخواهید داشت. حتی ممکن است از وجود این اتصال هم خبر نداشته باشید. پس برای محافظت از داراییهایتان چه میتوانید بکنید؟
- هوشیاری. پیش و بیش از هر چیز باید هوشیار بمانید و اجازه ندهید هیچ چیز مشکوکی وارد تقویمتان یا هر سیستم دیگری که به هر منظوری بر هوش مصنوعی تکیه دارد بشود.
- نظم. همهچیز را مرتب نگه دارید. اگر واقعاً به کمک ChatGPT برای ایمیلها نیاز ندارید، آن را غیرفعال کنید. شاید این قابلیت را امتحان کرده باشید و حتی پسندیده باشید، اما اگر کاربرد واقعی برایتان ندارد — تردید نکنید و آن را به بعد موکول نکنید.
- محدودیتها. حتی امروز هم میتوان یکپارچهسازیهای هوش مصنوعی را طوری تنظیم کرد که کنترل بیشتری بر اینکه مدل با چه چیزی کار کند و تحت چه شرایطی به دادهها دسترسی داشته باشد به شما بدهد. غیرفعال کردن همهٔ روالهای خودکار را در نظر بگیرید. بله، این کار تأییدهای دستی را به فهرست کارتان اضافه میکند، اما از این طریق امنتر است.
- تدابیر حفاظتی موجود. برای مثال، در Google Calendar میتوانید تنظیماتی انجام دهید که فقط دعوت از فرستندگان شناختهشده را بپذیرد. این یک سپر حفاظتی است؛ هر جا ممکن است از چنین تدابیری استفاده کنید.
OpenAI مشکل را پذیرفت و پیشنهاد کرد اتصالات را غیرفعال کنید. این شرکت در حال کار بر روی دفاع در برابر چنین حملاتی است، اما این رقابتی میان سپر و شمشیر است؛ بنابراین منطقی است که یک مجموعهٔ امنیتی آیندهنگر تهیه کنید. یکی را اینجا پیدا کنید: