הזמנות ליומן ואינטגרציית Gmail של ChatGPT: דפוס התקיפה הזמנות ליומן ואינטגרציית Gmail של ChatGPT: דפוס התקיפה

ביום 12 בספטמבר 2025, חוקר האבטחה אייטו מיאמורה הדגים ניצול של פרצה שלטענת רבים הוא הראשון מסוגו, אך בוודאות לא האחרון: Google Calendar זדוני מזריק הנחיות ל-ChatGPT, אשר, כאשר הוא מחובר ל-Gmail, מדליף בתגובה הודעות דוא״ל פרטיות. כן, יש דרישות מקדימות מסוימות — צריך ליצור את החיבור בין ה-AI ל-Gmail, ולהשתמש ב-Google Calendar בעוצמה כזו שהזמנה לא מוכרת תוכל להיכנס אליו — אך דפוסים כאלה נוטים להתפתח באופן שמרחיב את היקף ההתקפה, ולכן עדיף להבין בדיוק מה קורה וכיצד תוכלו להגן על עצמכם. קראו בהמשך על שניהם.

הזמנות זדוניות ב-Google Calendar: מה מסתתר מתחת למכסה המנוע

הנשק כאן נקרא “הזרקות פרומפט עקיפות.” הן מנצלות את היסודיות של ה-AI באמצעות החדרת הוראות זדוניות לנתונים חיצוניים שהמודל מעבד, כולל אתרים, הודעות דוא״ל, הזמנות יומן או מסמכים. במקרה של הזמנות Google Calendar ואינטגרציה של ChatGPT עם Gmail, ה-AI קיבל את ההזמנה כפי שהיה אמור, והוטעה למסור הודעות דוא״ל (ברגע שמחובר, יש לו גישה להמון דברים) באמצעות פקודות שהוסתרו בתוך אותן הזמנות.

המונח “הזרקת פרומפט” נטבע על ידי סיימון ויליסון ב-2022; החוקר תיאר כיצד גורמים זדוניים יכולים לתת הוראות ל-AI בדומה ל-SQL injections. “הזרקות פרומפט עקיפות,” כשמן כן הן, מסתירות את ההוראות תחת שכבה של תוכן שנראה בטוח. את המונח עצמו מייחסים לקאי גרשקה ולצוות של NVIDIA, שפורמליזו את דפוס ההתקפה ותיארו אסטרטגיות הגנה נגדו ב-2025.

כיצד להגן על עצמכם מפני מתקפות הכוללות הזרקות פרומפט עקיפות?

אין טעם לנסות להימנע משימוש בבינה מלאכותית לחלוטין: היום אולי תוכלו להשיג את מידת ההפרדה הרצויה, אבל מחר מודלים לשוניים גדולים ישולבו בשירותים בצד הספק, ופשוט לא תהיה לכם אפשרות לנתק אותם מהחשבונות שלכם. יתרה מזאת, ייתכן אפילו שלא תדעו שהחיבור קיים. אז מה תוכלו לעשות כדי להגן על הנכסים שלכם?

  • ערנות. ראשית, היו ערניים ואל תאפשרו לשום דבר חשוד להיכנס ליומן או לכל מערכת אחרת שנשענת על AI למטרה כזו או אחרת.
  • סדר. שמרו על הדברים מסודרים. אם אינכם באמת צריכים את ChatGPT כדי לסייע עם הדוא״ל, השביתו אותו. ייתכן שניסיתם את התכונה ואפילו אהבתם, אבל אם אין לה שימוש אמיתי — אל תהססו ואל תדחו את זה.
  • מגבלות. כבר היום ניתן להתאים אינטגרציות AI כדי לתת לכם יותר שליטה על מה המודל עובד ובאילו תנאים הוא יכול לגשת לנתונים. שקלו להשבית כל שגרה אוטומטית. כן, זה יוסיף אישורים ידניים, אבל כך זה בטוח יותר.
  • מנגנוני הגנה קיימים. ב-Google Calendar, למשל, ניתן להגדיר קבלת הזמנות ממשלחים מוכרים בלבד. זהו מנגנון הגנה; השתמשו בכאלה בכל מקום שמתאפשר.

OpenAI הכירה בבעיה והציעה להשבית מחברים (connectors). החברה עובדת על הגנות מפני מתקפות כאלה, אבל זה מרוץ חימוש, ולכן יש היגיון לאמץ חבילת אבטחה מתקדמת. מצאו אחת כאן:

Informer — אבטחת אינטרנט

פוסטים נוספים של המחבר

מחקר מצא שבקשת חדשות מבינה מלאכותית אולי אינה רעיון טוב.
מאמר
מחקר מצא שבקשת חדשות מבינה מלאכותית אולי אינה רעיון טוב.
ההרגל לבקש מבינה מלאכותית לאסוף את החדשות עלול להשתרש במהירות, אך הוא לא הבריא ביותר, משום שהמודל עלול לעוות את המידע, כך על פי מחקר.
גוגל מציגה את 'אנשי קשר לשחזור', דרך לשחזר חשבון.
מאמר
גוגל מציגה את 'אנשי קשר לשחזור', דרך לשחזר חשבון.
Google הוסיפה שיטת שחזור חשבון נוספת לשתי השיטות שכבר מוכרות. למדו כיצד להגדיר איש קשר לשחזור.
סוף סוף מחשב-על לבינה מלאכותית לשימוש ביתי
מאמר
סוף סוף מחשב-על לבינה מלאכותית לשימוש ביתי
Nvidia מתחילה למכור את DGX Spark, "מחשב־על אישי ל-AI" שמסוגל להריץ מודלים עם 200 מיליארד פרמטרים. המחיר הוא $3,999.
כיצד להתקין את Windows 11 על מחשב שאינו נתמך
מאמר
כיצד להתקין את Windows 11 על מחשב שאינו נתמך
התמיכה ב-Windows 10 מסתיימת ב-14 באוקטובר 2025. אם ה-PC שלך אינו נתמך, המשך לקרוא כדי ללמוד על דרכים לשדרג ל-Windows 11 בכל זאת.