Προσκλήσεις ημερολογίου και η ενσωμάτωση του Gmail του ChatGPT: το μοτίβο επίθεσης
Στις 12 Σεπτεμβρίου 2025, ο ερευνητής ασφαλείας Eito Miyamura παρουσίασε ένα exploit που, πιθανώς, είναι το πρώτο αλλά σίγουρα όχι το τελευταίο του είδους του: ένα κακόβουλο Google Calendar εισάγει προτροπές στο ChatGPT, το οποίο, όταν είναι συνδεδεμένο με το Gmail, διαρρέει ιδιωτικά email ως απάντηση. Ναι, υπάρχουν συγκεκριμένες προϋποθέσεις — πρέπει να δημιουργήσετε τη σύνδεση μεταξύ της ΤΝ και του Gmail και να χρησιμοποιείτε το Google Calendar τόσο εντατικά ώστε μια άγνωστη πρόσκληση να μπορεί να βρει τον δρόμο της μέσα — αλλά τέτοια μοτίβα τείνουν να εξελίσσονται με τρόπο που διευρύνει την εμβέλεια της επίθεσης, οπότε είναι καλύτερο να ξέρετε τι ακριβώς συμβαίνει και πώς μπορείτε να προστατευθείτε. Διαβάστε παρακάτω και για τα δύο.
Κακόβουλες προσκλήσεις Google Calendar: τι κρύβεται κάτω από το καπό
Το «όπλο» εδώ ονομάζεται “indirect prompt injections.” Αξιοποιούν την επιμελή φύση της ΤΝ εισάγοντας κακόβουλες οδηγίες στα εξωτερικά δεδομένα που επεξεργάζεται το μοντέλο, όπως ιστότοπους, email, προσκλήσεις ημερολογίου ή έγγραφα. Στην περίπτωση των προσκλήσεων Google Calendar και της ενσωμάτωσης του ChatGPT με το Gmail, η ΤΝ έλαβε την πρόσκληση, όπως έπρεπε, και εξαπατήθηκε ώστε να παραδώσει email (αφού συνδεθεί, έχει πρόσβαση σε πολλά) από εντολές που ήταν κρυμμένες μέσα σε αυτές τις προσκλήσεις.
Ο όρος “prompt injection” καθιερώθηκε από τον Simon Willison το 2022· ο ερευνητής περιέγραψε πώς κακόβουλοι δρώντες θα μπορούσαν να δίνουν οδηγίες σε ΤΝ με τρόπο παρόμοιο με τις SQL injections. Οι “indirect prompt injections,” όπως υποδηλώνει το όνομα, έχουν αυτές τις εντολές κρυμμένες κάτω από ένα στρώμα υλικού που φαίνεται ασφαλές. Ο ίδιος ο όρος αποδίδεται στον Kai Greshake και την ομάδα της NVIDIA, οι οποίοι τυποποίησαν το πρότυπο επίθεσης και περιέγραψαν στρατηγικές άμυνας εναντίον του το 2025.
Πώς να προστατευθείτε από επιθέσεις που περιλαμβάνουν έμμεσες εισαγωγές προτροπών;
Δεν έχει νόημα να προσπαθήσετε να απέχετε πλήρως από τη χρήση τεχνητής νοημοσύνης: σήμερα ίσως μπορείτε να πετύχετε την επιθυμητή απομόνωση, αλλά αύριο τα μεγάλα γλωσσικά μοντέλα θα ενσωματωθούν στις υπηρεσίες από την πλευρά του παρόχου και απλώς δεν θα υπάρχει τρόπος να τα αποσυνδέσετε από τους λογαριασμούς σας. Επιπλέον, μπορεί να μη γνωρίζετε καν ότι υπάρχει η σύνδεση. Λοιπόν, τι μπορείτε να κάνετε για να θωρακίσετε τα δεδομένα και τους λογαριασμούς σας;
- Εγρήγορση. Πρώτα και κύρια, να παραμένετε σε εγρήγορση και να μην αφήνετε τίποτα ύποπτο να εισέρχεται στο ημερολόγιό σας ή σε οποιοδήποτε άλλο σύστημα που βασίζεται στην ΤΝ για τον έναν ή τον άλλον σκοπό.
- Τάξη. Κρατήστε τα πράγματα τακτοποιημένα. Αν δεν χρειάζεστε πραγματικά το ChatGPT για βοήθεια με τα email, απενεργοποιήστε το. Μπορεί να δοκιμάσατε τη δυνατότητα, ίσως και να σας άρεσε, αλλά αν δεν υπάρχει πραγματική χρήση — μην διστάζετε και μην το αφήνετε για αργότερα.
- Όρια. Ακόμη και σήμερα οι ενσωματώσεις με ΤΝ μπορούν να προσαρμοστούν ώστε να σας δίνουν περισσότερο έλεγχο στο με τι δουλεύει το μοντέλο και υπό ποιες συνθήκες μπορεί να έχει πρόσβαση στα δεδομένα. Σκεφτείτε να απενεργοποιήσετε όλες τις αυτόματες ρουτίνες. Ναι, θα προσθέσει χειροκίνητες εγκρίσεις στο μενού σας, αλλά είναι πιο ασφαλές έτσι.
- Υπάρχοντα μέτρα προστασίας. Στο Google Calendar, για παράδειγμα, μπορείτε να το ρυθμίσετε ώστε να επιτρέπει προσκλήσεις μόνο από γνωστούς αποστολείς. Αυτό είναι ένα μέτρο προστασίας· χρησιμοποιήστε τέτοια όποτε είναι δυνατόν.
Η OpenAI αναγνώρισε το πρόβλημα και πρότεινε την απενεργοποίηση των “connectors.” Η εταιρεία εργάζεται πάνω σε άμυνες εναντίον τέτοιων επιθέσεων, αλλά πρόκειται για μια κούρσα ασπίδας-σπαθιού, οπότε έχει νόημα να αποκτήσετε μια προορατική σουίτα ασφαλείας. Βρείτε μία εδώ: