Προσκλήσεις ημερολογίου και η ενσωμάτωση του Gmail του ChatGPT: το μοτίβο επίθεσης Προσκλήσεις ημερολογίου και η ενσωμάτωση του Gmail του ChatGPT: το μοτίβο επίθεσης

Στις 12 Σεπτεμβρίου 2025, ο ερευνητής ασφαλείας Eito Miyamura παρουσίασε ένα exploit που, πιθανώς, είναι το πρώτο αλλά σίγουρα όχι το τελευταίο του είδους του: ένα κακόβουλο Google Calendar εισάγει προτροπές στο ChatGPT, το οποίο, όταν είναι συνδεδεμένο με το Gmail, διαρρέει ιδιωτικά email ως απάντηση. Ναι, υπάρχουν συγκεκριμένες προϋποθέσεις — πρέπει να δημιουργήσετε τη σύνδεση μεταξύ της ΤΝ και του Gmail και να χρησιμοποιείτε το Google Calendar τόσο εντατικά ώστε μια άγνωστη πρόσκληση να μπορεί να βρει τον δρόμο της μέσα — αλλά τέτοια μοτίβα τείνουν να εξελίσσονται με τρόπο που διευρύνει την εμβέλεια της επίθεσης, οπότε είναι καλύτερο να ξέρετε τι ακριβώς συμβαίνει και πώς μπορείτε να προστατευθείτε. Διαβάστε παρακάτω και για τα δύο.

Κακόβουλες προσκλήσεις Google Calendar: τι κρύβεται κάτω από το καπό

Το «όπλο» εδώ ονομάζεται “indirect prompt injections.” Αξιοποιούν την επιμελή φύση της ΤΝ εισάγοντας κακόβουλες οδηγίες στα εξωτερικά δεδομένα που επεξεργάζεται το μοντέλο, όπως ιστότοπους, email, προσκλήσεις ημερολογίου ή έγγραφα. Στην περίπτωση των προσκλήσεων Google Calendar και της ενσωμάτωσης του ChatGPT με το Gmail, η ΤΝ έλαβε την πρόσκληση, όπως έπρεπε, και εξαπατήθηκε ώστε να παραδώσει email (αφού συνδεθεί, έχει πρόσβαση σε πολλά) από εντολές που ήταν κρυμμένες μέσα σε αυτές τις προσκλήσεις.

Ο όρος “prompt injection” καθιερώθηκε από τον Simon Willison το 2022· ο ερευνητής περιέγραψε πώς κακόβουλοι δρώντες θα μπορούσαν να δίνουν οδηγίες σε ΤΝ με τρόπο παρόμοιο με τις SQL injections. Οι “indirect prompt injections,” όπως υποδηλώνει το όνομα, έχουν αυτές τις εντολές κρυμμένες κάτω από ένα στρώμα υλικού που φαίνεται ασφαλές. Ο ίδιος ο όρος αποδίδεται στον Kai Greshake και την ομάδα της NVIDIA, οι οποίοι τυποποίησαν το πρότυπο επίθεσης και περιέγραψαν στρατηγικές άμυνας εναντίον του το 2025.

Πώς να προστατευθείτε από επιθέσεις που περιλαμβάνουν έμμεσες εισαγωγές προτροπών;

Δεν έχει νόημα να προσπαθήσετε να απέχετε πλήρως από τη χρήση τεχνητής νοημοσύνης: σήμερα ίσως μπορείτε να πετύχετε την επιθυμητή απομόνωση, αλλά αύριο τα μεγάλα γλωσσικά μοντέλα θα ενσωματωθούν στις υπηρεσίες από την πλευρά του παρόχου και απλώς δεν θα υπάρχει τρόπος να τα αποσυνδέσετε από τους λογαριασμούς σας. Επιπλέον, μπορεί να μη γνωρίζετε καν ότι υπάρχει η σύνδεση. Λοιπόν, τι μπορείτε να κάνετε για να θωρακίσετε τα δεδομένα και τους λογαριασμούς σας;

  • Εγρήγορση. Πρώτα και κύρια, να παραμένετε σε εγρήγορση και να μην αφήνετε τίποτα ύποπτο να εισέρχεται στο ημερολόγιό σας ή σε οποιοδήποτε άλλο σύστημα που βασίζεται στην ΤΝ για τον έναν ή τον άλλον σκοπό.
  • Τάξη. Κρατήστε τα πράγματα τακτοποιημένα. Αν δεν χρειάζεστε πραγματικά το ChatGPT για βοήθεια με τα email, απενεργοποιήστε το. Μπορεί να δοκιμάσατε τη δυνατότητα, ίσως και να σας άρεσε, αλλά αν δεν υπάρχει πραγματική χρήση — μην διστάζετε και μην το αφήνετε για αργότερα.
  • Όρια. Ακόμη και σήμερα οι ενσωματώσεις με ΤΝ μπορούν να προσαρμοστούν ώστε να σας δίνουν περισσότερο έλεγχο στο με τι δουλεύει το μοντέλο και υπό ποιες συνθήκες μπορεί να έχει πρόσβαση στα δεδομένα. Σκεφτείτε να απενεργοποιήσετε όλες τις αυτόματες ρουτίνες. Ναι, θα προσθέσει χειροκίνητες εγκρίσεις στο μενού σας, αλλά είναι πιο ασφαλές έτσι.
  • Υπάρχοντα μέτρα προστασίας. Στο Google Calendar, για παράδειγμα, μπορείτε να το ρυθμίσετε ώστε να επιτρέπει προσκλήσεις μόνο από γνωστούς αποστολείς. Αυτό είναι ένα μέτρο προστασίας· χρησιμοποιήστε τέτοια όποτε είναι δυνατόν.

Η OpenAI αναγνώρισε το πρόβλημα και πρότεινε την απενεργοποίηση των “connectors.” Η εταιρεία εργάζεται πάνω σε άμυνες εναντίον τέτοιων επιθέσεων, αλλά πρόκειται για μια κούρσα ασπίδας-σπαθιού, οπότε έχει νόημα να αποκτήσετε μια προορατική σουίτα ασφαλείας. Βρείτε μία εδώ:

Informer — Ασφάλεια Διαδικτύου

Άλλες δημοσιεύσεις του συγγραφέα

Το να ζητάς ειδήσεις από την τεχνητή νοημοσύνη ίσως να μην είναι καλή ιδέα, σύμφωνα με μελέτη.
Άρθρο
Το να ζητάς ειδήσεις από την τεχνητή νοημοσύνη ίσως να μην είναι καλή ιδέα, σύμφωνα με μελέτη.
Η συνήθεια να ζητάμε από την τεχνητή νοημοσύνη να μαζεύει τις ειδήσεις μπορεί να παγιωθεί γρήγορα, αλλά δεν είναι η πιο υγιής, καθώς το μοντέλο μπορεί να διαστρεβλώνει τις πληροφορίες, σύμφωνα με μελέτη.
Η Google παρουσιάζει τις «Επαφές ανάκτησης», έναν τρόπο για να ανακτήσετε έναν λογαριασμό.
Άρθρο
Η Google παρουσιάζει τις «Επαφές ανάκτησης», έναν τρόπο για να ανακτήσετε έναν λογαριασμό.
Η Google πρόσθεσε μία ακόμη μέθοδο ανάκτησης λογαριασμού στις δύο ήδη γνωστές. Μάθετε πώς να ρυθμίσετε την επαφή ανάκτησης.
Επιτέλους, ένας υπερυπολογιστής ΤΝ για οικιακή χρήση
Άρθρο
Επιτέλους, ένας υπερυπολογιστής ΤΝ για οικιακή χρήση
Η Nvidia ξεκινά να πουλά το DGX Spark, έναν "προσωπικό υπερυπολογιστή τεχνητής νοημοσύνης" ικανό να εκτελεί μοντέλα με 200 δισ. παραμέτρους. Η τιμή είναι $3,999.
Πώς να εγκαταστήσετε τα Windows 11 σε μη υποστηριζόμενο υπολογιστή
Άρθρο
Πώς να εγκαταστήσετε τα Windows 11 σε μη υποστηριζόμενο υπολογιστή
Η υποστήριξη για τα Windows 10 λήγει στις 14 Οκτωβρίου 2025. Εάν ο υπολογιστής σας δεν υποστηρίζεται, συνεχίστε την ανάγνωση για να μάθετε τρόπους αναβάθμισης σε Windows 11 παρ’ όλα αυτά.