Kalenderinvitasjoner og ChatGPTs Gmail-integrasjon: angrepsmønsteret
Den 12. september 2025 demonstrerte sikkerhetsforskeren Eito Miyamura en utnyttelse som, kan man hevde, er den første, men definitivt ikke den siste i sitt slag: en ondsinnet Google Kalender injiserer prompter i ChatGPT, som, når den er koblet til Gmail, lekker private e-poster som svar. Ja, det finnes enkelte forutsetninger — du må opprette forbindelsen mellom KI-en og Gmail, og bruke Google Kalender så intensivt at en ukjent invitasjon kan snike seg inn i den — men slike mønstre pleier å utvikle seg slik at angrepets nedslagsfelt utvides, så det er best å vite nøyaktig hva som skjer og hvordan du kan beskytte deg. Les videre for begge deler.
Ondsinnede Google Kalender-invitasjoner: hva som er under panseret
Våpenet her kalles “indirekte promptinjeksjoner.” De utnytter KI-ens grundighet ved å sette inn ondsinnede instruksjoner i eksterne data som modellen behandler, inkludert nettsteder, e-poster, kalenderinvitasjoner eller dokumenter. Når det gjelder Google Kalender-invitasjoner og ChatGPT-integrasjonen med Gmail, tok KI-en imot invitasjonen, slik den skulle, og ble lurt til å gi fra seg e-poster (når den først er koblet til, har den tilgang til mye) av kommandoer skjult i disse invitasjonene.
Begrepet “promptinjeksjon” ble introdusert av Simon Willison i 2022; forskeren beskrev hvordan ondsinnede aktører kunne gi instruksjoner til KI-er på mye samme måte som SQL-injeksjoner. “Indirekte promptinjeksjoner,” som navnet antyder, har disse kommandoene skjult under et lag av tilsynelatende trygt materiale. Selve begrepet tilskrives Kai Greshake og NVIDIA-teamet, som formaliserte angrepsmønsteret og beskrev forsvarsstrategier mot det i 2025.
Hvordan beskytte deg mot angrep som involverer indirekte promptinjeksjoner?
Det er ikke noe poeng i å forsøke å avstå helt fra å bruke kunstig intelligens: I dag kan du kanskje oppnå ønsket isolasjon, men i morgen vil store språkmodeller være integrert i tjenester på leverandørens side, og det vil rett og slett ikke finnes noen måte for deg å koble dem fra kontoene dine. Dessuten vil du ikke engang vite at forbindelsen er der. Så, hva kan du gjøre for å verne verdiene dine?
- Årvåkenhet. Først og fremst må du være årvåken og aldri slippe noe mistenkelig inn i kalenderen din eller andre systemer som støtter seg på KI for det ene eller det andre formålet.
- Orden. Hold ting ryddig. Hvis du egentlig ikke trenger at ChatGPT hjelper deg med e-poster, deaktiver det. Du kan ha prøvd funksjonen, kanskje til og med likt den, men hvis det ikke finnes noen reell brukssituasjon for den — ikke nøl, og ikke skyv det på vent.
- Begrensninger. Selv i dag kan KI-integrasjoner tilpasses slik at du får mer kontroll over hva modellen arbeider med og på hvilke vilkår den kan få tilgang til data. Vurder å slå av alle automatiske rutiner. Ja, det vil legge til manuelle godkjenninger, men det er tryggere slik.
- Eksisterende sikringstiltak. I Google Kalender kan du for eksempel sette ting opp slik at du bare tillater invitasjoner fra kjente avsendere. Dette er et sikkerhetstiltak; bruk slike når det er mulig.
OpenAI erkjente problemet og foreslo å deaktivere koblinger. Selskapet arbeider med forsvar mot slike angrep, men det er et skjold-og-sverd-kappløp, så det gir mening å skaffe en fremtidsrettet sikkerhetspakke. Finn en her: