Kalenterikutsut ja ChatGPT:n Gmail-integraatio: hyökkäysmalli
12. syyskuuta 2025 tietoturvatutkija Eito Miyamura demonstroi hyödyntämistavan, jota voi hyvällä syyllä pitää ensimmäisenä muttei taatusti viimeisenä lajissaan: haitallinen Google Kalenteri -kutsu syöttää kehotteita ChatGPT:hen, joka Gmailiin yhdistettynä vuotaa vastauksissaan yksityisiä sähköposteja. Kyllä, tietyt edellytykset on täytyttävä — sinun on luotava yhteys tekoälyn ja Gmailin välille ja käytettävä Google Kalenteria niin intensiivisesti, että tuntematon kutsu voi ujuttautua sinne — mutta tällaiset mallit tapaavat kehittyä suuntaan, joka laajentaa hyökkäyksen kattavuutta, joten on parasta ymmärtää, mitä tarkalleen ottaen tapahtuu ja miten voit suojautua. Lue alta molemmat.
Haitalliset Google Kalenterin kutsut: mitä konepellin alla on
Aseena on “epäsuorat kehoteinjektiot”. Ne hyödyntävät tekoälyn perusteellisuutta ujuttamalla haitallisia ohjeita mallin käsittelemään ulkoiseen dataan, kuten verkkosivuille, sähköposteihin, kalenterikutsuihin tai asiakirjoihin. Google Kalenterin kutsujen ja ChatGPT:n Gmailiin yhdistämisen tapauksessa tekoäly käsitteli kutsun kuten pitikin, mutta kutsuihin piilotetuilla käskyillä se huijattiin luovuttamaan sähköposteja (kun yhteys on luotu, sillä on pääsy moneen asiaan).
Termi “prompt injection” (kehoteinjektio) lanseerattiin Simon Willisonin toimesta vuonna 2022; tutkija kuvasi, miten pahantahtoiset toimijat voisivat antaa ohjeita tekoälyille pitkälti samaan tapaan kuin SQL-injektioissa. Kuten nimikin kertoo, “epäsuorissa kehoteinjektioissa” käskyt piilotetaan harmittomalta näyttävän sisällön alle. Termi itsessään on Kai Greshaken ja NVIDIAn tiimin ansiota; he formalisoivat hyökkäyskuvion ja kuvasivat sitä vastaan suunnattuja puolustusstrategioita vuonna 2025.
Miten suojautua hyökkäyksiltä, joissa käytetään epäsuoria kehoteinjektioita?
Ei kannata yrittää pidättäytyä tekoälyn käytöstä kokonaan: tänään saatat vielä pystyä eristäytymään, mutta huomenna suuret kielimallit integroidaan palveluntarjoajan puolella palveluihin, eikä sinulla yksinkertaisesti ole mahdollisuutta kytkeä niitä irti tileistäsi. Lisäksi et välttämättä edes tiedä, että yhteys on olemassa. Mitä siis voit tehdä suojataksesi tietosi ja tilisi?
- Valppaus. Ennen kaikkea pysy valppaana äläkä päästä mitään epäilyttävää kalenteriisi tai muihin tekoälyä hyödyntäviin järjestelmiin.
- Järjestys. Pidä asiat siisteinä. Jos et oikeasti tarvitse ChatGPT:tä auttamaan sinua sähköpostien kanssa, poista se käytöstä. Olet ehkä kokeillut ominaisuutta ja jopa pitänyt siitä, mutta jos sille ei ole todellista käyttötapausta — älä epäröi, äläkä lykkää asiaa.
- Rajaukset. Jo tänä päivänä AI-integraatioita voi usein räätälöidä siten, että hallitset paremmin, minkä kanssa malli työskentelee ja millä ehdoilla se saa käyttää dataa. Harkitse kaikkien automaattisten rutiinien poistamista käytöstä. Kyllä, se lisää manuaalisia hyväksyntöjä, mutta se on turvallisempaa.
- Olemassa olevat suojaukset. Google Kalenterissa voit esimerkiksi sallia kutsut vain tunnetuilta lähettäjiltä. Tämä on suojaus; käytä sellaisia aina kun mahdollista.
OpenAI myönsi ongelman ja suositteli yhdistimien (connectors) poistamista käytöstä. Yhtiö kehittää puolustuksia tällaisia hyökkäyksiä vastaan, mutta kyse on kilpavarustelusta, joten on järkevää hankkia tulevaisuuteen katsova tietoturvapaketti. Löydät sellaisen täältä: