Invitații din calendar și integrarea Gmail a ChatGPT-ului: tiparul atacului
Pe 12 septembrie 2025, cercetătorul în securitate Eito Miyamura a demonstrat un exploit care, probabil, este primul, dar cu siguranță nu ultimul de acest fel: un Google Calendar malițios injectează prompturi în ChatGPT, care, atunci când este conectat la Gmail, divulgă e-mailuri private ca răspuns. Da, există condiții prealabile specifice — trebuie să stabilești conexiunea dintre IA și Gmail și să folosești Google Calendar atât de intens încât o invitație necunoscută să își facă loc în el — însă astfel de tipare tind să evolueze pentru a extinde aria de acoperire a atacului, așa că e mai bine să știi exact ce se întâmplă și cum te poți proteja. Citește în continuare pentru ambele aspecte.
Invitații malițioase în Google Calendar: ce se află sub capotă
Arma aici se numește “injecții indirecte de prompturi.” Ele exploatează minuțiozitatea IA prin inserarea de instrucțiuni malițioase în datele externe procesate de model, inclusiv site-uri web, e-mailuri, invitații din calendar sau documente. În cazul invitațiilor Google Calendar și al integrării ChatGPT cu Gmail, IA a preluat invitația, așa cum era de așteptat, și a fost păcălită să cedeze e-mailuri (odată conectată, are acces la o mulțime de lucruri) prin comenzi ascunse în acele invitații.
Termenul “injecție de prompt” a fost introdus de Simon Willison în 2022; cercetătorul a descris cum actorii malițioși pot da instrucțiuni IA-urilor într-un mod asemănător injecțiilor SQL. “Injecțiile indirecte de prompt,” după cum sugerează numele, ascund acele comenzi sub un strat de material cu aspect sigur. Termenul în sine este atribuit lui Kai Greshake și echipei NVIDIA, care au formalizat modelul de atac și au descris strategii de apărare împotriva lui în 2025.
Cum să te protejezi împotriva atacurilor ce implică injecții indirecte de prompt?
Nu are rost să încerci să te abții complet de la folosirea inteligenței artificiale: astăzi poți reuși să obții izolarea dorită, dar mâine modelele lingvistice de mari dimensiuni vor fi integrate în servicii pe partea furnizorului, iar tu pur și simplu nu le vei putea deconecta de la conturile tale. Mai mult, nici măcar nu vei ști că există acea conexiune. Așadar, ce poți face ca să îți protejezi datele și conturile?
- Vigilență. În primul rând, rămâi vigilent și nu lăsa niciodată nimic suspect să ajungă în calendarul tău sau în orice alt sistem care se bazează pe IA, indiferent de scop.
- Ordine. Păstrează lucrurile în ordine. Dacă nu ai cu adevărat nevoie ca ChatGPT să te ajute cu e-mailurile, dezactivează-l. S-ar putea să fi încercat funcția, poate chiar ți-a plăcut, dar dacă nu există un caz real de utilizare pentru ea — nu ezita și nu amâna.
- Limite. Chiar și astăzi, integrațiile cu IA pot fi personalizate pentru a-ți oferi mai mult control asupra a ceea ce procesează modelul și în ce condiții poate accesa datele. Ia în calcul dezactivarea tuturor rutinelor automate. Da, asta va adăuga aprobări manuale, dar este mai sigur așa.
- Măsuri de protecție existente. În Google Calendar, de exemplu, poți configura lucrurile astfel încât să permiți invitații doar de la expeditori cunoscuți. Aceasta este o măsură de protecție; folosește astfel de opțiuni ori de câte ori este posibil.
OpenAI a recunoscut problema și a sugerat dezactivarea conectorilor. Compania lucrează la mecanisme de apărare împotriva unor astfel de atacuri, dar este o cursă între scut și sabie, așa că este logic să alegi o suită de securitate orientată spre viitor. Găsești una aici: