Undangan kalender dan integrasi Gmail ChatGPT: pola serangan Undangan kalender dan integrasi Gmail ChatGPT: pola serangan

Pada 12 September 2025, peneliti keamanan Eito Miyamura mendemonstrasikan sebuah eksploit yang boleh jadi merupakan yang pertama, namun jelas bukan yang terakhir dari jenisnya: Google Calendar berbahaya menyuntikkan prompt ke dalam ChatGPT yang, ketika terhubung ke Gmail, membocorkan email pribadi sebagai respons. Ya, ada prasyarat tertentu — Anda harus membangun koneksi antara AI dan Gmail, serta menggunakan Google Calendar begitu intensif sehingga undangan yang tidak dikenal bisa masuk — tetapi pola semacam ini cenderung berkembang sehingga memperluas cakupan serangan, jadi sebaiknya Anda tahu persis apa yang terjadi dan bagaimana cara melindungi diri. Baca terus untuk keduanya.

Undangan Google Calendar berbahaya: apa yang terjadi di balik kap mesin

Senjatanya disebut “indirect prompt injections.” Mereka mengeksploitasi ketelitian AI dengan menyisipkan instruksi berbahaya ke dalam data eksternal yang diproses oleh model, termasuk situs web, email, undangan kalender, atau dokumen. Dalam kasus undangan Google Calendar dan integrasi ChatGPT dengan Gmail, AI menerima undangan sebagaimana mestinya, lalu tertipu untuk membocorkan email (setelah terhubung, AI memiliki akses ke banyak hal) oleh perintah yang disembunyikan di dalam undangan itu.

Istilah “prompt injection” diciptakan oleh Simon Willison pada 2022; peneliti tersebut menjelaskan bagaimana pelaku jahat dapat memberi instruksi kepada AI dengan cara yang mirip dengan injeksi SQL. “Indirect prompt injections,” seperti namanya, memiliki perintah yang disembunyikan di bawah lapisan materi yang tampak aman. Istilah itu sendiri dikreditkan kepada Kai Greshake dan tim NVIDIA, yang memformalkan pola serangan tersebut dan menggambarkan strategi pertahanan terhadapnya pada 2025.

Bagaimana melindungi diri dari serangan yang melibatkan indirect prompt injections?

Tidak ada gunanya mencoba sepenuhnya berhenti menggunakan kecerdasan buatan: hari ini Anda mungkin bisa mencapai isolasi yang diinginkan, tetapi besok model bahasa besar akan diintegrasikan ke dalam layanan di sisi penyedia, dan tidak akan ada cara bagi Anda untuk memutuskan mereka dari akun Anda. Lebih jauh lagi, Anda bahkan mungkin tidak tahu bahwa koneksi itu ada. Jadi, apa yang bisa Anda lakukan untuk melindungi aset Anda?

  • Kewaspadaan. Pertama dan terutama, Anda harus tetap waspada dan jangan pernah membiarkan sesuatu yang mencurigakan masuk ke kalender Anda atau sistem lain yang mengandalkan AI untuk tujuan apa pun.
  • Kerapian. Jaga semuanya tetap rapi. Jika Anda tidak benar-benar membutuhkan ChatGPT untuk membantu email, nonaktifkan saja. Anda mungkin sudah mencoba fiturnya, bahkan menyukainya, tetapi jika tidak ada kasus penggunaan nyata — jangan ragu, dan jangan menundanya.
  • Batasan. Bahkan saat ini integrasi AI dapat disesuaikan untuk memberi Anda lebih banyak kontrol atas apa yang dikerjakan model dan dalam kondisi apa ia dapat mengakses data. Pertimbangkan untuk menonaktifkan semua rutinitas otomatis. Ya, ini akan menambah persetujuan manual ke alur Anda, tetapi cara ini lebih aman.
  • Perlindungan yang sudah ada. Di Google Calendar, misalnya, Anda dapat mengatur agar hanya undangan dari pengirim yang dikenal yang diizinkan. Ini adalah pengaman; gunakan kapan pun memungkinkan.

OpenAI mengakui masalah tersebut dan menyarankan untuk menonaktifkan konektor. Perusahaan sedang mengembangkan pertahanan terhadap serangan semacam itu, namun ini adalah perlombaan pedang dan perisai, jadi masuk akal untuk mendapatkan paket keamanan yang berwawasan ke depan. Temukan di sini:

Informer — Keamanan internet

Postingan lain oleh penulis

Sorotan: Flyoobe, alat kustomisasi instalasi Windows 11
Artikel
Sorotan: Flyoobe, alat kustomisasi instalasi Windows 11
Flyoobe adalah, bisa dibilang, salah satu alat kustomisasi instalasi Windows 11 yang paling populer. Pelajari apa yang bisa dilakukannya dan cara menggunakannya (semuanya sederhana).
Google memperkenalkan 'Kontak Pemulihan', cara untuk mendapatkan kembali akses ke akun.
Artikel
Google memperkenalkan 'Kontak Pemulihan', cara untuk mendapatkan kembali akses ke akun.
Google menambahkan satu lagi metode pemulihan akun selain dua yang sudah dikenal. Pelajari cara menyiapkan kontak pemulihan.
Akhirnya, superkomputer AI untuk penggunaan di rumah
Artikel
Akhirnya, superkomputer AI untuk penggunaan di rumah
Nvidia mulai menjual DGX Spark, sebuah "superkomputer AI personal" yang mampu menjalankan model dengan 200 miliar parameter. Harganya $3,999.
Cara menginstal Windows 11 di PC yang tidak didukung
Artikel
Cara menginstal Windows 11 di PC yang tidak didukung
Dukungan untuk Windows 10 akan berakhir pada 14 Oktober 2025. Jika PC Anda tidak didukung, lanjutkan membaca untuk mengetahui cara meningkatkan ke Windows 11 meskipun demikian.