spot_imgspot_img

Top 5 This Week

spot_img

Related Posts

ChatGPT Mengalami Kebocoran Data? Peneliti Temukan 7 Celah Berbahaya


jelajahtechno.com — Sejak dirilis ke publik pada akhir 2022, ChatGPT telah berubah menjadi salah satu alat kecerdasan buatan paling populer di dunia. Jutaan pengguna memakainya untuk menulis, mencari informasi, bekerja, hingga mengelola aktivitas harian. Namun, semakin banyaknya penggunaan membuat risiko keamanan yang mengintai juga semakin besar.

Penelitian terbaru dari perusahaan keamanan siber Tenable mengungkap adanya tujuh kerentanan serius yang dapat dimanfaatkan peretas untuk mencuri informasi pribadi pengguna. Temuan ini menunjukkan bagaimana kerentanan pada sistem kecerdasan buatan cenderung berbeda dari kerentanan perangkat lunak tradisional dan jauh lebih sulit dimitigasi.

Peneliti keamanan siber Moshe Bernstein dan Liv Matan mengungkap bahwa celah keamanan tersebut berasal dari cara ChatGPT memproses instruksi dari sumber eksternal seperti halaman web, URL, komentar blog, dan hasil pencarian. Serangan ini memungkinkan peretas memanipulasi chatbot tanpa sepengetahuan pengguna.

Penelitian ini menjadi pengingat penting bagi individu dan perusahaan untuk berhati-hati saat mengintegrasikan AI ke dalam alur kerja mereka, terutama yang berkaitan dengan data sensitif.

Tujuh Kerentanan Berbahaya dalam ChatGPT

Tenable memaparkan bahwa seluruh kerentanan muncul akibat cara ChatGPT “menelan mentah-mentah” instruksi dari konten luar. Ketika ChatGPT diminta membaca halaman, merangkum artikel, atau membuka URL, model memproses konten tersebut secara langsung, termasuk instruksi tersembunyi yang ditanamkan oleh penyerang.

Berikut tujuh kerentanan yang ditemukan dan dampaknya bagi pengguna.

Baca juga : Kerja Sama Microsoft–OpenAI Memasuki Babak Baru Demi Superintelligence

1. Indirect Prompt Injection dalam Konteks Browsing

Kerentanan ini terjadi ketika peretas menyisipkan perintah tersembunyi dalam konten eksternal seperti komentar blog atau elemen HTML dalam halaman web yang tampak normal.

Saat pengguna meminta ChatGPT untuk merangkum halaman, membaca artikel, atau membuka tautan, chatbot akan mengikuti instruksi tersembunyi tersebut tanpa menyadari bahwa itu perintah berbahaya.

Efeknya bisa sangat merugikan:

  • ChatGPT bisa mengirimkan tautan phishing kepada pengguna.
  • ChatGPT dapat diarahkan memberikan respons manipulatif.
  • Model bisa diminta membocorkan informasi tertentu.

Karena instruksi berbahaya ini tersembunyi di dalam konten web, pengguna tidak menyadari bahwa mereka sedang diserang.

2. Bypass Mekanisme Keamanan URL

ChatGPT memiliki sistem keamanan bawaan untuk memblokir tautan berbahaya. Namun, Tenable menemukan bahwa hacker dapat mengelabui sistem ini dengan menggunakan domain pendukung yang tampak aman atau URL wrapper.

Karena ChatGPT menganggap domain tersebut terpercaya, tautan berbahaya dapat disamarkan dan lolos dari pemeriksaan keamanan.
Pengguna yang mengkliknya akan diarahkan ke:

  • situs phishing,
  • server penyerang,
  • atau halaman yang dapat mencuri informasi pribadi.

Kerentanan ini menunjukkan bahwa URL filtering ChatGPT masih bisa dilewati dengan trik sederhana.

3. Conversation Injection melalui SearchGPT

Kerentanan ini mengeksploitasi hubungan ChatGPT dengan SearchGPT saat melakukan pencarian di web.

Penyerang dapat memasukkan instruksi berbahaya ke situs web yang muncul dalam pencarian. Ketika SearchGPT mengakses situs yang sudah “tercemar,” instruksi berbahaya tersebut masuk ke percakapan.

ChatGPT kemudian menganggap instruksi itu sebagai bagian dari percakapan normal, sehingga model memberikan output yang tidak diinginkan.

Contoh dampak:

  • jawaban salah,
  • perubahan topik secara tiba-tiba,
  • chatbot memberikan informasi palsu,
  • chatbot menjalankan tindakan tanpa perintah pengguna.

1 COMMENT

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Popular Articles