Ancaman Shadow AI Mengancam Keamanan Perusahaan

Image by Freepik

Ancaman Shadow AI Mengancam Keamanan Perusahaan

Waktu baca: 3 Mnt

Seiring dengan pesatnya perkembangan teknologi AI, organisasi dihadapkan pada ancaman keamanan baru: aplikasi AI bayangan. Aplikasi-aplikasi yang tidak resmi ini, dikembangkan oleh karyawan tanpa pengawasan IT atau keamanan, menyebar di berbagai perusahaan dan seringkali tidak terdeteksi, seperti yang diungkap dalam artikel terbaru di VentureBeat.

Terburu-buru? Berikut Fakta Singkatnya!

  • Aplikasi Shadow AI dibuat oleh karyawan tanpa persetujuan IT atau keamanan.
  • Karyawan menciptakan shadow AI untuk meningkatkan produktivitas, seringkali tanpa niat jahat.
  • Model publik dapat membuka data sensitif, menciptakan risiko kepatuhan untuk organisasi.

VentureBeat menjelaskan bahwa meskipun banyak dari aplikasi-aplikasi ini tidak disengaja berbahaya, mereka menimbulkan risiko signifikan terhadap jaringan perusahaan, mulai dari pelanggaran data hingga pelanggaran kepatuhan.

Aplikasi Shadow AI seringkali dibangun oleh karyawan yang berusaha untuk mengotomatisasi tugas rutin atau memperhalus operasi, dengan menggunakan model AI yang dilatih pada data perusahaan yang proprietary.

Aplikasi ini, yang seringkali bergantung pada alat AI generatif seperti ChatGPT OpenAI atau Google Gemini, kekurangan pengamanan penting, membuat mereka sangat rentan terhadap ancaman keamanan.

Menurut Itamar Golan, CEO dari Prompt Security, “Sekitar 40% dari ini secara default akan melatih pada data apa pun yang Anda berikan, yang berarti hak kekayaan intelektual Anda bisa menjadi bagian dari model mereka,” seperti dilaporkan oleh VentureBeat.

Daya tarik dari AI bayangan sangat jelas. Karyawan, yang berada di bawah tekanan yang semakin meningkat untuk memenuhi tenggat waktu yang ketat dan menangani beban kerja yang kompleks, berbalik ke alat-alat ini untuk meningkatkan produktivitas.

Vineet Arora, CTO di WinWire, mencatat kepada VentureBeats, “Departemen melompat pada solusi AI yang tidak disetujui karena manfaat langsungnya terlalu menggoda untuk diabaikan.” Namun, risiko yang diperkenalkan oleh alat-alat ini sangat mendalam.

Golan membandingkan AI bayangan dengan obat peningkat kinerja dalam olahraga, mengatakan, “Ini seperti doping dalam Tour de France. Orang-orang ingin keuntungan tanpa menyadari konsekuensi jangka panjang,” seperti dilaporkan oleh VentureBeats.

Meskipun memiliki kelebihan, aplikasi AI bayangan membuat organisasi rentan terhadap berbagai kerentanan, termasuk kebocoran data yang tidak sengaja dan serangan injeksi yang cepat yang tidak bisa dideteksi oleh tindakan keamanan tradisional.

Skala masalahnya sangat mengejutkan. Golan mengungkapkan kepada VentureBeats bahwa perusahaannya mencatat 50 aplikasi AI baru setiap hari, dengan lebih dari 12.000 saat ini digunakan. “Anda tidak bisa menghentikan tsunami, tetapi Anda bisa membuat perahu,” saran Golan, menunjuk ke fakta bahwa banyak organisasi dibuat terkejut oleh lingkup penggunaan AI bayangan dalam jaringan mereka.

Sebagai contoh, satu perusahaan keuangan menemukan 65 alat AI yang tidak berwenang selama audit 10 hari, jauh lebih banyak dari kurang dari 10 alat yang diharapkan oleh tim keamanan mereka, seperti yang dilaporkan oleh VentureBeats.

Bahaya AI bayangan sangat akut bagi sektor yang diatur. Setelah data eksklusif dimasukkan ke dalam model AI publik, menjadi sulit untuk dikendalikan, yang berpotensi menimbulkan masalah kepatuhan.

Golan memperingatkan, “Undang-undang AI yang akan datang dari Uni Eropa bisa melampaui denda GDPR,” sementara Arora menekankan ancaman kebocoran data dan hukuman yang bisa dihadapi organisasi jika gagal melindungi informasi sensitif, seperti dilaporkan oleh VentureBeats.

Untuk mengatasi masalah AI bayangan yang semakin meningkat, para ahli menyarankan pendekatan yang berlapis-lapis. Arora menyarankan organisasi untuk membuat struktur tata kelola AI yang terpusat, melakukan audit secara berkala, dan menerapkan kontrol keamanan yang sadar AI yang dapat mendeteksi eksploitasi yang digerakkan oleh AI.

Selain itu, perusahaan harus menyediakan karyawan dengan alat AI yang telah disetujui sebelumnya dan kebijakan penggunaan yang jelas untuk mengurangi godaan untuk menggunakan solusi yang tidak disetujui.

Anda suka artikel ini? Beri Rating!
Saya sangat tidak menyukainya Saya tidak begitu menyukainya Okelah Cukup bagus! Suka sekali!

Kami senang kamu menyukai artikel kami!

Sebagai pembaca yang budiman, maukah Anda memberikan ulasan di Trustpilot? Ini tidak lama dan sangat berarti bagi kami. Terima kasih sekali!

Beri kami peringkat di Trustpilot
5.00 Rating dari 1 pengguna
Judul
Komentar
Terima kasih atas feedback Anda
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Berikan komentar

Loader
Loader Tampilkan selengkapnya...