
Image generated with DALL·E through ChatGPT
Opini: Penipuan Deepfake Mengeksploitasi Cinta dan Kepercayaan Seperti Belum Pernah Sebelumnya
Penipuan yang didorong oleh AI semakin meningkat, dengan para penjahat siber menggunakan teknologi deepfake untuk menciptakan video dan gambar yang meyakinkan untuk memanipulasi korban. Mulai dari seorang wanita Prancis yang percaya dia sedang membantu Brad Pitt hingga korban yang diyakinkan oleh deepfake berkualitas tinggi, garis antara kenyataan dan penipuan semakin kabur. Seiring perkembangan alat AI, risiko pun ikut berkembang.
Banyak dari kita yang melihatnya di berita pada bulan Januari: seorang wanita Prancis kehilangan lebih dari $850.000 kepada penipu karena dia percaya bahwa dia memberikan uang tersebut kepada Brad Pitt—pria yang dia pikir telah menjalin hubungan dengannya selama lebih dari setahun.
Para penipu menggunakan kecerdasan buatan generatif canggih untuk menciptakan “selfie” dan memalsukan bukti, meyakinkan korban mereka, Anne—seorang desainer berusia 53 tahun yang sedang dalam proses perceraian—tentang kisah tragis Pitt palsu dengan kebutuhan medis mendesak. Mereka mengklaim bahwa dana Pitt dibekukan karena perceraian dari Angelina Jolie.
Anne membuat keputusan yang berani—dan berisiko—untuk menceritakan kisahnya secara publik, menghadapi jutaan olok-olok, hinaan, dan serangan virtual. “Seperti orang bodoh, saya membayar… Setiap kali saya meragukannya, dia berhasil menghilangkan keraguan saya,” katanya dalam acara Youtube Prancis, seperti yang dilaporkan oleh BBC. “Saya hanya ditipu, saya mengakuinya, dan itulah sebabnya saya maju, karena saya bukan satu-satunya yang mengalami hal ini.”
Dia bukan. Beberapa bulan kemudian, polisi Spanyol menangkap 5 orang yang menipu dua wanita lainnya dengan berpura-pura menjadi Pitt. Beberapa hari yang lalu, seorang pria Tiongkok juga tertipu dengan percaya bahwa pacar online-nya membutuhkan uang untuk prosedur medis dan membiayai bisnisnya.
Para korban menerima video dan foto personal—gambar yang tidak tersedia di tempat lain secara online—yang semakin meyakinkan mereka akan kebohongan canggih para penipu tersebut.
Sebuah laporan terbaru dari Entrust menunjukkan bahwa upaya Deepfake terjadi setiap 5 menit. Kasus baru penipuan dengan AI generatif muncul setiap hari – sebuah tren yang mengkhawatirkan, terutama mengingat ribuan, atau bahkan jutaan, orang yang tenggelam dalam hutang dan rasa malu yang tidak berani melaporkannya ke pihak berwenang, apalagi mempublikasikannya.
Penipuan DeepFake Semakin Meningkat
Beberapa studi dan laporan telah memperingatkan tentang peningkatan penipuan dan serangan siber yang ditenagai oleh AI. Data terbaru dari Trends dan Insights Fraud TrustPair 2025 menunjukkan peningkatan 118% tahun-ke-tahun dalam penipuan yang digerakkan oleh AI, seperti dilaporkan oleh CFO.
Hai, Hiya, sebuah perusahaan Amerika yang spesialis dalam solusi keamanan suara dan performa, baru-baru ini membagikan hasil survei, mengungkapkan bahwa 31% pelanggan di enam negara menerima panggilan deepfake pada tahun 2024, dan 45% dari mereka tertipu—34% dari kelompok tersebut kehilangan uang dan 32% mendapatkan informasi pribadi mereka dicuri. Rata-rata, korban kehilangan lebih dari $500 setiap orang untuk penipuan telepon.
Beberapa hari yang lalu, The Guardian mengungkapkan bahwa sebuah jaringan terorganisir di Georgia—di Eropa Timur—menggunakan iklan palsu di Facebook dan Google untuk menipu lebih dari 6.000 orang di seluruh Eropa, Kanada, dan Inggris, menghasilkan $35 juta melalui operasi mereka.
Sekitar 85 penipu Georgia yang berpenghasilan tinggi menggunakan figur publik seperti jurnalis Inggris Martin Lewis, penulis dan petualang Ben Fogle, dan Elon Musk untuk penipuan mereka. Para penipu ini mempromosikan skema investasi dan mata uang kripto palsu, membuat korban mentransfer uang melalui bank digital seperti Revolut—yang baru-baru ini mendapatkan lisensi perbankan di Inggris.
AI yang Lebih Maju, Penipuan yang Lebih Canggih
Para kriminal dunia maya telah menggunakan AI generatif selama beberapa tahun terakhir, memanfaatkan alat seperti ChatGPT untuk merancang dan menerjemahkan email yang menarik serta menghasilkan konten berbasis teks yang persuasif. Kini, seiring dengan perkembangan alat AI, penggunaan gambar dan video yang dihasilkan oleh AI telah meningkat.
Beberapa minggu yang lalu, ByteDance memperkenalkan alat video AI terbarunya, OmniHuman-1, yang mampu menghasilkan deepfake paling realistis di pasaran. Sementara itu, semakin banyak perusahaan AI yang mengembangkan teknologi serupa. Sepertinya hanya masalah waktu sebelum alat-alat ini juga digunakan untuk penipuan.
Meskipun teknologi-teknologi ini dapat digunakan “dengan niat baik” dan bahkan untuk melawan peningkatan penipuan—seperti ‘Granny’ Daisy AI O2, yang dirancang untuk melibatkan penipu dalam panggilan waktu nyata dan mengalihkan mereka dari korban yang sebenarnya—konsekuensi dari penggunaan mereka yang jahat tampaknya tak terukur.
Di Wizcase, kami baru-baru ini melaporkan peningkatan 614% dalam “Serangan Scam-Yourself”, mencatat bagaimana peretas menggunakan teknologi deepfake untuk membuat konten palsu tampak “lebih realistis,” dan bagaimana perusahaan media sosial seperti Meta harus turun tangan dalam penipuan pemotongan babi, karena banyak aktor ancaman menggunakan platform ini. Dalam penelitian tersebut, Meta mencatat bahwa banyak penipuan dimulai di aplikasi kencan, membuktikan bagaimana cinta romantis adalah umpan paling umum—sekarang dan sejarahnya.
Cinta: Umpan yang Kuat
Siberkriminal tidak hanya ahli dalam memahami dan menggunakan kecerdasan buatan yang canggih—mereka juga memiliki pemahaman mendalam tentang kecerdasan manusia. Aktor ancaman tahu cara mengidentifikasi kerentanan, membangun kepercayaan, dan membuat permintaan mereka pada saat yang tepat.
Studi Do You Love Me? Psychological Characteristics of Romance Scam Victims, yang dipublikasikan pada tahun 2018 oleh Dr. Monica T. Whitty, menjelaskan bagaimana kelompok kriminal internasional telah melakukan penipuan cinta daring selama bertahun-tahun—bahkan sebelum adanya Internet—, dan bagaimana wanita paruh baya yang berpendidikan tinggi cenderung jatuh ke dalam penipuan jenis ini—sama seperti Anne.
Apa yang bisa kita harapkan sekarang, delapan tahun setelah studi ini, dengan teknologi yang seperti fiksi ilmiah? Kemungkinan besar kita semua lebih rentan daripada yang kita pikirkan.
“Korban dari jenis penipuan ini seringkali adalah orang-orang yang mencari makna, yang secara emosional rentan,” tulis Annie Lecompte, Associate professor di Universitas Quebec di Montreal (UQAM), dalam sebuah artikel baru-baru ini yang diterbitkan di The Conversation. “Meski sering diketawakan dan disalahpahami, penipuan romantis berdasarkan pada mekanisme psikologis yang kompleks yang mengeksploitasi kepercayaan, emosi, dan kerentanan korban.”
Hati yang Hancur, Dompet yang Kosong
Liu—nama belakang pria China yang baru-baru ini kehilangan 200.000 yuan, sekitar $28,000, dalam penipuan yang didukung AI—benar-benar percaya bahwa pacar AI-nya adalah nyata, saat dia melihat foto dan bahkan video yang dipersonalisasi. Membangun ikatan emosional yang semakin kuat… dengan penipunya.
Meski dia tidak memberikan lebih banyak detail konteks dalam laporan tersebut, korban lainnya, seorang wanita berusia 77 tahun bernama Nikki MacLeod, memberikan penjelasan. Dia juga berpikir bahwa dia berada dalam hubungan asli dengan seorang pacar AI dan mengirimkan sekitar £17,000—sekitar $22,000—melalui transfer bank, PayPal, dan kartu hadiah.
“Saya bukan orang yang bodoh tetapi dia berhasil meyakinkan saya bahwa dia adalah orang asli dan kami akan menghabiskan hidup bersama,” kata MacLeod kepada BBC.
MacLeod merasa sepi dan sedih ketika dia bertemu dengan Alla Morgan dalam obrolan grup. Setelah beberapa saat, MacLeod meminta video langsung, tetapi Morgan mengatakan hal tersebut tidak mungkin karena dia bekerja di rig minyak. Ketika MacLeod mulai curiga, Morgan mulai mengirim video yang tampak nyata. “Dia mengirimkan saya video untuk mengatakan ‘Hai Nikki, saya bukan penipu, saya berada di rig minyak saya’, dan saya sepenuhnya yakin dengan itu,” jelas MacLeod. Kontennya tersedia di situs web BBC, dan mudah untuk melihat mengapa MacLeod yakin itu asli—ini adalah deepfake berkualitas tinggi.
BBC meminta seorang ahli dalam bidang keamanan siber dan interaksi manusia-komputer di Universitas Abertay, Dr. Lynsay Shepherd, untuk menganalisis foto dan video yang diterima MacLeod. “Sekilas tampak sah, jika Anda tidak tahu apa yang harus dicari, tetapi jika Anda melihat matanya – gerakan matanya tidak cukup benar,” kata Dr. Shepherd.
“Dokumen-dokumen tampak asli, video-video tampak asli, bank pun tampak asli,” ujar MacLeod. “Dengan adanya kecerdasan buatan, setiap hal bisa menjadi palsu.”
Berikan komentar
Batal