Opini: Apakah Sistem Regulasi Keamanan Meta Rusak?
Hampir semua pembuat konten atau manajer media sosial yang aktif menghadapi masalah yang sama saat memposting di Facebook atau Instagram baru-baru ini: sebuah postingan atau akun dilarang, mungkin untuk alasan yang salah.
Situasi menjengkelkan ini hanya sebagian kecil dari masalah kompleks dengan sistem regulasi konten Meta. Meskipun Meta tampaknya memiliki banyak tindakan pengendalian—kadang-kadang absurd—namun akar masalah tampaknya belum terselesaikan.
Selama beberapa bulan terakhir, Meta telah memperkenalkan berbagai pembaruan pada pedoman kontennya dan menerapkan aturan yang lebih ketat dalam rangka membangun lingkungan online yang lebih sehat. Salah satu konsekuensinya adalah banyak bisnis, penerbit, dan akun pengguna yang telah dilarang, yang memicu ratusan keluhan di forum, platform obrolan, dan saluran media sosial. Banyak penerbit berita dan merek dihapus dari platform Meta di beberapa wilayah tahun ini, yang menimbulkan kekhawatiran di antara pemilik bisnis, wartawan, dan pembuat konten.
Meskipun pembaruan terbaru Meta, yang memberikan kesan moderasi yang lebih ketat dan pengawasan yang lebih dekat terhadap konten yang dibagikan di platformnya, pos yang terkait dengan narkoba, bunuh diri, pelecehan seksual, perundungan, ujaran kebencian, penyalahgunaan, dan berita palsu terus lolos dari algoritma, mencapai komunitas yang rentan.
Saya tidak bisa tidak bertanya-tanya: Apa yang terjadi pada sistem regulasi keamanan Meta?
Akun Diblokir Untuk Alasan yang Salah
Semuanya dimulai dengan pesan yang serupa: “Akun Meta Anda tidak mengikuti aturan kami.” Banyak pengguna Facebook dan Instagram telah diblokir atau sementara dikeluarkan dari akun mereka “karena tidak mematuhi” aturan Meta, bahkan ketika mereka percaya bahwa mereka telah melakukannya.
Ini adalah situasi yang kami alami di Wizcase. Sistem Meta menandai item yang relevan sebagai tidak pantas dan membuat manajer komunitas harus melalui proses banding dan memberikan identitas yang dikeluarkan oleh pemerintah.
Ratusan pengguna, manajer komunitas, dan manajer akun telah mengeluh di platform seperti Reddit dan forum, chat, serta saluran media sosial lainnya tentang situasi serupa. Dalam beberapa skenario yang malang, pengguna kehilangan akun mereka dan mereka tidak dapat melakukan apa-apa tentang hal itu, dan mereka bahkan tidak mendapatkan penjelasan.
“Tim dukungan di Facebook sangat buruk. Tidak peduli berapa kali kami memberi tahu mereka segala sesuatu atau menjelaskan segala sesuatu kepada mereka, mereka hanya tidak mengerti,” kata seorang pengguna di Reddit dalam sebuah ancaman tentang akun yang dibaned. “Satu hal yang dapat saya katakan segera adalah Anda tidak akan mendapatkan akun Anda kembali kecuali Anda menghabiskan ratusan ribu per hari,” tambah yang lain.
Masalah ini, meskipun tampaknya hanya mempengaruhi pembuat konten, hanyalah sebagian kecil dari tantangan yang lebih besar.
Meta Melawan Tuntutan Hukum
Selama bertahun-tahun, Meta telah berinvestasi dalam moderasi konten, dan strategi baru untuk bekerja pada platform yang lebih aman bagi pengguna dan melindungi diri mereka dari lebih banyak tuntutan hukum—yang paling baru adalah dari moderator konten Kenya, yang saat ini membutuhkan $1,6 miliar sebagai kompensasi untuk pemecatan massal dan untuk kompensasi materi yang menimbulkan stres yang mereka hadapi saat menganalisis konten untuk Facebook.
Perusahaan teknologi ini bergantung pada pihak ketiga untuk membantu dalam regulasi konten dan mengembangkan alat untuk mengenali saat konten melanggar aturan platform. Namun, langkah-langkah ini belum cukup dan situasi menjadi di luar kendali, terutama di antara pengguna di bawah umur.
Pada 2021 Meta memperkenalkan fitur perlindungan baru, namun hal tersebut tidak menghentikan Senat untuk memasukkan Instagram dan Facebook di antara platform yang dianggap berbahaya bagi anak-anak tahun lalu. Raksasa teknologi tersebut menghadapi gugatan bersama yang diajukan oleh 33 negara bagian di Amerika Serikat karena algoritmanya yang manipulatif dan berbahaya.
Sejak Januari, Meta telah membagikan pembaruan tentang alat kontrol keamanan baru. Pada bulan Juni, perusahaan tersebut memperbaiki alat anti-pelecehannya untuk melindungi remaja di Instagram dengan fitur default “Close Friends” dengan fitur “Limits” sehingga hanya teman dan keluarga yang sebenarnya yang dapat berinteraksi dengan konten yang diposting oleh pengguna muda.
Hanya beberapa hari yang lalu, perusahaan mengumumkan fitur baru Teen Accounts untuk melindungi remaja dan “menenangkan orang tua bahwa remaja memiliki pengalaman yang aman.” Apakah itu cukup untuk melindungi anak-anak? Bagaimana dengan pengguna yang lebih tua?
Ekosistem yang Tidak Aman
Facebook, Instagram, dan WhatsApp masih dihantui oleh konten berbahaya yang mempengaruhi pengguna, dari segala usia, profesi, dan kelompok sosial, dan sulit akan terselesaikan dalam waktu dekat.
Sebuah studi yang dilakukan oleh Center for Countering Digital Hate (CCDH) menganalisis lebih dari 500 juta komentar di Instagram yang dibuat oleh akun 10 politisi wanita di Amerika Serikat dan mengungkapkan bahwa Meta gagal untuk menghapus atau mengambil tindakan terhadap 93% komentar ini.
Gugatan hukum yang berulang kali diajukan terhadap Meta telah secara jelas membuktikan bahwa perusahaan ini kesulitan melindungi penggunanya dari konten yang merusak, dan juga telah merugikan kreator, penerbit, dan merek dengan filter yang tidak adil dan alat keamanan yang diimplementasikan dengan buruk.
Tentu saja, ini adalah masalah yang kompleks dan mendalam yang harus ditangani secara mendalam, tapi mungkin sudah waktunya untuk menerima bahwa Meta tidak mampu menangani situasi ini. Perbaikan sementara tidak akan menyelesaikan sistem yang pada dasarnya rusak. Sekarang pertanyaan sebenarnya adalah: Berapa banyak pengguna lagi yang perlu dilarang secara tidak adil, disesatkan, atau dimanipulasi sebelum perubahan nyata terjadi?
Berikan komentar
Batal