INDORAYA – Meta memperketat perlindungan bagi pengguna muda dengan melarang remaja di bawah usia 16 tahun menggunakan fitur live streaming di Instagram.
Tak hanya itu, perusahaan yang dipimpin Mark Zuckerberg ini juga mensyaratkan persetujuan dari orang tua untuk menonaktifkan filter otomatis yang memblokir gambar berbau ketelanjangan dalam pesan langsung (direct messages/DM).
Dilansir dari The Guardian, kebijakan ini merupakan bagian dari perluasan fitur keamanan akun remaja yang sebelumnya diterapkan di Instagram, dan kini diperluas ke Facebook serta Messenger.
Meta sebelumnya telah meluncurkan akun remaja di Instagram dengan pengaturan default yang membatasi berbagai akses. Fitur ini memungkinkan orang tua mengontrol penggunaan aplikasi, menetapkan batas waktu, hingga memantau akun yang berinteraksi dengan anak mereka.
Sistem kontrol ini akan segera diberlakukan juga di Facebook dan Messenger, dimulai di beberapa negara seperti Amerika Serikat, Inggris, Australia, dan Kanada.
Sama seperti di Instagram, pengguna di bawah usia 16 tahun memerlukan persetujuan orang tua untuk mengubah pengaturan keamanan. Sementara itu, remaja berusia 16 dan 17 tahun tetap mendapatkan pembatasan awal secara otomatis, namun diizinkan untuk mengaturnya sendiri sesuai kebutuhan.
Menurut data dari Meta, lebih dari 54 juta remaja di bawah usia 18 tahun telah menggunakan jenis akun ini di Instagram, dan lebih dari 90 persen pengguna berusia 13 hingga 15 tahun tetap menggunakan pengaturan default yang disediakan.
Langkah ini mendapat sambutan positif dari NSPCC, organisasi amal perlindungan anak di Inggris. Namun, mereka menekankan bahwa kebijakan ini belum cukup untuk menjamin keamanan penuh anak-anak di dunia maya.
“Agar perubahan ini benar-benar efektif, perubahan ini harus dikombinasikan dengan langkah-langkah proaktif sehingga konten berbahaya tidak berkembang biak di Instagram, Facebook, dan Messenger,” ujar Matthew Sowemimo, Kepala Asosiasi Kebijakan untuk Keselamatan Anak secara Online di NSPCC, Rabu (9/4/2025).
Pengumuman kebijakan baru ini bertepatan dengan diberlakukannya Undang-undang Keamanan Online (Online Safety Act) di Inggris. Mulai Maret, seluruh platform digital seperti Facebook, Google, X, hingga OnlyFans diwajibkan untuk memblokir dan menghapus konten ilegal seperti eksploitasi seksual anak, penipuan, hingga materi yang berkaitan dengan terorisme.
UU ini juga menekankan perlindungan terhadap anak di bawah usia 18 tahun dari konten berbahaya, termasuk materi mengenai bunuh diri dan tindakan melukai diri sendiri.
Menanggapi kebijakan ini, Presiden Urusan Global Meta saat itu, Nick Clegg, menjelaskan bahwa tujuan utama perubahan ini adalah memberi lebih banyak kendali pada orang tua dalam penggunaan fitur keamanan.
Ia juga mengungkapkan bahwa pengumuman ini datang tidak lama setelah ia menyebutkan bahwa sebagian besar orang tua belum sepenuhnya memanfaatkan alat kontrol keamanan yang disediakan.