Raksasa media sosial, Facebook, mengundang auditor eksternal untuk meninjau laporan penegakan standar komunitasnya, perusahaan tersebut mengumumkannya hari ini, saat mengumumkan edisi keenam dari laporan tersebut. Facebook mengundang Request for Proposal (RFP) dari auditor eksternal yang akan melakukan “audit independen” atas metrik yang digunakan Facebook untuk laporan ini.
Facebook “berharap” untuk memulai audit tersebur mulai dari tahun 2021 dan akan membiarkan auditor mempublikasikan penilaian laporan mereka juga. Sejauh ini, perusahaan telah bekerja dengan sekelompok “ahli internasional” untuk mencari tahu apakah metrik yang digunakan untuk laporan penegakan standar komunitasnya telah benar.
Lebih lanjut, perusahaan tersebut mengatakan telah menghapus 7 juta informasi yang salah tentang Covid-19 antara April dan Juni. Ini disertai dengan 98 juta informasi yang salah terkait pandemi yang diterapkan Facebook pada label peringatannya. Laporan tersebut mencakup 12 kebijakan ulasan konten di Facebook dan 10 di Instagram.
Facebook mengatakan telah merumahkan moderatornya pada bulan Maret tahun ini, tetapi telah membuat banyak dari mereka kembali online (saat bekerja dari rumah) sejak saat itu. “Kami akan terus menggunakan teknologi untuk memprioritaskan peninjauan konten yang berpotensi menyebabkan kerugian paling besar,” kata perusahaan itu dalam entri blognya.
Perusahaan menambahkan bahwa mereka menindak lebih sedikit konten seputar konten bunuh diri, melukai diri sendiri, dan eksploitatif terhadap anak, karena konten tersebut “sangat” bergantung pada manusia untuk memoderasi konten tersebut. “Terlepas dari penurunan ini, kami memprioritaskan dan mengambil tindakan pada konten yang paling berbahaya dalam kategori ini, “klaim perusahaan. “Fokus kami tetap pada menemukan dan menghapus konten sambil meningkatkan kapasitas peninjau secepat dan seaman mungkin,” tambahnya.
Jumlah banding yang dapat diambil dari pengguna tentang konten yang dihapus juga lebih rendah karena tidak tersedianya moderator manusia, kata perusahaan itu.
Sementara itu, Facebook mengklaim tingkat deteksi algoritme AI-nya meningkat untuk ujaran kebencian, dari 89% pada kuartal terakhir menjadi 95% kali ini. Perusahaan menghapus 9,6 juta pidato kebencian di Q1, yang meningkat menjadi 22,5 juta di kuartal ini. Peningkatan ini, sebagian, disebabkan oleh teknologi otomasi, yang juga digunakan Facebook untuk konten Spanyol, Arab, dan Indonesia pada kuartal ini. Tingkat deteksi ujaran kebencian di Instagram meningkat dari 45% menjadi 84%.
Sumber berita: https://www.livemint.com/technology/tech-news/facebook-invites-independent-audit-of-its-content-review-reports-11597167168998.html