İçerik denetle(me)me yönergeleri
The Guardian, gazetenin bizzat şahit olduğu 100’den fazla şirket içi eğitim kitapçığı, e-tablo ve akış şemasından oluşan şiddet, nefret söylemi ve kendine zarar verme gibi eylemlere ait tartışmalı sorunları içeren Facebook’un ‘içerik denetleme yönergeleri’ne dair ayrıntıları yayınladı.
Siyah beyaz olarak hazırlanan belgeler, Facebook’un farklı türdeki rahatsız edici içerik miktarını, firmanın tercih ettiği ‘özgür ifade hakkı’ bağlamında aşağı çekme girişimlerini de kapsıyor. Belgeler Facebook’un neden içerik denetleme sorunlarını ele almaya devam ettiğine dair açıklamalarla devam ediyor. Ve aynı zamanda kullanıcıların bildirimini yaptıkları içerikleri gözden geçirip karar vermekle görevli çalışan sayısının azlığına da atıfta bulunuyor.
Şirket içi moderasyon yönergeleri Facebook’un örneğin cinsellik içermeyen çocuk istismarını (mesela şiddet tasvirleri, v.b.) önlemediğini, ve ancak sadistçe ya da teşhire yönelik unsurlar bulunduğunda içeriğin kaldırılacağının belirtildiğini gösteriyor.
Facebook aynı zamanda hayvanlara işkenceyi gösteren görüntüler konusunda da rahat davranıyor. Bu konuda sadece ‘aşırı rahatsız edici’ olduğu düşünülen içerikler rahatsız edici olarak işaretleniyor.
Bunun yanında platform, kullanıcıların kendilerine zarar verdikleri sahneleri yayımlamalarına da izin veriyor. Bu noktadaki savunması da ızdırap halinde olanları sansürlemek ya da cezalandırmak istemiyor olması.
Şiddet içeren içerikler konusunda da Facebook yönergelerinin şiddete dayalı ölümleri içeren görüntülerin paylaşılmasına olanak sağladığı yönünde. Her ne kadar bu görüntüler rahatsız edici olarak işaretleniyorlarsa da, firmaya göre bu tip içerikler sorunlarla ilgili farkındalık oluşturmaya yardımcı olabilir. Genel olarak şiddet içeren yazılı bildirimlerin bazı türleri (örneğin kadınlara karşı şiddet savunuculuğu yapmak) Facebook’un yönergelerine göre sitede kalabiliyor. Çünkü Facebook şiddet bildirimlerinin kaldırılması için bu yönde ‘eylemi gerektiren makul taleplerin’ gerekliliğine inanıyor.
Firmanın politikaları aynı zamanda intikam videolarının nasıl ele alınacağına da atıfta bulunuyor. Bu tip içeriklerin kaldırılmaları için Facebook üç temel koşulun yerine gelmesini şart koşuyor. Aynı zamanda ilgili moderatör bu tip bir paylaşımda kişinin rızası olmadığını haber kaynağı gibi bağımsız bir kaynaktan ya da intikama dönük olduğuna dair somut gelişmelerin gözlenmesine dayanarak doğrulayabilmeli.
Şirket içi bir belgeye göre Facebook sadece bir ay içerisinde 54.000’e yakın potansiyel intikam videosu içerikli gönderi olduğunu tespit etti.