{h1}
vetenskap + teknik

Efter "Facebook-filerna" måste sociala medier jätten vara mer transparent

Anonim

De flesta på Facebook har förmodligen sett något de önskade att de inte hade, oavsett om det var våldsamma bilder eller rasistiska kommentarer.

Hur den sociala medierjätten bestämmer vad som är och inte är acceptabelt är ofta ett mysterium. Riktlinjer för internt innehåll, som nyligen publicerades i The Guardian, ger en ny inblick i mekaniken i Facebook-innehållsmeddelandet.

Bildspelet visar att reglerna kan vara godtyckliga, men det borde inte vara överraskande. Sociala medier plattformar som Facebook och Twitter har funnits i mindre än två årtionden, och det finns liten reglering från regeringen om hur de ska polisera vad folk postar.

Faktum är att företaget står inför en betydande utmaning för att försöka hålla fast vid volymen av upplagd innehåll och ofta motstridiga krav från användare, annonsörer och organisationer i det civila samhället.

Det är säkert cathartic att skylla på Facebook för sina beslut, men den sanna utmaningen är att utarbeta hur vi vill att våra online sociala utrymmen ska styras.

Innan vi kan samtalet behöver vi veta mycket mer om hur plattformar som Facebook gör beslut i praktiken.

Det hemliga arbetet med att polisera internet

Uppenbarligen väger in på tusentals bilder, de nyligen publicerade riktlinjerna ger mer detaljerad information om de vaga gemenskapsnormerna Facebook-aktier med sina användare.

De flesta dokumenten är utbildningsmaterial för Facebook: s armé av innehållsmedlemmar som ansvarar för att bestämma vilket innehåll som ska gå.

Några av skillnaderna ser märkliga ut, och vissa är rent stridiga. Enligt dokumenten kommer direkta hot mot våld mot Donald Trump att avlägsnas ("någon skjuter Trump"), men missogynistiska instruktioner för att skada kvinnor kan inte vara "att få en tik på nacken, se till att tillämpa allt ditt tryck i mitten av hennes hals ").

Reglerna verkar återspegla ärr av juridiska och PR-strider Facebook och andra sociala medier plattformar har kämpat under det senaste decenniet.

Täckregeln mot bilder av nakna barn måste bytas efter att Facebook omtvistat den kända bilden av Kim Phucs flyktande napalm-bombning under Vietnamkriget. Efter år av kontrovers finns det nu ett specifikt förfarande så att människor kan begära att intima bilder skrivs ut utan sitt samtycke.

Eftersom dessa regler utvecklas över tiden är deras komplexitet inte förvånande. Men det pekar på ett större problem: utan goda uppgifter om hur Facebook fattar sådana beslut kan vi inte ha informerade samtal om vilken typ av innehåll vi är bekanta med som samhälle.

Behovet av insyn

Kärnproblemet är att sociala medier-plattformar som Facebook gör de flesta besluten om vad som är ett acceptabelt tal bakom stängda dörrar. Det gör det svårt att få en äkta allmän debatt om vad folk tror bör vara tillåtet att posta online.

Som FN: s kulturorganisation UNESCO har påpekat finns det verkliga hot mot yttrandefriheten när företag som Facebook måste spela den här rollen.

När regeringar fattar beslut om vilket innehåll som tillåts i det offentliga området finns det ofta domstolsprocesser och vägar för överklagande. När en social media-plattform fattar sådana beslut lämnas användarna ofta i mörkret om varför innehållet har tagits bort (eller varför deras klagomål har ignorerats).

Utmanande dessa beslut är ofta extremt svårt. Facebook tillåter användare att överklaga om deras profil eller sida är borttagen, men det är svårt att överklaga moderering av ett visst inlägg.

För att ta itu med frågan om offensivt och våldsamt innehåll på plattformen säger Facebook att det kommer att lägga 3000 personer till sitt samhällsverksamhetslag, utöver dess nuvarande 4.500.

"Att hålla människor på Facebook säkert är det viktigaste vi gör", sa Monika Bickert, chef för global policyhantering på Facebook, i ett uttalande. "Vi arbetar hårt för att göra Facebook så säkra som möjligt, samtidigt som vi tillåter yttrandefrihet. Detta kräver en hel del tanke på detaljerade och ofta svåra frågor, och att få det rätt är något vi tar väldigt seriöst ".

Men utan goda data finns det inget sätt att förstå hur väl Facebook-systemet fungerar överallt - det är omöjligt att testa sina felprocenter eller potentiella biaser.

Det civila samhällets grupper och projekt, inklusive rankning av digitala rättigheter, artikel 19 och Electronic Frontier Foundation's OnlineCensorship.org har förespråkt för ökad öppenhet i dessa system.

Facebook och andra sociala medieföretag måste börja lyssna, och ge allmänheten verklig insikt och ingå i hur beslut fattas.

Rekommenderas

Varför Volvo går "all-electric" är inte lika revolutionerande som det verkar

Varför fred i Ukraina inte kommer att rädda den ryska ekonomin

Hur Florida hjälper till att träna nästa generations cybersecurity-proffs