Die psychologischen Folgen von Facebooks Content-Moderation

Nachdem The Verge bereits Anfang des Jahres über die katastrophalen Folgen der Content Moderation für Facebooks Mitarbeiter berichtete, hat nun der Guardian mit Moderatoren aus dem Berliner Team gesprochen. Die tägliche Konfrontation mit hunderten Gewaltdarstellungen, sexuellem Missbrauch und hasserfüllter Sprache macht die Mitarbeiter auch hier paranoid und hat Auswirkung auf ihre politische Haltung.

Ich frage mich derzeit immer häufiger, ob das Internet als solches verloren ist und ab welchem Punkt man das „größte soziale Experiment der Menschheit“ als gescheitert aufgrund einer Gefährdung der Öffentlichkeit abbrechen muss. Mich interessiert, wieviel der Bösartigkeit durch das Medium selbst ausgelöst wird. „People are bastards“, schon klar. Aber welche Rolle spielt der Wettbewerb um Aufmerksamkeit dabei? Wie sehr steigert Sichtbarkeit die ausgestellte Bösartigkeit? Und welche Arten der menschlichen Bösartigkeit genau?

FB muss massiv mehr Moderatoren einstellen, es handelt sich dabei um den derzeit wichtigsten Job der Welt und diese Arbeit wird völlig falsch bewertet, da das Prinzip der Arbeitsteilung nicht korrekt eingeschätzt wird. Es handelt sich nicht um „Content“-Moderatoren, sondern um „Violent Shit“-Moderatoren. Es sind Sicherheitskräfte, die nur im gemeldeten „Notfall“ eingreifen. Die überprüfen nicht „Inhalte“, sondern lediglich „gemeldete Inhalte“, der Anteil der Gewalt ist also ungleich höher. Ergo die psychologischen Folgen. Deshalb sind Content-Moderatoren viel eher das Äquivalent zu Gefängnis-Wärtern oder Wärtern in Psychiatrien. Diese Arbeit braucht entsprechende arbeitsrechtliche Regulation, entsprechende Ausbildungs-Vorraussetzungen sowie eine angemessene Bezahlung und die Arbeiter müssen durch massive Mehreinstellungen psychologisch entlastet werden. Pronto.

Guardian: Revealed: catastrophic effects of working as a Facebook moderator

A group of current and former contractors who worked for years at the social network’s Berlin-based moderation centres has reported witnessing colleagues become “addicted” to graphic content and hoarding ever more extreme examples for a personal collection. They also said others were pushed towards the far right by the amount of hate speech and fake news they read every day.

They describe being ground down by the volume of the work, numbed by the graphic violence, nudity and bullying they have to view for eight hours a day, working nights and weekends, for “practically minimum pay”. […]

The Verge report appeared to trigger reforms. Moderators in Berlin said after the article was published there had been immediate interest from Facebook’s head office in their workload. Previously, they had been required to moderate 1,000 pieces of content a day – more than one every 30 seconds over an eight-hour shift.

In February, an official from Facebook’s Dublin office visited, John said. “This person after this meeting decided to take off the limit of 1,000. We didn’t have any limit for a while, but now they have re-established another limit. The limit now is between 400 and 500 tickets.” The new cap – or number of tickets – was half that of the previous one but still required workers achieve about a ticket a minute. However, that volume of work was what their American colleagues had faced before the reforms. […]

While the moderators agreed such work was necessary they said the problems were fixable. “I think it’s important to open a debate about this job,” he said, adding that the solution was simple – “hire more people”.

——————————————

Folgt Nerdcore.de auf Twitter (https://twitter.com/NerdcoreDe und https://twitter.com/renewalta) und Facebook (https://www.facebook.com/Crackajackz), wenn ihr meine Arbeit mögt, könnt ihr mich hier finanziell unterstützen (https://nerdcore.de/jetzt-nerdcore-unterstuetzen/).

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.