Die Hölle hinter der Fassade von Facebook

Wie der Tech-Riese hasst (filtert nicht)

Für die Außenwelt muss geheim bleiben, wie Facebook funktioniert. Unterdessen werden unerfahrene Kräfte mit schrecklichen Texten und Bildern überflutet.
Tom Kreling, Huib Modderkolk und Maartje Duin 21. April 2018, 2:00
Inside facebook - Volkskrant Samstag Foto Daniel Hertzberg

Teamchef Sebastian wird Anfang Februar senden - einen Monat bevor Facebook weltweit unter Beschuss gerät, weil die Daten von 87 Millionen Facebook-Nutzern gestohlen wurden - eine Mail an 1.100 Mitarbeiter des Horizon-Teams in Berlin. Ein Besuch der BBC und der New York Times ist angekündigt. "Der Zweck dieses Besuches", schreibt Sebastian, "ist das gleiche wie beim letzten Mal: ​​mehr soziales Verständnis für unsere Arbeit hier zu schaffen."

Die Ankunft der Medien wurde sorgfältig vorbereitet. Spezielle Leute wurden ausgewählt, um die Geschichte von Facebook zu teilen. Das Unternehmen kämpft seit einiger Zeit mit einer Reihe von Krankheiten, wie der Verbreitung von Desinformation, politischem Einfluss und dem Missbrauch der Plattform durch terroristische Gruppen. Benutzer sind auch Opfer von Hasskampagnen.

Facebook möchte, dass das Bild kippt. In den Augen der Öffentlichkeit reagierte das Unternehmen immer zögerlich auf die Kritik. Die Verteidigung war lang, dass es nur eine "Plattform" anbietet und dass es den Benutzern überlassen ist, sich anständig damit zu befassen. Im Vorfeld der US-Wahlen im Jahr 2017 will Facebook nichts von Manipulationen des Mediums hören, während das Unternehmen später zugibt, dass aus Russland achtzigtausend Nachrichten auf Facebook gepostet wurden, um die Wahlen zu beeinflussen. In der Zwischenzeit zwingt Deutschland Unternehmen wie Facebook durch ein spezielles "Internetgesetz" dazu, hasserfüllte Botschaften innerhalb von 48 Stunden zu entfernen.

Bei der BBC und der New York Times will Facebook zeigen, dass es ernst ist. In den letzten Jahren hat das Unternehmen eine Armee von Tausenden von billigen Arbeitern in verschiedenen Teilen der Welt - Manila, Dublin, Berlin - aufgebaut, um die Plattform sauber zu halten. Außerhalb der Gebäude, in denen sie arbeiten, ist nichts zu sehen. Nicht einmal im renovierten Fabrikkomplex von Siemens in Spandau, an der Westseite Berlins. Es gibt vier riesige Gebäude - darunter einen beeindruckenden monumentalen Glockenturm, der den Zweiten Weltkrieg überlebt hat - wo Anfang 2017 650 Menschen für Facebook arbeiten und jetzt, fast ein Jahr später, 1.100.

In Scharen stapfen sie von der U-Bahnstation Siemensdam zu dem Komplex, in dem sich eBay und AirBnB befinden. Was sie genau machen, ist geheim. "Der Zweck des Besuchs ist ausdrücklich, nicht über Details oder vertrauliche Daten zu sprechen", wird in der Mail auch über den Besuch der Medien berichtet.
in Facebook Foto Daniel Hertzberg

Denn die Offenheit, die Facebook für diese Medien ausstrahlt, ist gerichtet. Die Leute, die hier arbeiten, dürfen laut Dutch Erik niemandem sagen, was ihre Aufgaben sind. Das werden sie zu Beginn einer zweiwöchigen Trainingseinheit hören. Freunde dürfen es nicht wissen, auch nicht Familie. Es ist nicht erlaubt, persönliche Gegenstände mitzunehmen. Telefone müssen in einem Safe sein. Stift und Papier sind verboten. Dyson Händetrockner hängen an den Toiletten, weil Papierhandtücher auch beschrieben werden können, sagt er. Mitarbeiter prüfen, ob sich unter den Schreibtischen Taschen befinden.

Facebook möchte nicht wissen, wie das Unternehmen bestimmt, was erlaubt ist und was nicht, und wie es Nachrichten filtert, zensiert, blockiert und entfernt. Zwei Moderatoren haben in den vergangenen Monaten mit de Volkskrant unter der Bedingung der Anonymität darüber gesprochen. In mehreren Gesprächen von ein paar Stunden erzählte Erik seine Geschichte. Ein anderer Moderator hat diese Geschichte auf Fakten getestet. Sie sprechen über Facebook, weil sie sich Sorgen machen. Über die Firma und über sich selbst.

"Ich möchte Sie daran erinnern", betont Teamchef Sebastian in seiner Mail, "sich so zu verhalten, wie es in den Anstellungsbedingungen vereinbart wurde und niemals mit Journalisten oder anderen Interessierten zu sprechen. Dies ist besonders zu Ihrer eigenen Sicherheit! "

***

Der Niederländer Erik landet zufällig bei Facebook, eigentlich wie alle seine Kollegen. Er antwortet auf eine einfache Werbung für "Kundenbetreuer - niederländischer Sprecher" auf der Website von invay.com. Berlin hat eine große Gruppe internationaler Kreativer. Die niedrigen Mieten und das angenehme Lebensumfeld zieht sie in die deutsche Hauptstadt. Berlin ist auch attraktiv für internationale Unternehmen: Die Löhne sind niedrig und viele junge Menschen mit unterschiedlichem Hintergrund leben dort. Deshalb gibt es in und um die Stadt viele Call-Center von Unternehmen wie Zalando und Playstation.

Erik hatte für einige dieser Call Center gearbeitet, aber das wollte er nicht mehr. Er darf sich mit GI Gruppe treffen, einer großen deutschen Zeitarbeitsfirma. Die Unterhaltung dauert weniger als zehn Minuten. Der Name wird hier überhaupt nicht erwähnt

vom Kunden. Wir beziehen uns nur auf "das Projekt". Der Recruiter von GI Gruppe ist nicht sehr wählerisch: Es gibt keine funktionalen Anforderungen. Die wichtigste Frage, die Erik stellt, ist, ob er dem Elend widerstehen kann. Terrorismus, Folter, so etwas. Erik denkt, dass es losgehen wird; Er arbeitet seit Jahren mit Flüchtlingen und ist daher daran gewöhnt. Und damit ist die Konversation abgeschlossen. Am nächsten Tag betritt er das Büro von Arvato Bertelsmann, einer großen deutschen Medienfirma. Dort hat er wieder eine kurze Unterhaltung. Erik hört, dass er sich um einen Job als Content-Moderator bewirbt: Er wird Videos, Fotos und Texte studieren. Alles im Rahmen des "Projekts" für "den Kunden". Der Name "Facebook" fällt immer noch nicht. Erik stimmt zu, drei Tage später muss er sich in einem Gebäude auf der Ostseite von Berlin melden. Er geht durch die Sicherheitstore und wartet zusammen mit anderen an der Rezeption. Es gibt Brasilianer, Portugiesen, Schweden, Griechen, Syrer. Die Gruppe hat 22 Personen. Zuerst unterschreiben sie eine Vertraulichkeitserklärung. Es ist das erste Mal, dass Erik hört, dass er für Facebook arbeiten wird. Dann gehen sie in einen Keller mit Fensterläden und sie sehen Präsentationen von einem jungen Argentinier. Die Schüler erhalten als Test eine Anzahl von Nachrichten auf ihrem Bildschirm. Einer der Beiträge, die Erik überprüfen muss, ist ein Foto eines sterbenden kleinen afrikanischen Jungen, in dem eine Schachtel Pizza Hut fotografiert wurde. Schrecklich, er findet es. Sadistisch. Zumindest scheint es ihm etwas, das als empfindlich und grausam zu markieren ist. Fehler, hört er. Lass es gehen. Laut Erik arbeitet Facebook mit geschützten Kategorien (PC) und quasi-geschützten Kategorien (QPC). Ein PC ist eine gefährdete Gruppe - wie Transgender, ernsthaft chronisch Kranke, Juden, ghanaische Frauen, Frauen im Allgemeinen. Eine Nachricht darf nur gelöscht werden, wenn die gesamte Gruppe adressiert ist. Also "alle Schwarzen sind faul". Wenn auf einem Foto "faules Schwarz" ist, dann gibt es nichts, worüber man sich Sorgen machen müsste. Gutmütig, laut Facebook. Zu den QK gehören Migranten, Flüchtlinge und Asylsuchende, wird den Schülern gesagt. Sie sind kaum geschützt. Alles kann gesagt werden. "Mörder, Diebe, Beschaffer." Die Grenze liegt in Gewaltaufrufen: "Schiesse das Boot mit Asylsuchenden." Der Ausbilder erklärt die Methode. Die Moderatoren - die Funktion, die Erik und seine Kommilitonen erhalten - erhalten Benachrichtigungen. Diese wurden entweder von Nutzern gemeldet oder von den Computern von Facebook bemerkt - über so genannte künstliche Intelligenz. Ungefähr jeder zehnte Bericht wurde von Computern bemerkt. Diese Zahl wird steigen. Die Moderatoren müssen innerhalb von 12 Sekunden eine Entscheidung treffen. Zusätzlich haben sie fünf Möglichkeiten: 1. Ignorieren 2. Löschen 3. Mit einem Vielfachen überprüfen 4. Eskalieren 5. Als sensibel / grausam markieren. Wenn Erik eine Nachricht entfernt, muss er sie in eine Kategorie aufnehmen. Je höher die Kategorie, desto schwerer die mögliche Strafe für den Täter. Der Satz bestimmt höhere Mitarbeiter. Das Ranking zeigt, was Facebook für die Plattform selbst am schädlichsten findet: "Spam", sogar über Kinderpornografie, Terrorismus oder Hass. Verstöße können zu einer vorübergehenden Sperre oder dauerhaften Sperre führen. Pass auf dich auf, ist über einer Präsentation, in der die grausigsten Filme und Fotos vorbeiziehen. Jugendliche, die kochendes heißes Wasser über andere werfen, echte Hinrichtungen, die in Kinderfilmen versteckt sind, leben Selbstmörder. Wenn das Training nach zwei Wochen abgeschlossen ist, sind drei der 22 Studenten ausgefallen. Erik wird als Moderator arbeiten. Neugier treibt ihn an. Er meldet sich morgens um 8 Uhr vor Schichtbeginn bis 16.30 Uhr. Andere arbeiten von 13.30 bis 22.00 Uhr. In der Redaktionshalle ist es still, bis auf den weichen, unregelmäßigen Mausklick. Auf den leeren weißen Schreibtischen steht ein schwarzer PC von Dell. Die Niederländer - in diesem Moment sind es vier, später sechs oder sieben - sitzen neben den Griechen und Portugiesen, rechts die Italiener und Slowaken. Sie moderieren alle niederländischsprachigen Gebiete: Flandern, Suriname und Südafrika. Fast jeder hat Kopfhörer an. Moderatoren stehen oder sitzen. Das Durchschnittsalter liegt bei 27. Sie verdienen praktisch den Mindestlohn: 8,90 Euro pro Stunde oder 1500 Euro pro Monat. Gross. Erik erfährt von einem Fachexperten, was er zu tun hat: Tickets zu beurteilen. Die vier Niederländer bekommen pro Tag etwa 8.000 Tickets: Berichte über Hass, Gewalt, Kinderpornografie, Selbstverletzung. Ziel ist es, mindestens 1.800 pro Person zu bewerten. Pause zählt nicht als Arbeitszeit; Moderatoren sollten sich dann abmelden. Die Niederländer sind weit zurück, hört Erik. Es gibt immer noch 22.000 Tickets in der Schlange, einschließlich Notrufe von Menschen, die mit Selbstmord drohen. Der Hass, das trifft ihn sofort. "Ich war schockiert." Der intensive Hass dagegen

Asylsuchende, Marokkaner Holländer, Schwarze. Erik: "Und alles in den Niederlanden ist Krebs. Krebs-Junge, Krebs-Star, Krebs-Hure. "In Flandern bekommen die" Makakken "die Schuld, in den Niederlanden die" Marokkaner ". Jedes Gebiet hat sein eigenes "Ärgernis": gewalttätige Fotos und Videos von Banden in Lateinamerika, Pornographie und Gewalt gegen Frauen im Nahen Osten. Die portugiesischen und griechischen Moderatoren sind relativ ruhig. Sie benutzen weniger Facebook und schimpfen auch weniger. Ihre Moderatoren können manchmal Netflix einschalten. Die Niederländer sind es nicht: Die Niederlande sind das Land des Hasses, sagt Erik. Und das Land, wo sie Krankheiten benutzen, um zu schimpfen. Die anderen Europäer sind ebenfalls schockiert über die Anzahl der "Tickets", die die Niederlande haben. "Krebs" ist so ein weit verbreiteter Begriff, dass Facebook es nicht als Betrug ansieht. Nicht machbar, das zu entfernen. Wegen der vielen hervorragenden Tickets helfen die Griechen dem niederländischen Team, das Video eine Weile zu bewerten, bestätigen die beiden Moderatoren. Höhepunkte für die Niederlande sind die Ankunft von Sinterklaas, Wahlen und Treffen der PVV. In Berlin wissen sie jetzt: Die Anzahl der Bedrohungen wird deutlich zunehmen. "Geert Wilders hat am Samstag, dem 20. Januar 2018, eine Demonstration in Rotterdam gefordert", heißt es in einer E-Mail, die die niederländischen Moderatoren im Januar erhalten werden. "Wir wissen, dass solche Situationen extremen Hass und Gegenreaktionen hervorrufen." Und: "Konzentriere dich nicht nur auf den Samstag. Die meisten Nachrichten zu diesem Thema kommen am Sonntag und Montag. "Facebook ist Amerikaner. Und amerikanische Standards sind führend. Was Terrorismus ist, wird durch die Terrorismusliste des US-Außenministeriums bestimmt. Aber Facebook ist nicht eindeutig. Der Anschlag in Las Vegas im Oktober 2017 wird zunächst als Massenmord bezeichnet. Ein Weißer ist der Täter. Nach heftiger Kritik passt Facebook die Politik eine Woche später an. Erik: "Es war immer noch Terrorismus." Ein internes Richtlinien-Update folgt alle paar Wochen. Die Facebook-Richtlinie ist heilig, es sei denn, die Länder wenden sich gegen bestimmte Teile. In der Türkei verschwinden beispielsweise politische Botschaften von der Plattform. Kritik an Erdogan ist verboten und Facebook geht mit ihm, obwohl seine eigene Politik vorschreibt, dass die Kritik an öffentlichen Personen großzügig sein kann. Zum Beispiel ist es möglich, dass ein Cartoon des niederländischen Karikaturisten Ruben L. Oppenheimer über Erdogan von Facebook entfernt wird: entweder weil der Bericht von türkischen Moderatoren beurteilt wird oder weil jemand die Regeln falsch interpretiert. Menschenrechtsorganisationen haben Facebook beschuldigt, für eine Zeitlang den Interessen von Regierungen zu dienen oder Zensur anzuwenden. In Myanmar verbannte die Firma alle Verweise auf eine Rebellengruppe von Rohingya. Laut der Firma, weil es eine "gefährliche Organisation" ist, aber Facebook hat nichts gegen die offizielle Seite der Armee, von der UN beschuldigt "ethnischen Säuberungen" der Rohingya. Oder nimm die weibliche Brustwarze. Erik: "Als Europäer halten wir das für normal. Aber wir müssen eine komplette Brustwarze entfernen. Amerikanische Prüderie. "Eine Ausnahme gilt für Aktivisten, genau wie bei Brustamputationen. Dass dies auch wieder zu Diskussionen führt, zeigt sich daran, dass das berühmte PSP-Wahlplakat aus den 1970er Jahren - mit nackter Frau und Kuh - regelmäßig entfernt wird. *** Nachdem Erik in seiner dritten Woche ein paar tausend Tickets erzielt hat, fügt er automatisch Videos ohne Vorwarnung hinzu. Sofort sieht er einen Film, der lange bei ihm bleibt. Ein Mann in einem orangefarbenen Overall umarmt eine Asphaltstraße. Seine Beine sind mit Handschellen gefesselt, so dass er sich mit kleinen Sprüngen bewegen kann. Da kommt ein Panzer über den Mann gefahren. Dann zoomt die Kamera auf den flachen, blutigen Überrest des Mannes. Erik steht auf und geht nach draußen. Jetzt versteht er, warum Leute das Gebäude schreiend und weinend verlassen. Draußen raucht er eine Zigarette. Er ist eine Stunde draußen. Dann beendet er seine Schicht. Niemand fragt ihn etwas. In den nächsten Wochen wird er alles einmal sehen. Folter, Hinrichtungen, Steinigung. Aber auch Herausforderungen, Herausforderungen. Jugendliche, die ihre Arme "kauen", bis die Muskeln sichtbar sind. Anorexiepatienten, die telefonieren: Jeder gleich isst eine Stunde lang nicht. "Und dann kommen die Likes herein. Von 2 bis 5, bis 14. "Sponge Bobs Videos, die sich nach ein paar Sekunden in eine Enthauptung verwandeln. Sie sind Bilder, die sich in seinem Kopf herumtreiben. "Wir sind überhaupt nicht darauf trainiert, diese Art von Elend zu sehen. Tag für Tag. "Die Berliner Niederlassung hat einen Psychologen, einen Sozialarbeiter und einen sogenannten Wohlfühlmanager. Dieser schickt E-Mails über Yoga-Kurse und weist die Mitarbeiter darauf hin, dass es jeden Tag frisches Obst gibt. So berichtet er einmal dem Firmenpsychologen. Es beginnt auch mit den positiven Auswirkungen von Yoga. Und sie erklärt, dass er sehr wichtige Arbeit leistet. Schwer, aber




wichtig. Sie rät ihm auch, die U-Bahn nach der Arbeit nicht sofort zu erreichen, sondern einen Halt zu machen und zu gehen. Erik sagt, er hat wenig zu tun. Ein schwedischer Kollege bringt ihm eine Idee. Der eine Tag steht für den Supermarkt Edeka aus einem Karton Weinpaket zu trinken. Selbstmedikation scheint etwas zu sein, was Erik denkt. Zuerst nach der Arbeitszeit. Dann einen Drink bevor er die U-Bahn nimmt. Und dann auch während der Arbeitszeit. Bald nimmt er einen Liter Wein in eine blaue Facebook-Flasche. Wie andere Kollegen besucht er einen so genannten polnischen Markt in der Nähe von Frankfurt an der Oder. Ein Rückfahrschein mit dem Bus kostet fünf Euro. Dort kaufen sie billige Zigaretten, aber auch Valium, Diazepam und andere Medikamente, mit denen sie ihre Stimmung während der Arbeitszeit abflachen. Sie brauchen dort kein Rezept. *** Facebook bleibt lange von Kritik an der Plattform fern. Das Mantra des Unternehmens: Es will Menschen verbinden. Es ist eine soziale Bewegung. Der Trainer erzählt Erik, dass Facebook bis 2014 der wichtigste Kanal für Syrien-Besucher ist. Nur wenn sich die US-Regierung darüber bei der Firma beschwert, wirkt Facebook aktiv gegen die Verbreitung terroristischer Propaganda. Aber 2017 ist ein Tilt-Jahr. Zuallererst gibt es die Anerkennung von CEO Mark Zuckerberg, dass das Medium für Propaganda missbraucht wurde. Darüber hinaus vereinigen sich ehemalige Geschäftsführer des Unternehmens in einer Stiftung, die vor den sozialen Gefahren von Technologieunternehmen wie Facebook warnt. Sie zeigen, dass alles in diesen Unternehmen darauf abzielt, Menschen süchtig nach ihrem Produkt zu machen. Sie sind Werbefirmen: Je größer das Publikum, desto mehr verdienen sie. Die Leute müssen so oft wie möglich zurückkommen. Zu diesem Zweck besuchen Facebook-Manager Konferenzen über Verhaltensänderungen. Wenn Benutzer die App öffnen, müssen sie überrascht sein. Der Algorithmus kümmert sich darum. Beiträge, die aus welchen Gründen auch immer herausstechen, erhalten mehr Aufmerksamkeit. Weil sie mehr Emotionen und Reaktionen bieten. Ein nuancierter Beitrag ist weniger hoch als ein ausgesprochener Meinungsartikel. Unternehmen wie Facebook und Instagram gedeihen auf Drängen, solange es nicht um sich selbst geht. Das zeigt die Behandlung von Sylvana Simons. Die TV-Persönlichkeit und Politik ist ein beliebtes Ziel für Hass und Rassismus. Simons ist eine öffentliche Person in Facebook, sagt Erik, und die Politik ist, dass praktisch alles darüber gesagt werden kann. Erik sieht eine nach der anderen Nachricht über Simons vorbeigehen. "Geh zurück in dein Affenland", "Ich werfe deine schwarze Fotze in den Kanal" oder "Stirb, Hure". Alles erlaubt. Sylvana Simons offenbart sich im August letzten Jahres eine private Nachricht, die sie von Egbert via Facebook erhält. "STERF !! Verzögerter Krebs schwarz! Bitte Donner und verlasse unser Land in Ruhe! Schwachsinnender Sandesser! Wir weißen Leute hätten deine schwarzen Leute in der Sklaverei behalten sollen! Dann warst du immer noch gut und du hast zugehört! "Es ist von Facebook erlaubt. Erik kann sich nicht daran gewöhnen. Alles was er für menschlich hält, muss als Content Moderator akzeptiert werden. Hass, Rassismus, Schelte. Aber er hat genug von der x-ten Nachricht über Sylvana Simons. Bam. Er entfernt die Botschaft und markiert sie als "Hass". Loswerden. Aber dann bekommt er Fragen von seinem Vorgesetzten. Warum ist das passiert? Es gibt Erik eine "falsche Einschätzung", die er sofort in seinem Punkteanteil sieht. 85 Prozent seiner Bewertungen entsprechen der Facebook-Richtlinie. Das sollten mindestens 98 Prozent sein. Facebook hat kein Interesse daran, viele Inhalte zu verleugnen - es sei denn, die öffentliche Diskussion verschiebt sich vom Inhalt dieser Nachrichten zu Facebook. Das ist auch bei Simons der Fall. Zunächst muss Erik fast alles loslassen, was sie betrifft. Aber plötzlich ist das vorbei, sagt er. Das ist im Oktober 2017, kurz bevor eine europäische NGO Facebook besucht, um zu testen, wie das Unternehmen mit Hassreden umgeht. Kurz vor dem Besuch ändert sich der Status von Simons. Sie wird eine "geschützte Person". Die Begründung: Sie ist nicht nur ein Politiker, sondern auch ein Aktivist. "Ja", antwortet Simons, als er gefragt wird: "Ich habe bemerkt, dass es in letzter Zeit ruhiger geworden ist. Ich denke ab Januar. Das Gespräch mit Zwarte Piet war noch nicht abgeschlossen. "Sie berichtete regelmäßig von falschen Profilen und rassistischen Botschaften. "Darauf gab es kaum eine Antwort. Oder ich habe die Antwort: Das ist immer noch in der Politik. "Das hat sich geändert. Simons: "Sie nehmen jetzt meine Berichte über Hass und Rassismus ernst." Nach vier Monaten sieht Erik ein Video, das er nicht vergessen kann. Das Video dauert 30 Sekunden. Ein Mädchen von etwa 11 Jahren wird anal vergewaltigt. "Schrecklich. Ich fürchte, ich kann es nie vergessen. Dass ich immer wieder das ängstliche Gesicht dieses Mädchens sehen werde. "Er ist zunehmend betäubt von Wein und Medizin. Seine Kollegen machen das Gleiche. Ein dänisches Mädchen hört nach einigen Monaten auf und wird mit einer posttraumatischen Belastungsstörung aufgenommen. Haare

Praktizierende verbieten, ihr Facebook länger zu benutzen. Das niederländische Team, das mittlerweile auf acht Personen angewachsen ist, wird seine Zusammensetzung in einem halben Jahr ändern. Niemand mag es für mehr als ein paar Monate. Erik sieht immer neue Gesichter. Er versteht, dass Facebook etwas tun muss. Dass jemand das Chaos aufräumen muss. "Was aber ruft, ist der Mangel an professioneller Hilfe. Polizeibeamte, die Kinderpornografie sehen, sind geschult und dürfen dies höchstens für ein paar Stunden pro Tag tun. Wir sehen den ganzen Tag das Elend. Unvorbereitet. "Erik ist es auch egal. Er bemerkt, dass er ängstlicher ist, anderen gegenüber misstrauisch. Er ist anfälliger für Gewalt und Hass, sieht es den ganzen Tag. Er bekommt Therapie, aber jedes Mal, wenn er das Facebook-Gebäude betritt, kehrt die Angst zurück. Am Ende tritt er nach acht Monaten zurück. Er hat immer noch wöchentliche Therapie. *** Kurz nach Sektionsleiter hat Sebastian seine Warnmail an die Mitarbeiter geschickt, mehrere Journalisten, darunter die New York Times, bekommen stundenlang Präsentationen über die Moderationspolitik von Facebook. Manager erzählen, wie sich der Tech-Riese bereits schnell an die neue deutsche Gesetzgebung angepasst hat. Es führt nicht zu Publikationen: Wenige Wochen nach dem Besuch ist bekannt, dass die britische Datengesellschaft Cambridge Analytica die Profile von 87 Millionen Facebook-Nutzern gestohlen hat. Facebook wusste davon, tat aber nichts. Nach anfänglicher, tagelanger Stille entschuldigt sich Zuckerberg. Er verspricht, auch jetzt, Verbesserungen. Die Geschichte von Erik Dieser Artikel basiert größtenteils auf der Geschichte von "Erik", einem Holländer, der im vergangenen Jahr mehr als 8 Monate Content-Moderator bei Facebook war. Er möchte anonym bleiben, weil er eine Vertraulichkeitsvereinbarung unterzeichnet hat. De Volkskrant hat seine Geschichte mit einem anderen Moderator getestet. Er hat 36 Fakten überprüft und 31 bestätigt. Die 5 nicht bestätigten Ansprüche wurden entfernt. Darüber hinaus hat die Zeitung interne Präsentationen und Policy Notes gesehen, und Eriks Geschichte wird teilweise von Facebook-Richtlinien unterstützt, die zuvor von The Guardian veröffentlicht wurden. Mehr über den Ruf der niederländischen Facebook-Nutzer Die Niederlande zeichnen sich durch Hass-Botschaften auf Facebook aus Die niederländischen Nutzer von Facebook haben einen zweifelhaften Ruf. Ihr Strom von Botschaften mit Hass, Rassismus und begehrenden Krankheiten wie Krebs ist auffallend groß. In südeuropäischen Ländern beispielsweise ist diese Zahl viel niedriger. Dies geht aus der Geschichte eines niederländischen Moderators hervor, der letztes Jahr bei Facebook gearbeitet hat und dessen Geschichte durch durchgesickerte E-Mails, interne Dokumente und einen Kollegen unterstützt wird.



Created: an hour ago
Visits: 3
Online: 1