Rezension „Im Schatten der Netzwelt – The Cleaners“.
Die Dokumentation der ARD „Im Schatten der Netzwelt – The Cleaners“ lässt mich aufhorchen als ich die Ankündigung wahrnehmen. Ich bin schockiert als ich die Dokumentation verfolge – in welchem Ausmaß Parallelwelten bereits existieren… unfassbar!
Tausende arbeiten abgeschirmt in Manila und sind doch nur einen Klick weit von unserem Laptop, Smartphones und unseren Meinungsbildern entfernt. Sie zu finden, ist unmöglich. Sie, die Content-Moderatoren, arbeiten im Verborgenen und unterliegen somit der strengen Geheimhaltung.
Drei Millarden Menschen sind mit sozialen Medien verbunden und Content-Moderatoren aus Manila entscheiden, was die Welt zu sehen bekommt. Die Prämisse, unter der sie handeln – sie wollen die Plattformen sicher machen – für alle. Doch der Schein trügt. Im Schatten der Netzwelt agieren sie, The Cleaners!
Ihnen geht es nicht nur darum, Kinderpornographie oder Anstößigkeiten zu löschen
Content-Moderatoren sind nach dessen Aussagen, Wachleute, die sämtliche User schützen wollen. Die Cleaners arbeiten versteckt und niemand darf etwas von ihrer Existenz und ihrem Tun erfahren oder gar mit Sozialen Netzwerken in Verbindung bringen.
Täglich bekommen Content-Moderatoren Bilder und Videos zu sehen – sie entscheiden darüber, ob sie diese der Öffentlichkeit preisgeben können oder nicht. Verstoßen die Bilder gegen bestimmte Richtlinien, werden sie unwiderruflich gelöscht. Gesichtet werden pro Content-Moderator 25.000 Bilder am Tag! Die Inhalte der Nutzer überwachen und moderieren, so heißt es. Der große Kampf – zwischen Kindesmissbrauch und Nacktfotos aufdecken, Terrorismus identifizieren und Cybermobbing eindämmen – hat längst in den letzten Winkeln dieser Erde begonnen.
Algorithmen leisten schon lange nicht mehr das, was Content-Moderatoren täglich tun müssen
Algorithmen nehmen das herzzerreißende Kindergeschrei bei sexuellen Handlungen nicht wahr. Content-Moderatoren müssen es ertragen, um das Video letztendlich zu löschen!
Viele der Content-Moderatoren kommen selbst aus Elendsvierteln – nur mit ihrem Job können sie aus ihrem drohenden Elend flüchten. Sie arbeiten für kleines Geld – so viel Geld kann man gar nicht bezahlen für das, was sie täglich ertragen müssen.
Machtpositionen, wie Regierungen können das Ganze zusätzlich lenken und beeinflussen. Eine Künstlerin malte Donald Trump mit kleinem Penis und nannte es „Make America Great Again“.
Ihr Bild wurde millionenfach auf allen Plattformen geteilt. In einer Debatte, meldete sich Donald Trump zu Wort und erwähnte beiläufig: „Wenn meine Hände klein sind, muss auch etwas anderes klein sein – aber glauben sie mir, da gibt es kein Problem.“ Wenig später wurde ihr Gemälde von allen sozialen Medien gelöscht und der Künstlerin der Zugang zu ihren sozialen Plattformen gesperrt.
Von Prinzipien als Content-Moderator wird gesprochen… Jedoch fehlt ihnen gänzlich das Wissen über geläufige Ausdrücke, sodass Content-Moderatoren von der Pike auf ausgebildet werden müssen, um zu verstehen, was z.B. Ausdrücke wie Pussy oder Tits bedeuten.
Am 31. Oktober 2017 trafen sich einige Größen der Sozialen Medien (Facebook, Twitter und Google) zum Stelldichein, um sich beim „Russia & Election Investigations“ vor dem Senat für „Judiciary Subcommittee on Crime & Terrorism“ zu verantworten. Senator Lindsey Grahams Frage an die Sozialen Medien ist eindeutig: “…die Technologie kann auch genutzt werden, um die Demokratie auszuhöhlen und die Nation zu gefährden. Ob sie zustimmen könnten, dass es schlecht fürs Geschäft sei, wenn Plattformen in den Augen der Öffentlichkeit von Terroristen missbraucht werden können, um Amerikaner zu radikalisieren…?“
Hoppala! Schon allein mit dieser Aussage, wird klar, wohin sich die Reise bei der Ausrichtung von Content-Moderatoren bewegt. Nach klaren Vorgaben der Machtstaaten wird verhandelt, was ein User in Zukunft zu sehen bekommt und was nicht. Jeder Staat hat seine eigene Auffassung von Terrorismus, das ist eindeutig. Amerika legt den Schwerpunkt in Richtung Dschihad und Co., andere hingegen legen Ihren Schwerpunkt bewusst auf das Ausradieren von Gegenstimmen, um an Stärke zu gewinnen.
Alles was der Machtposition schädlich sein könnte, wird von Content-Moderatoren gelöscht? Ob es der Wahrheit entspricht, oder nicht?
Laut Senator gäbe es ja große Unterschiede zwischen Dschihadisten und es gäbe ja eine große Bandbreite theologischer Auslegungen, wenn es um den Glauben an Gewalt im Namen von Religionen geht. Wer denn die Content-Experten seien und wie sie eingestellt werden…
Ich unterbreche hier nun die weitere Anhörung, denn es wird so schon deutlich genug, wohin sie Sozialen Medien zwingen. Nämlich ihrer Weltanschauung gerecht zu werden, oder ist es richtig, individuelle die Bremse zu ziehen? Ich stehe dem zwiespältig gegenüber.
Eine Content-Moderatorin spricht in dem ARD-Bericht von einer Liste von 37 Terrororganisationen, die sie zensieren müssten. Die Liste stammt vom US-Ministerium für Innere Sicherheit. Einfach Menschen aus Manila, müssen sich sämtliche Informationen über Terrorgruppen einprägen. Zum Beispiel ihre Flaggen, wie sie sich nach außen darstellen – Videos und Bilder darüber und Redewendungen gehören dazu. Und das wird von ihnen moderiert.
Ich erkenne eine Flagge der Isis und Bilder mit Menschen die auf ihre Hinrichtung warten. Der Content-Moderator ist für die Auffindung der Veröffentlichung von Terrorgruppen zuständig und darauf spezialisiert.
Er berichtet, dass er inzwischen Hunderte von Enthauptungen gesehen hat. Er wüsste auch an den Bildern und Videos einzuschätzen, um welche Art von Enthauptungen es sich handeln würde. Nicht alle seien gleich. Es gäbe die schnelle Enthauptung und ebenso die qualvolle, bei der ein Henker mit einem Messer den Kopf abtrennen würde… manchmal hätten sie Glück, und es würde eine scharfe Klinge benutzt… im schlimmsten Fall würde ein Küchenmesser genommen, das nicht besonders scharf ist. Damit dauert es bis zu einer Minute, bis der Kopf abgetrennt ist – das erkenne er daran, dass der Schnitt dann unsauber sei. Bei einem glatten Schnitt sei die Enthauptung schneller erfolgt.
Barbarisch und grausam! In was für einer Welt leben wir eigentlich – war es immer so?
Nicht alles im Netz ist zu ertragen und trotzdem ist es für „Airwars“ sehr wichtig, es zu archivieren, bevor die Bilder für immer gelöscht werden. Es bleibt nicht viel Zeit für Airwars, der Nichtregierungsorganisation. Denn viele Menschen in den Krisengebieten nutzen ein Handy, z.B. hat in Syrien so gut wie jeder ein Handy und damit ist so gut wie jeder ein Aktivist.
Aktivisten versuchen mit allen Mitteln Gräueltaten und Luftangriffe sofort ins Netz zu stellen, damit andere drauf aufmerksam gemacht werden.
Egal ob der Angriff von der Koalition, Russland oder dem syrischen Regime verübt wurde. Sind die Daten von Airwars gesammelt, versuchen sie, die genaue Position ausfindig zu machen. Die Ergebnisse helfen, ein Bild des Syrienkrieges zu zeichnen. Ohne ihre Arbeit hätten Armeen oder Regierungen einen Freifahrtschein. Es gäbe niemanden, der ihr Tun infrage stellen würde. Diese Videos sind unverzichtbar und sie sind Teil des Krieges. Informationen und Beweismaterial für die Zukunft. Problem sei es, dass diese Videos häufig als IS-Material klassifiziert werden. Weil sie so grausam sind, werden sie von den Content-Moderatoren gelöscht. Die Zensur, die auf YouTube stattfindet, hat Folgen für viele Organisationen und dessen Videos über Syrien, über Luftangriffe und Zerstörungen. Die Konten der Aktivisten werden früher oder später gesperrt. Das Leben ist jedoch dort anders als hier. Es herrscht Krieg. Aus genau diesem Grund ist auch der Content ein anderer.
Der Krieg, die Luftschläge und das Töten, darüber berichtet Airwars. Sie sind die, die den zivilen Schaden der militärischen Aktionen überwachen und bewerten, auf der Suche nach Transparenz und Verantwortlichkeit.
Einen kurzen Moment innehalten… wir, die so privilegiert leben, weit von jedem Kriegsherd entfernt. Wie geht es euch damit? Habt ihr euch gerade zu unwichtigen Dingen des Lebens gestritten? Dann überdenkt mal diesen Kleinkrieg.
Die Hinrichtung von Saddam Hussein wurde gleich am nächsten Tag bei YouTube hochgeladen. Es gab zwei Videos davon, einmal von der Hinrichtung des Erhängens und das zweite Video zeigte seinen Leichnam. Beide Videos waren brutal und grausam, sodass die Entscheidung getroffen werden musste, ob sie online bleiben oder gelöscht werden. Letztendlich wurde das Video der Hinrichtung online gelassen, weil es eine historische Relevanz beinhaltet. Das Video mit dem Leichnam nahm man aus dem Netz, weil es unnötig erschien, die Leiche zur Show zu stellen – ein historischer Nutzen wurde in Frage gestellt.
Content-Moderatoren überprüfen Inhalte aus Ländern, in denen sie noch nie waren, sie kennen nicht deren Kultur und besitzen somit nicht die geringste Ahnung. Sie verfügen über keinerlei Hintergrundwissen. Es werden durch die Teamleiter auch nur 3% der Entscheidungen eines Content-Moderators überprüft – das ist die einzige Qualitätskontrolle… So werden u.U. Zeitzeugen in Form von Bildern und Videos auf Grundlage theoretischen Wissens unwiderruflich gelöscht.
Ein Content-Moderator berichtet zum Beispiel über das berühmte Bild des nackten, angsterfüllten Mädchens aus dem Vietnamkrieges… heute würde es von Content-Moderatoren gelöscht, da nackte Kinder nicht erlaubt sind. Der eigentliche Sinn, der hinter dem Bild steckt, würde damit gänzlich auf der Strecke bleiben. Auf dem nächsten Bild ist ein Kind zu sehen – ein Überschwemmungsopfer.
Das Antlitz ist klar zu erkennen, daher wird es von ihnen gelöscht. „Wenn man für die Presse arbeitet, dann veröffentlicht man das Foto nur zensiert, sodass die Person nicht erkennbar ist“, so lautet die Aussage des Content-Moderators.
Man fühlt sich geradezu schuldig, ein „Überlebender“ zu sein… privilegiert dieses friedvolle Leben zu führen
Staaten, Unternehmen und alle, die eine hohe Entscheidungsgewalt auf dieser Erde besitzen, bestimmen darüber, was gelöscht werden muss oder online bleiben darf. Wir werden somit beeinflusst und in unserer Entscheidungsfreiheit eingeschränkt.
Ich gebe zu bedenken: Wir brauchen leider Gottes auch das Böse – es darf uns nicht verwehrt bleiben. Nur so können wir unterscheiden zwischen Gut oder Böse. Wenn wir nur einseitige Zeitzeugen sind, bleibt uns die Wirklichkeit einer Welt, zwischen Gut und Böse verborgen. Wir können das Böse nicht mehr erkenne. Zudem besitzt jeder seine eigene Interpretation von Gut und Böse. Die Entscheidungsfreiheit der Mehrzahl der Menschen entscheidet darüber, was Böse ist. Jedoch passiert das nicht mehr, wenn es nur noch in eine Richtung geht.
Philippinen, nämlich unsere für uns weltweit agierenden Content-Moderatoren, berichten über ihren Präsidenten und dessen staatlich gebilligten Morde. „Er wisse bei der Sichtung der Bilder nicht, ob die Opfer von der Polizei oder von anderen Drogendealern ermordet wurden. Es gibt einige, die glauben, dass der Präsident für diese Morde verantwortlich sei. Präsident Duterte mag keine Drogen und Kriminellen. Und so, wie der Präsident alles dafür tut, um die Philippinen zu beschützen, so sei er in seinem Job auch….“, so lautet die Aussage eines Content-Moderators.
Präsident Duterte vertritt die Meinung, dass Hitler drei Millionen Juden massakriert habe und auf den Philippinen drei Millionen Drogenabhängige leben würden. Völlig kalt und abgeklärt präsentiert er sich in den Medien, und erklärt: …“dass er diese drei Millionen gerne umbringen würde. Wenn Deutschland Hitler hatte, dann hätten die Philippinen ihn. Es wäre schön, wenn alle Kriminellen seine Opfer werden. So könne er die Probleme seines Landes lösen und somit die nächste Generation vor dem Verderben retten.“
Die meisten Philippinen sind durchtränkt mit Dutertes Hardliner-Politik und Weltanschauung. Und aus der Position eines gnadenlosen Hardliners heraus, sind Content-Manger im Auftrag des Bösen unterwegs – um uns zu helfen?
Facebook ist gefährlich, weil man sich so einfach positionieren kann
Es ist so einfach etwas bekannt zu machen und mit einem Klick verbreiten sich Postings weltweit. „Menschen lassen sich leicht mitreißen, auch mit Dingen, die nicht im Kontext der eigentlichen Wahrheit stehen. Wir laufen Gefahr die Demokratie zu verlieren, weil wir bereit sind, sie aufzugeben“, so die Worte eines Journalisten aus Manila.
Bei Facebook selbst wird über Negatives nicht gesprochen, es herrscht eine Art Schweigegelübde – nach außen scheint alles perfekt und poliert. Vieles wird verdrängt. „Irgendwann wird die Regierung einschreiten, und das weiß Facebook“, so lautet die Aussage des früheren Produktmanagers von Facebook.
In der Anhörung des Senates wird Facebook gefragt, ob sie durch eine Software Postings in bestimmten geografischen Gegenden unterdrücken würden. Laut Colin Stretch von Facebook, gäbe es viele Fälle, in denen ihnen Inhalt von ausländischen Regierungen gemeldet wird, die nach den Gesetzen jener Regierungen illegal seien. Daher setzen sie „Geoblocking“ oder „IP-Blocking“ ein, damit dieser Content in diesen Ländern nicht sichtbar wird, sie aber weiterhin Facebook nutzen können.
„Wenn also in einem Land Kritik an der Regierung illegal ist, dann könne man diese Kritik unterdrücken?“, so die Frage von Senator Marco Rubio, „Und somit in diesem Land Einfluss ausüben?“ Stretch Antwort: „In der überwiegenden Mehrzahl aller Fälle, in denen Facebook ortsabhängiger illegaler Content gemeldet wird, handelt es sich nicht um politische Meinungsäußerung.“
Dem ist nichts mehr hinzuzufügen, oder? Damit wird deutlich – nämlich die Gefahr von Manipulation.
„Facebook entfernt alles aus seinem sozialen Netzwerk, sobald türkische Behörden sie dazu auffordern. In den meisten Fällen geht es um politische Meinungsäußerungen“, so die Aussage von Aman Akdeniz Professor für Recht, Bilgi Universität Istanbul. Er dokumentiert es anhand von Beispielen. „Egal ob YouTube, Facebook oder Twitter, die Türkei sei das Land mit den meisten Sperrungen weltweit. Traditionelle Medien werden in der Türkei immer mehr von der Regierung kontrolliert, sodass sich viele Türken den sozialen Netzwerken zugewandt haben. Nun wird Facebook von den türkischen Behörden bedrängt, Inhalte zu entfernen oder zu blockieren. Die Tech-Unternehmen haben angefangen, Absprachen mit den Regierungsbehörden zu treffen, denn keine Plattform will gänzlich von der Türkei gesperrt werden. Damit würden sie Nutzer und Gewinne verlieren.“
„Durch das Blockieren bestimmter Inhalte mittels IP-Adresse können Nutzer bestimmte Videos in der Türkei nicht sehen“, so lautet die Aussage von Nicole Wong, ehem. Führungskraft von Google und Twitter.
Absprachen im Hinterzimmer, wovon die Öffentlichkeit kaum etwas erfährt
„Wenn Regierungen Unternehmen über inoffizielle Kanäle kontaktieren mit der Aufforderung, diese oder jene Meinung auf der Plattform zu unterbinden, dann werden die Unternehmen zunehmend gedrängt, genau solche Entscheidungen von sich aus zu treffen und somit selbst zu entscheiden, wie sie das Gesetz auslegen“, so die Meinung von David Kaye, UN- Sonderbeauftragter für Meinungsfreiheit. „So würden die Unternehmen letztlich entscheiden, was rechtmäßig ist und was nicht. Das diese Entscheidungen an Firmen ausgelagert werden, sollte die Menschen in demokratischen Gesellschaften beunruhigen.“
Laut einer Content-Moderatorin dürfen sie bei ihrer Arbeit keinen einzigen Fehler machen, denn nur der geringste Fehler zerstöre Leben oder mehrere… ja ein Fehler sei sogar verantwortlich für das Auslösen eines Krieges, oder begünstigt Mobbing oder Selbstmorde.
Mir wird schlecht! Der Fehler einer einzigen Moderatorin könnte einen Krieg auslösen?
Was Nutzer glauben oder denken, hängt also von den Content-Moderatoren ab. Von Content-Moderatoren, die kurz vor dem Elend leben und selbst unter der Herrschaft eines Headliners, wie Rodrigo Duterte existieren müssen…
„Momentan ist die USA so gespalten, dass die Republikaner mit den Demokraten nicht mal mehr miteinander reden können“, so Garcia Martinez, Produktmanager Facebook. „Facebook verschärfe die Situation auf jedem Fall.“
Früher hatte jeder das recht auf eine freie Meinung – heute beansprucht jeder das Recht auf eine eigene Realität und Wahrheit
Facebook zeigt im Grunde daher nur das, was man hören will und im Großen und Ganzen wird das herausfiltert, was man nicht hören will. Eine Demokratie setzt aber voraus, dass es gemeinsame Verhaltensregeln und Grundwahrheiten gibt, auf die man sich verständigen kann. Wenn es diese Regeln, aus was für Gründen auch immer, nicht gibt, dann gibt es auch keine Grundwahrheiten und die Demokratie wird unmöglich.
“…wir sind die mit den Waffen und dem ganzen Training und glaubt mir, wenn wir davon Gebrauch machen, dann wird ganz schnell Schluss sein, mit der ganzen Scheiße…“, so die Worte eines Rechtsradikalen der USA. Die Auseinandersetzungen mit den Linken… sie werden durch die Content-Moderatoren gelöscht.
Die Fragen werden zurecht laut, ob diese sozialen Medien eher Hass und Hetze befördern und verstärken, statt das notwendige Verständnis füreinander aufzubringen.
Technologie hat inzwischen eine bestimmte Tendenz. Sie kann deutlich beeinflussen, denn sie verfolgt nur ein Ziel, die Aufmerksamkeit möglichst vieler Menschen zu erreichen. Empörungen eignen sich zum Teilen dafür besonders gut. Verbreitet wird, was polarisiert, furchtbar und empörend ist. Damit wird das Schlechteste von uns hervorgebracht.
So dient Facebook aktuell als Nährboden für Hassreden gegen die Rohingya, den Flüchtlingen in Myanmar. Diese Menschen sind gefährdet und sie werden gewaltsam verfolgt. Die Regierung dieses Landes tut nichts dagegen. Die Frage des Senats lautet daher berechtigt: „Was tut Facebook, um sicherzustellen, dass die sozialen Netzwerke nicht benutzt werden, um die Demokratie eines Landes zu unterhöhlen?“
Laut Facebook seien sie verpflichtet, gegen Missbrauch vorzugehen. Sie müssen dazu beitragen, die Sichtbarkeit zu erhöhen, wollen aber nicht als Werkzeug benutzt werden, um Hass aufzustacheln oder Gewalt zu verherrlichen.
Doch in Facebook findet man Einträge eines Accounts, der dazu auffordert, „Kala“ zu töten und auszurotten. „Kala“ ist eine Bezeichnung, wie „Nigger“ in Amerika. Dieser Account besitzt 400.000 Anhänger auf Facebook. Momentan sieht alles danach aus, dass Facebook hilft, den Hass gegen die Rohingya zu verbreiten.
Der UN zufolge, sind die Rohingya die am meisten verfolgte Minderheit der Welt
Die Menschen in Myanmar glauben, Facebook sei das Internet. Eine E-Mail ist ihnen völlig unbekannt. Momentan ist jeder beliebt, der etwas gegen Rohingya postet und es wird viele tausend Mal geteilt. Facebook erkennt das Problem nicht und die Menschen in Myanmar halten es für eine authentische Information. Es ist wahnsinnig, aber die Mehrheit der Menschen in Myanmar hasst die Rohingya und es wird von Tag zu Tag schlimmer. Es ist keine Seltenheit, wie mit Rohingyas umgegangen wird. Eine Rohingya berichtet davon, dass sie ihr das Baby aus dem Arm gerissen haben und es ins Feuer geworfen wurde. Ihren Sohn haben sie in den Fluss geworfen. Sie selbst wurde mit Stockhieben traktiert, ihr wurden die Knochen gebrochen und sie wurde mit samt ihren Kindern in Flammen gesetzt und danach wurde sie vergewaltigt. Ihre Tochter fing an zu weinen, darauf haben sie auf sie eingehackt.
Derweilen sorgen Content-Moderatoren dafür, dass solche Szenarien gelöscht werden…
Der Hass gegen die Rohingyas bleibt.
Facebook sollte den Hass unterbinden. Entscheidungen von Ingenieure, egal wie wohlüberlegt ihre Entscheidungen sind, haben Auswirkungen auf das Denken von 2 Mrd. Menschen. Die Menschen in Burma haben keine Kontrolle darüber. Sie können nicht melden, dass diese Fake News zum Genozid beitragen. Sie verbringen Tag für Tag auf Facebook und wissen um das Fake-News-Problem, das den Völkermord befeuert. Aber sie haben keinerlei Möglichkeit, das zu melden und dafür zu sorgen, dass sich jemand darum kümmert.
Wir sollten uns wirklich in Acht nehmen vor dem, was wir da geschaffen haben
…so die ermahnenden Worte von Tristan Harris, ehem. Ethik-Beauftragter, Google.
Die Content-Moderatoren erleben indes täglich die schrecklichsten Dinge dieser Welt. Sie werden virtuell durchtränkt von Gewalt, Hass und Krieg. Für sie sind diese Horrorszenarien Realität. Videos dieser Art müssen von ihnen zu Ende angesehen werden. Machen sie es nicht, gilt es bei der Qualitätskontrolle als Fehler. Zulässig sind drei Fehler pro Monat. Verdrängung aus Selbstschutz findet statt, sie können sich an viele Bilder nicht mehr erinnern… andere brennen sich unwiderruflich in ihr Gedächtnis ein. Auch Live-Übertragungen müssen sie sich anschauen… und u.U. im letzten Moment entscheiden, ob die Übertragung abgebrochen wird… wann ist der letzte Moment? Solange keiner umgebracht wird, dürfen sie den Live-Stream nicht anhalten. Machen sie es trotzdem, handelt es sich hierbei um ein Qualitätsproblem der Content-Moderatoren. So hängt sich ein User im Live-Stream vor tausenden Zuschauern auf. Dazu begleiten ihn anfeuernde und provozierende Kommentare, wie „tue es nicht“, „das machst du eh nicht“, „ja, los – häng dich endlich auf“, „du bist doch zu feige dazu“. Er ringt mit seinem Leben, als der Stuhl unter ihm wegkippt. Doch sein Genick ist schon gebrochen….
Auch Content-Moderatoren bringen sich um – die negativen Folgen der Content-Moderation…
Ich bin schockiert und kann es nach mehrmaligem Anschauen immer noch nicht fassen. Content-Moderatoren opfern sich auf, für eine bessere Welt und leben dafür ausnahmslos in der sündhaften und virtuellen Welt zwischen Qual und Tod – versklaven sich selbst, um der realen Welt aus Elendsviertel, Müllsammler und umstrittenen Präsidenten zu entfliehen.
Ignorieren, ignorieren, löschen, ignorieren…löschen….
Mir geht es schwerpunktmäßig nicht um den Knochenjob der Content-Moderatoren. Mir geht darum festzuhalten, was ich gesehen habe, um es zu behalten und bewusst werden zu lassen, dass schon längst ein Film, wie Matrix, zur Realität geworden ist.
Die Matrix in Form von:
- Einer Parallelwelt, in dem barbarische Kriege geführt werden und die Auslöschung von demokratischem Gedankengut tobt. Eine Welt ohne Mitgefühl, ganz im Sinne von mächtigen Herrschern, die ausschließlich dafür morden und unterdrücken lassen, um ihren Status zu behalten. Eine Welt zwischen Wahnsinn, sadistischen Machenschaften, Hass und entsetzlicher Qual, Folter und Tod.
- Einer Parallelwelt der virtuellen Zuschauer, die Grausamkeit sehen wollen und langsam und ganz sicher darin untergehen und sich bewusst oder unbewusst, freiwillig mit der Brut der Grausamkeit verseuchen.
- Und einer Parallelwelt, die der Grausamkeit im Verborgenen den Kampf angesagt hat, im Irrglauben daran, richtig zu handeln, weil andere es ihnen zu ihren Bedingungen vorgeben.
Momentan ist die Dokumentation über ARTE zu finden. TV-Dokumentation: Im Schatten der Netzwelt – The Cleaners
Das eigene Leben relativiert sich… zerfällt in seine Bestandteile. Nichts scheint wie vorher zu sein – jeder Streit, jeder Ärger verödet zur Banalität. Ich schäme mich gar, weil ich momentan in so einer heilen und scheinbar sicheren Welt lebe, abgeschirmt vom Bösen, weit entfernt von Katastrophen und Diktatoren.
Welche Erkenntnis nehme ich persönlich aus dem Wissen mit, welches ich mit dieser Dokumentation gewonnen habe? Die erste Tendenz, die ich verspüre ist wegzulaufen und zu verdrängen. Mich von Facebook und Co. abmelden und nichts mehr zu glauben, was verbreitet wird. Was davon soll ich herausfiltern, um die eigentliche Wahrheit zu erkennen? Hilflosigkeit macht sich breit.
Wann drohe ich selbst infiziert zu werden und der Seuche zu erliegen?
Wo soll ich anfangen, um die Welt auf einen guten Weg zu bringen? Ich bin doch nur ein winziges Sandkorn auf diesem Planeten – kann ich daher etwas ausrichten? Ist es nicht schon längst zu spät dafür? Das Böse sitzt so tief, Millionen von Menschen sind verseucht – sie werden sich nie wieder abwenden vom Bösen! Wie kann ein Mensch nur so abgrundtief grausam sein? Ist das noch unsere Welt oder gehört sie schon längst den Barbaren? Befinden wir uns längst in der selbstzerstörerischen Endzeit?
Doch mit Wegschauen überlasse ich die Welt ihrem Untergang. Mit Aufgeben bereite ich Kindern von Morgen die Hölle auf Erden
- Meine konsequente Ablehnung von Gewalt ist wohl eine ganz persönliche Konsequenz, nach der ich lebe – bleibt es dabei, oder entsteht Gewalt, wenn das eigene Leben in Frage gestellt wird?
- Meine demokratische Ausrichtung, weit entfernt von Radikalismus, zeichnet den politischen Weg ab, dem ich folge – bleibt es dabei, oder stellt sich für mich irgendwann die Frage, radikaler zu werden, um weiterhin in Sicherheit zu leben?
- Meine Augen nicht vor der Grausamkeit zu verschließen, auch wenn es kaum zu ertragen ist und darüber berichten, damit auch andere davon erfahren, das ist mein Handeln… Bleibt es dabei, oder habe ich irgendwann keine Kraft mehr dafür?
Der Film Matrix: „Hattet ihr schon mal einen Traum bei dem ihr glaubtet, er sei real? Und was wäre wenn ihr aus dem Traum nicht mehr aufwacht – woher wüsstest ihr was Traum ist und was Realität?“ „Was ist los mit uns? “ „Die Antwort findet ihr irgendwo da draußen – es ist die Frage, die uns keine Ruhe lässt.“
Was ist die Matrix?
Ist der Mensch eine Krankheit – ein Krebsgeschwür dieses Planeten? Und wer bringt die Heilung? Rennen wir auf der Suche nach Heilung dem Diktator oder Friedensbringer hinterher?
Ist die Matrix nur eine Scheinwelt, die mit der Realität nichts zu tun hat? Leider kann man es nicht erklären, was die Matrix ist… man muss sie selbst erleben!
Willkommen in der Wirklichkeit!
Kommentar verfassen