Nutzerkonto

»Algorithmen leisten nicht, was wir tun…«

Hans Block, Moritz Riesewieck

Was wir nicht sehen

Veröffentlicht am 25.10.2018

EN

Ein Netz um die Welt spannen

Vor fast 30 Jahren wurde das Versprechen in die Welt gesetzt, Menschen durch eine netzartige Infrastruktur asynchron und dezentral rund um den gesamten Globus zu verbinden. Der »Erfinder« des sogenannten World Wide Web Tim Berners-Lee ahnte, dass dieses Experiment das Potential hat, die Welt grundsätzlich zu verändern: »This is experimental. However, it could start a revolution in information access.« Das Internet sollte ein emanzipatorisches Projekt der Vielen werden. Alles sollte dort verlinkt, kommentiert, ergänzt und diskutiert werden können. Statt einzelner Eliten sollten fortan alle zugleich Produzent*innen wie Nutzer*innen von Inhalten werden können: Der »Prosumer« war geboren. Das Internet sollte zu einem Experimentierfeld für alternative Lebens-, Gesellschafts- und Wirtschaftsentwürfe werden. Doch was ist von all diesen Verheißungen der Nullerjahre übriggeblieben? Wir erleben eine kollektive Entzauberung einer einstigen Utopie. Statt mündige Mitgestalter*innen einer globalisierten, digitalen Öffentlichkeit sind wir zu tumben Nutzer*innen einer stark zentral organisierten und überwachten Infrastruktur geworden. Wir erforschen nicht mehr, sondern bewegen uns in einer auf unser Konsumverhalten abgestimmten, algorithmisch angepassten Welt. Kurz gesagt: Wir wurden beraubt. Oder aber: Wir haben uns bereitwillig berauben lassen.

Die nicht sichtbaren Mauern

Die Idee »Make the world more open and connected« ist zur Geschäftsidee verkommen. Wir erforschen nicht mehr die Weite des Netzes auf asynchronen Abwegen, indem wir uns immer wieder neu verlinken und in Regionen vorwagen, die wir noch nie gesehen haben, sondern wir – weltweit mittlerweile über drei Milliarden Menschen – nutzen eine Handvoll Plattformen wie Facebook, Instagram, YouTube, Twitter. Die uns zwar vormachen, das hier sei die ganze Welt und sie wiesen uns bloß den Weg durch den sonst undurchdringlichen Dschungel. In Wahrheit aber befinden wir uns auf diesen Plattformen in Walled Gardens. Der Begriff stammt aus der Betriebswirtschaftslehre und bezeichnet dort privatwirtschaftliche Anbieter, die bestrebt sind, eine Vielzahl unterschiedlicher Services in das Angebot des Unternehmens einzubetten. Facebook etwa hat schon jetzt Videotelefonie, Chat-Funktionen, Nachrichten-Medien, Videostreaming und einen Marktplatz für Gebrauchtwaren eingebettet und will in Kürze die Angebotspalette um eine Partnerbörse und selbst produzierte Serien erweitern – die Expansion läuft. Die Architekten dieser ummauerten Gärten haben von Anfang an alles darangesetzt, diese privatwirtschaftlichen Räume als Orte der Freiheit und der natürlich friedvollen Ko-Existenz einer diversen »Community« darzustellen.

Seit eh und je achten die Tech-Giganten, wie Facebook & Co penibel darauf, in der Öffentlichkeit als neutrale, technische Plattform wahrgenommen zu werden. Im Gegensatz zu traditionellen Medien verweist beispielsweise Facebook stets darauf, keine eigenen Inhalte zu publizieren oder gar auszuwählen, schließlich läge dies in der alleinigen Hand der Nutzer*innen. Tatsächlich aber kann der vermeintlich reibungslose Informations- und Kommunikationsfluss nur deswegen aufrechterhalten werden, weil viele Inhalte, die geteilt werden – entgegen allem Anschein – kuratiert werden. Oder, um in der Metapher des Gartens zu bleiben: Jemand muss das Unkraut jäten, damit der Garten blüht, wächst und gedeiht. Wer aber bestimmt, was Unkraut ist und was nicht? Es sind die Besitzer der digitalen, ummauerten Gärten, die diese Entscheidung treffen und es scheint ihr gutes Recht. Schließlich befinden wir uns auf privatem Grund, auch wenn sie alles darangesetzt haben, uns dies vergessen zu lassen und sich als Wohltätigkeitsvereinigungen zu promoten. Sie entscheiden, was drei Milliarden Menschen sehen oder nicht sehen, was in der digitalen Öffentlichkeit vorkommt oder aber in die Unsichtbarkeit verbannt wird. Klar, dass die Betreiber der ummauerten Gärten diese Vorgänge lieber im Verborgenen halten. Die Gärtner sollen unsichtbar bleiben. Ihre Eingriffe, ihre willkürlichen Entscheidungen, was hier vorkommen darf und was nicht, sollen nicht weiter Beachtung finden.

Die nicht sichtbaren Gärtner

Die Gärtner dieser Walled Gardens – der sozialen Netzwerke – nennen sich »Content Moderators«. Schon ihr euphemistischer Name verrät, dass ihr Kuratieren von den Unternehmen heruntergespielt wird. Wer diese Gärtner sind, was sie zu Unkraut erklären und welche Pflanzen sie gedeihen lassen, ist den meisten Nutzer*innen nicht bewusst. Die Betreiber der ummauerten Gärten hüllen sich in Schweigen. Ihre Gärtner sollen geheim agieren, sollen am besten gar nicht wahrgenommen werden. Sie sitzen an uns meist unbekannten Orten dieser Welt, teilweise tausende Kilometer von uns entfernt, in unzähligen Cubicles, vor tausenden Bildschirmen, um all das auszusortieren, was das Licht der Öffentlichkeit nicht erreichen soll. Facebook, Google und Twitter sorgen nicht selbst dafür, dass ihre Plattformen »sauber« bleiben, sondern beauftragen Drittfirmen in Entwicklungs- und Schwellenländern für diese Drecksarbeit, die dann schnell, lautlos und nicht sichtbar für kleines Geld erledigt wird.

In Manila, an einem der ersten und größten Outsourcing-Standorte weltweit, werden die »Content Moderators«, die von dort aus für Facebook arbeiten, etwa per Vertrag gezwungen, stets nur vom »Honey Badger Project« zu sprechen, wann immer es um ihren Auftraggeber geht. Schweigepflichtserklärungen halten sie davon ab, mit Familienangehörigen oder Freunden zu teilen, was sie in den gut abgeschirmten Büros im Sekundentakt auf ihren Bildschirmen aufpoppen sehen: Fotos und Videos voller brutaler Gewalt, Enthauptungen, Verstümmelungen, Hinrichtungen, Kindesmissbrauch, Folter und Sex, in allen Arten und Abarten. Dorthin, wo jahrelang der analoge Giftmüll der westlichen Welt mittels Containerschiffe verbracht wurde, wird nun der digitale Bildermüll über Glasfaserkabel abgeladen. So wie die sogenannten Aasfresser (»Scavengers«) sich durch die gigantischen Müllstädte am Rande Manilas wühlen, klicken sich tausende »Content Moderators« in klimatisierten Bürotürmen im Wirtschaftszentrum der Stadt durch die unendlichen, toxischen Bildermeere und jede Menge gedanklichen Schrott. Die Wunden, die bei den Angestellt*innen entstehen, sind aber anders als bei den Scavengers nicht sichtbar. Vollgestopft mit schockierenden Eindrücken graben sich die Bilder und Videos in ihre Erinnerungen ein, die jederzeit ihre unberechenbare Wirkung entfalten können: Essstörungen, Libidoverlust, Angststörungen, Alkoholismus, Depressionen, die bis zum Suizid führen können. Das ist der Preis, den wir für unsere »sauberen« sozialen Plattformen zahlen.

Doch damit nicht genug. Neben den schwerwiegenden psychischen Folgen für die Arbeiter*innen droht auch unsere digitale Meinungsfreiheit zu erkranken. Denn nicht immer lässt sich mit aller Eindeutigkeit bestimmen, ob ein Text, Bild oder Video gelöscht werden muss. Was ist mit all den kontroversen, ambivalenten Inhalten, hochgeladen von Bürgerrechtsaktivist*innen, Widerstandskämpfer*innen, Bürgerjournalist*-innen aus Kriegsgebieten, Satiriker*innen, Karikaturist*innen…? Über deren Inhalte entscheiden die Content Moderators oft in gleicher Geschwindigkeit wie über die klaren Fälle und lassen so – mal aus Versehen, mal per Vorgabe – verschwinden, was Menschen die Augen öffnen, neue Perspektiven erschließen, zum Nach- und Umdenken anregen könnte. Auf die Bildschirme der Content Moderators gelangt alles, was beim Upload von einer automatischen Bild- oder Texterkennung als verdächtig markiert oder von Nutzer*innen der sozialen Netzwerke als unangemessen gemeldet wird.

Wann immer sich Vertreter*innen der sozialen Netzwerke durchringen, mit der Öffentlichkeit zu kommunizieren, verweisen sie auf die detaillierten Richtlinien, an die sich ihre »Gärtner« zu halten haben. Wer diese Richtlinien erstellt, welche Lobby-Interessen hinter den »Vertretern aus der Zivilgesellschaft« stecken, die an diesen Richtlinien mitgeschraubt haben, warum das alles so furchtbar intransparent vonstattengehen muss und nicht zuletzt, wie viele Grauzonen bei allem Regelwerk bleiben, die von den Content Moderators in Sekundenschnelle ausgelegt werden müssen, bleibt der Öffentlichkeit vorenthalten.

Das Leiden der Anderen

Airwars nennt sich eine Bürgerrechtsorganisation mit Sitz in London, die sich darauf spezialisiert hat, Fotos und Videos, die Menschen in Kriegsgebieten machen und auf soziale Netzwerke hochladen, auszuwerten, um etwa zivile Opfer von Luftschlägen und anderes Unrecht zu dokumentieren, das die Militärs gerne verschweigen würden. Menschen mit Handykameras vor Ort können mit Hilfe von sozialen Netzwerken sichtbar machen, was Journalist*innen oft aus Abhängigkeit von den agierenden Militärs nicht zu sehen bekommen. Hier wird er noch fühlbar, der Geist der Anfangsjahre des World Wide Web, als weltweit Menschen euphorisch vom emanzipatorischen Potenzial des Netzes träumten. Doch die oft schonungslos brutalen Videos, etwa aus dem Syrien- oder Irak-Krieg, kollidieren mit dem Versprechen, das vor allem Facebook, Instagram und YouTube ihren Werbekunden gegeben haben, einen »safe space«, eine sichere Umgebung, bereitzustellen, wo sich Menschen wohlfühlen und daher viel Zeit verbringen. Bürgerrechtsorganisationen wie Airwars oder Syrian Archive beklagen deshalb immer wieder, dass Beweisvideos aus den sozialen Netzwerken verschwinden, bevor sie sie analysieren können. Durch die marktbeherrschende Stellung von Facebook, YouTube, Twitter & Co. und die oft aggressive Gleichschaltung aller konventionellen Medien durch die jeweiligen lokalen Behörden in autokratischen Staaten bleiben den Bürgerrechtler*innen oft kaum andere Kanäle, um einem großen Publikum schnell und einfach ihre Aufnahmen zugänglich zu machen. Aber so wertvoll Handy-Videos von zivilen Opfern für die Aufklärung von Kriegsverbrechen sein mögen, sind sie für die Nutzer*innen von sozialen Netzwerken auch zumutbar? Ist es sinnvoll, sie Milliarden von Menschen über Facebook, YouTube, Twitter und Co. zugänglich zu machen?

Die Philosophin und Essayistin Susan Sontag beschäftigte sich zeitlebens mit der Wirkung und Problematik von verstörenden Bildern. In ihrem 2005 erschienenen Aufsatz »Das Leiden anderer betrachten« schreibt sie, Fotos könnten zwar schockieren und aufrütteln, aber »wenn es darum geht, etwas zu begreifen, helfen sie kaum weiter. Erzählungen können uns etwas verständlich machen. Fotos tun etwas anderes: Sie suchen uns heim und lassen uns nicht mehr los«. Anders als in ihrem weltberühmten Essay Über Fotografie aus dem Jahr 1980 aber, in dem Sontag vor allem die Gefahr beschrieb, die massenhafte Präsenz von Bildern des Leidens könne Menschen taub machen gegenüber fremdem Leid, erkennt sie 2005 die Notwendigkeit einer schonungslosen Darstellung etwa von Kriegsgeschehen an, da Bilder Menschen auf direkte Weise adressieren und zum Intervenieren und Handeln auffordern könnten. Sontag hat die Viralität, die Bilder auf sozialen Medien erlangen, nicht mehr erlebt. Ist die Heimsuchung durch Bilder bei Menschen, die für Fakten und Argumente unempfänglich geworden sind, womöglich genau der Hebel, den es anzusetzen gilt, um sie zum Umdenken zu bewegen? So sieht es der US-amerikanische Medienwissenschaftler Ethan Zuckerman vom Massachusetts Institute of Technology. Zusammen mit Kolleg*innen konnte er nachweisen, wie das Foto des ertrunkenen syrischen Kindes am Strand von Bodrum, das 2015 massenhaft auf sozialen Netzwerken geteilt wurde, die Debatte um die sogenannte Flüchtlingskrise fundamental veränderte: Mit wissenschaftlichen Erhebungen über die Wortwahl in der öffentlichen Debatte über Geflüchtete konnte Zuckerman belegen, wie die Verbreitung des Fotos über soziale Medien Millionen von Menschen solidarischer, empathischer über die humanitäre Krise nachdenken ließ. Zuckerman und andere fordern daher die Betreiber von sozialen Netzwerken dazu auf, auch unbequeme, schockierende Inhalte zu veröffentlichen, wenn sie der Aufklärung dienen. Zugleich wächst der Einfluss derjenigen, die einen besseren Schutz vor verstörenden Inhalten fordern. In den USA, in denen schon das Verbrühen an einem heißen Kaffee zu einer erfolgversprechenden Klage gegen den Verkäufer führen kann, gehen Medien mehr und mehr dazu über, Beiträgen, die von manchen Menschen als belastend wahrgenommen werden können, ein »Trigger Warning« voranzustellen. Ursprünglich vor allem bei extremen Gewaltdarstellungen benutzt, um Opfer posttraumatischer Belastungsstörungen zu warnen, dass das Ansehen oder Lesen eines bestimmten Beitrags Reize verursachen kann, die für die Betroffenen folgenschwer sein können, fordern mittlerweile auch Studierende an amerikanischen Universitäten »Trigger Warnings«: zum Beispiel für den mythologischen Klassiker Metamorphosen des römischen Dichters Ovid. Das über zwei Jahrtausende alte Werk in Versform enthalte Passagen, in denen lüsterne Götter Frauen sexuell nötigten. Doch für viele der in Repräsentationskritik geschulten Studierenden ist es mit »Trigger Warnings« nicht getan. Sie fordern die Verbannung solcher Werke vom Lehrplan. Für sie sorgt schon allein die Wiedergabe und Präsenz solcher Inhalte für eine Verstetigung und Normalisierung von sexueller Gewalt und anderer Vergehen. Die Idee, dass allein die ständige Präsenz solcher Bilder beziehungsweise Schilderungen den Status Quo zementiert, ist nicht neu und lässt sich auch kaum von der Hand weisen. In der Tat konnten Neurowissenschaftler*innen inzwischen nachweisen, wie allein die Wiederholung bestimmter visueller oder verbaler Muster – selbst wenn sie kritisch kommentiert erfolgt – bestimmte Muster im Hirn von Menschen festsetzt, deren Wirkung sich kaum kontrollieren lässt. Vorsicht gegenüber der schwer kalkulierbaren Wirkung von Bildern und Schilderungen ist daher sicher angebracht. Aber wie weit wollen wir mit dieser Vor-Sicht gehen? Das Recht auf körperliche Unversehrtheit wird als Menschenrecht in vielen Verfassungen weltweit garantiert. In der Charta der Grundrechte der EU gilt dieses Recht ausdrücklich auch für »geistige Unversehrtheit«. Aber auch wenn die möglicherweise traumatische Wirkung von Bildern und Texten schwer abzusehen ist und gravierende Folgen für das Weiterleben haben kann: Wollen wir als Gesellschaft so vorsichtig werden, dass wir dafür einen Verlust von Aufklärung und gesellschaftlichem Bewusstsein gegenüber Unrecht, das uns alle angeht, in Kauf nehmen? Ein Trauma entsteht erst, wenn Menschen nicht in der Lage sind, das Erlebte – oder eben auch das bloß Gesehene – verarbeiten zu können. Entscheidend ist hierfür meist eine Verbalisierbarkeit: Kann der/die Betroffene das Erlebte oder Gesehene mit anderen Menschen besprechen? Statt also uns alle prophylaktisch gegenüber möglicherweise belastenden Inhalten abzuschirmen, sollten wir gesellschaftlich dafür sorgen, dass weniger Menschen mit dem Erlebten oder Gesehenen allein bleiben. Digitale, soziale Netzwerke stellen uns in der Hinsicht vor eine große Herausforderung: Wenn Menschen verstörende Inhalte im Netz zu sehen bekommen, so passiert das oft ohne dass andere Menschen bei ihnen sind, mit denen sie das, was das Anschauen der Fotos oder Videos bei ihnen auslöst, teilen können. Soziale Netzwerke simulieren Gemeinschaft, unterstützen aber wohl eher die Atomisierung von Gesellschaft und werfen Menschen auf sich selbst zurück. In den Walled Gardens schlagen Menschen nur selten Wurzeln.

Be smart and fix things

Konfrontiert mit dem Problem der unterschiedlichen Sensibilität von Menschen gegenüber Gewalt, Sex, Hass und anderen Inhalten, erklärte Mark Zuckerberg jüngst, in Zukunft jeden User gänzlich selbst entscheiden lassen zu wollen, was er/sie zu sehen bekomme, indem jede/r durch persönliche Filter-Einstellungen bestimmen würde, was für ihn/sie unsichtbar gemacht werden soll. Wenn man berücksichtigt, dass mittlerweile mehr als drei Milliarden Menschen die sozialen Netzwerke nutzen, hätte ein solches individuelles Filtern von Wirklichkeit gravierende Folgen für die Öffentlichkeit. Jede/r könnte dann ohne Probleme für sich in Anspruch nehmen, von Bildern über Kriege und andere gewaltsame Konflikte unbehelligt zu bleiben. Statt auf der Grundlage eines zumindest einigermaßen geteilten gesellschaftlichen Bewusstseins über Lösungen für soziale Probleme zu diskutieren, würden noch mehr abgeschottete Parallelwelten entstehen: Wie Pippi Langstrumpf würden sich Menschen die gesellschaftliche Realität machen »widde widde wie sie ihnen gefällt«. Schon heute zu beobachtende Phänomene wie Filterblasen und Echokammern wären nichts dagegen.

So gestalten auf der einen Seite junge, ideengeladene Unternehmer die digitale Welt in einer atemberaubenden Geschwindigkeit ganz nach dem Motto »Move fast and break things« während auf der anderen Seite die außer Atem geratene Politik dem hinterherzujagen versucht, was nicht mehr einzuholen ist: der beängstigenden Machtstellung des Silicon Valley.

Die einheitlich auferlegten Richtlinien der sozialen Plattformen stoßen immer öfter auf ganz unterschiedliche Rechtsordnungen, was zunehmend zu Problemen führt. So kämpft die Europäische Union seit einiger Zeit dafür, dass die Unternehmen sich dafür verantwortlich zeigen müssen, was auf ihren Plattformen landet und fordert sie auf, all das zu löschen, was eine Rechtsverletzung darstellt. Beispielsweise drängt das EU-Parlament seit ein paar Jahren immer stärker auf einen pauschalen Schutz gegen Terror, Hass, Propaganda und solche Inhalte, die sie als gewaltverherrlichend einstuft. Wegen der immer massiveren Unterwanderung sozialer Netzwerke durch Terrororganisationen, Propagandisten und politische Extremisten argumentiert eine Mehrzahl von EU-Parlamentarier*innen inzwischen für eine vollautomatisierte Löschung verdächtiger Inhalte. Um den EU-Verordnungen Rechnung zu tragen, sehen sich die Unternehmen gezwungen, vollautomatisierte Filter zu entwickeln, sogenannte Upload-Filter, die dafür sorgen sollen, dass es zu keiner Rechtsverletzung kommt. Diese KI-basierten Anwendungen sollen anhand bestimmter visueller beziehungsweise sprachlicher Muster Terror, Gewalt, Hass und Hetze schon im Moment des Hochladens identifizieren und entsprechende Posts und Tweets löschen, so dass diese erst gar nicht auf die Plattformen gelangen. Da die Unternehmen versuchen, jedes Haftungsrisiko zu vermeiden, weil dieses mit hohen Strafen verbunden ist, filtern sie lieber zu viel als zu wenig. Eine logische Folge ist, dass völlig unverdächtige, legale Inhalte den Filtern zum Opfer fallen. Was jedoch im Falle von fälschlich gelöschten Inhalten passiert, legt der Gesetzestext nicht fest. Was vorerst nach einer perfekten Lösung klingt, endet schnell in einer noch größeren Katastrophe. Schon im August 2017 hat YouTube versuchsweise Algorithmen darauf angesetzt, Terrorpropaganda und andere verstörende Videos zu sichten und zu löschen. Der scheinbare Vorteil ist offensichtlich: Kein Mensch muss sich mit der brutalen Gewalt konfrontieren, Maschinen nehmen den menschlichen Kontrolleuren die belastende Arbeit ab. Doch wenige Wochen später gab es einen Aufschrei von hunderten Aktivist*innen. YouTube hatte tausende, wichtige Videos gelöscht und dadurch die Aufklärung von internationalen Kriegsverbrechen erschwert und gar verhindert. Wie es zu solchen Fehlern kommt, ist anschließend sehr schwer nachzuvollziehen, denn derartige Entscheidungen werden von künstlichen neuronalen Netzen selbst getroffen. Wer ist also verantwortlich zu machen, für entstandene Fehler?

Die Verfassung der Welt

Der Staat entledigt sich selbst einer zentralen Verantwortung – nämlich, in einer digitalen Gesellschaft darüber zu entscheiden, was gesagt und gezeigt werden darf oder was offensichtlich rechtswidrig ist und deswegen aus der digitalen Sphäre verbannt werden muss. Mehr und mehr nationalstaatliche Aufgaben werden an private Unternehmen ausgelagert. Dass sich diese Unternehmen nicht in erster Linie hehre, gesellschaftliche Ziele setzen, sondern als Wirtschaftsunternehmen danach streben, möglichst viel Profit einzuspielen, sollte uns nicht verwundern.

Deswegen ist es umso wichtiger, dass wir uns die Entscheidungshoheit über den digitalen Raum zurückerobern. Eine der zentralen Fragen wird sein, wie in Zukunft in der digitalen Öffentlichkeit das Recht auf freie Meinungsäußerung gegen das Schutzbedürfnis der Menschen abgewogen wird. Es geht um Grundsätzliches: Wollen wir eine offene oder eine geschlossene Gesellschaft für den digitalen Raum entwerfen? Im Kern geht es um Freiheit versus Sicherheit.

Indem sich das Netz immer mehr mit der dinglichen Welt um uns herum verflicht, werden wir schon in wenigen Jahren kaum noch zwischen dem analogen und dem digitalen Raum unterscheiden. Was im Netz gilt, wird auch für das Leben auf Straßen, Plätzen, in Parks und das sonstige öffentliche Leben prägend werden, weil sich der gegenständliche und der virtuelle Raum immer weiter übereinanderschieben.

Auch das weltweite Wiedererstarken von Nationalismus sollte uns nicht darüber hinweg täuschen, dass sich laut Umfragen hunderte Millionen Menschen als Weltbürger*innen fühlen. Die »Community Standards«, mit denen es den sozialen Netzwerken mehr oder weniger gelingt, das digitale Verhalten von Menschen aus aller Welt miteinander zu vereinbaren, wird von diesen Weltbürger*innen mehr und mehr als eine Art globale Verfassung wahrgenommen werden. Wenn wir die Rechtsdurchsetzung – so wie es sich zur Zeit weltweit abzeichnet – immer mehr den transnationalen Unternehmen überlassen, die die digitale Öffentlichkeit betreiben, dann wird diese gefühlte Weltverfassung sogar handfeste juristische Wirksamkeit haben.

Noch besteht die Chance, die Walled Gardens zurückzuerobern, indem wir ihre Mauern einreißen und den »Landraub«, den Facebook, Google, Twitter & Co. betrieben haben, rückgängig machen. Noch besteht die Chance, für diesen transnationalen digitalen Raum diverse, liquide, digitale demokratische Institutionen zu fordern und mitzuentwickeln, um demokratisch und unter Mitwirkung möglichst vieler Menschen unterschiedlicher ethnischer und kultureller Hintergründe mitzugestalten, unter welcher Verfassung Menschen in Zukunft leben. Es ist ein utopisches Projekt und womöglich würde sich bald zeigen, dass die Verständigung zwischen Menschen so unterschiedlicher Herkünfte und Lebensweisen langwieriger und mühseliger ist, als es uns Kosmopoliten in unserer Euphorie beizeiten bewusst ist. Aber es ist ein Projekt, das an den Ursprungsgedanken des World Wide Web anknüpfen würde.

The goal of the Web is to serve humanity. The Web as I envisaged it, we have not seen it yet. The future is still so much bigger than the past.« (Tim Berners-Lee)



All images  from the film The Cleaners

© Max ­Preiss/Axel Schneppat,

gebrueder beetz filmproduktion

  • Politik der Medien
  • Soziale Netzwerke
  • Medien des Sozialen
  • Algorithmen
  • Social Media
  • Massenmedien
  • Zensur
  • Daten
  • Digitale Medien

Meine Sprache
Deutsch

Aktuell ausgewählte Inhalte
Deutsch, Englisch, Französisch

Hans Block

Hans Block

is a German theatre, radio, and film director and musician. He studied percussion at the University of the Arts and directing at the Ernst Busch University of Performing Arts in Berlin. A number of his productions (at the Maxim Gorki Theater Berlin, Schauspiel Frankfurt, Münchner Volkstheater, and elsewhere) were invited to the Radikal Jung festival of directing or the directors’ studio at the Schauspiel Frankfurt. His radio play Don Don Don Quijote – Attackéee was a winner at the international PRIX MARULIC festival. He develops cross-media narrative forms together with Moritz Riesewieck under the name of Laokoon.
Weitere Texte von Hans Block bei DIAPHANES
Moritz Riesewieck

Moritz Riesewieck

ist Autor, Theater- und Filmregisseur. Er studierte erst Wirtschaftswissenschaft, dann Regie an der Hochschule für Schauspielkunst »Ernst Busch« in Berlin. Seine Theaterarbeiten wurden u.a. am Schauspiel Dortmund, beim Internationalen Forum des Berliner Theatertreffens und in Mexico City gezeigt. 2015 wurde Moritz Riesewieck zum Heidelberger Stückemarkt eingeladen und mit dem Elsa-Neumann-Stipendium des Landes Berlin ausgezeichnet. Sein Essay Digitale Drecksarbeit – Wie uns Facebook & Co. von dem Bösen erlösen (dtv) ist vor kurzem als Buch erschienen. Zusammen mit Hans Block entwickelt er unter dem Namen Laokoon crossmediale Erzählformate.
Weitere Texte von Moritz Riesewieck bei DIAPHANES