FM4-Logo

jetzt live:

Aktueller Musiktitel:

EU-Flagge sowie die Logos von Facebook, Apple und Google

Radio FM4

Rufe nach strengeren Regeln für Internetriesen nach Sturm auf Kapitol

Der im Dezember von der EU-Kommission vorgeschlagene Rahmen für digitale Dienste soll noch einmal verschärft werden. Auslöser dafür war der Sturm auf das Kapitol in den Vereinigten Staaten.

Von Christoph „Burstup“ Weiss

Mit zwei Verordnungen, dem Digital Services Act (DSA) und dem Digital Market Act (DMA), plant die EU-Kommission schon seit längerem, die Regulierung von Giganten wie Facebook, Apple und Google zu verschärfen. Mögliche Strafen in Milliardenhöhe sollen die Marktmacht der Konzerne begrenzen. Die Bildung von Monopolen soll so verhindert werden. Für Inhalte in Sozialen Medien soll eine Sorgfaltspflicht eingeführt werden. Seit dem Sturm auf das Kapitol in den Vereinigten Staaten werden entsprechende Forderungen lauter.

Bereits im Dezember des Vorjahrs hat die EU-Kommission die lange erwarteten Entwürfe für die Verordnungen veröffentlicht. Im Digital Market Act sind strenge Kartellbestimmungen enthalten, mit denen die monopolartige Macht von Konzernen wie Apple, Google, Amazon eingeschränkt werden soll. Konzerne dürfen dann etwa in Trefferlisten ihrer Suchanfragen nicht mehr ihre eigenen Dienste und Angebote bevorzugt präsentieren. Nutzer müssen dann persönlich einwilligen, wenn ein Anbieter ihre auf einem Portal erzeugten Daten mit denen eines anderen Services zusammenführen will - eine Maßnahme, die zuletzt aufgrund der Debatte über die geplante Zusammenführung der Profildaten von Facebook und Whatsapp brandaktuell ist.

Der Digital Services Act soll eine europaweit einheitliche Social-Media-Regulierung beinhalten, weil sonst nationale Alleingänge wie das Netzwerkdurchsetzungsgesetz in Deutschland oder das “Hass im Netz”-Paket in Österreich den europäischen Binnenmarkt behindern würden. Derzeit müssen sich Online-Plattformen an immer mehr unterschiedliche, teils widersprüchliche nationale Regelwerke halten.

Im Digital Services Act werden Regeln zur Entfernung von Gewaltverherrlichung und Hasspostings formuliert. Positiv daran ist, dass der Grundsatz beibehalten wird, die Plattformen für die Inhalte ihrer User*innen nicht haftbar zu machen und sie nicht zum Einsatz von Uploadfiltern zu zwingen.

Der Entwurf sieht erstmals auch ein einheitliches System für das Notice- und Takedown-Verfahren vor, also über die Prozedur, mittels derer die Plattformen Informationen über potenziell illegale Inhalte sammeln. Demnach müssen die Provider den User*innen ein System anbieten, mit dem sie mutmaßlich illegale Inhalte melden können. Außerdem müssen Systeme eingerichtet werden, mit denen Beschwerdeverfahren gegen widerrechtliche Sperren möglich sind.

Geplant ist auch eine Verpflichtung zur Transparenz hinsichtlich der Algorithmen, die Social-Media-Plattformen verwenden. Margrethe Vestager, Vizepräsidentin der EU-Kommission, dort für Digitales zuständig und eine der treibenden Kräfte hinter den Verordnungen, ist außerdem der Kampf gegen Desinformation besonders wichtig.

Ihr Kollege, der EU-Binnenmarkt-Kommissar Thierry Breton, bezeichnet in einem Gastartikel auf Politico.com den Sturm auf das Kapitol als das „9/11 der digitalen Medien“. Er schreibt: “So wie der 11. September einen Paradigmenwechsel bei der weltweiten Sicherheitspolitik markiert hat, werden wir 20 Jahre später Zeugen eines Vorher-Nachher bei der Rolle von digitalen Plattformen in unserer Demokratie”.

Der Vergleich löst zurecht Stirnrunzeln aus. Seit 9/11 entledigen wir uns am Flughafen unserer Wasserflaschen, gehen in Socken durch die Kontrolle und müssen generell mit zunehmender Überwachung im Cyberspace und in der physischen Welt leben. Doch alle Fraktionen im EU-Parlament (mit Ausnahme der Piraten) stimmen heute zu, dass der Sturm auf das US-Kapitol Verschärfungen der ohnehin geplanten Internetregulierungen rechtfertigt. Zu den vor kurzem - nämlich im Jänner - zusätzlich beschlossenen Maßnahmen zählt etwa eine Frist von nur einer Stunde, innerhalb derer die Betreiber von Social Media mutmaßlich „terroristische Inhalte“ löschen müssen.

Die Ein-Stunden-Frist sei unrealistisch und kaum zu erfüllen, kritisiert die französische Bürgerrechtsorganisation La Quadrature du Net den Plan. Diensteanbieter würden aufgrund drohender hoher Geldstrafen gezwungen, „alle potenziell illegalen Inhalte proaktiv zu zensieren“. Dafür würden sie dann mit großer Wahrscheinlichkeit automatisierte Werkzeuge der Massenüberwachung nutzen, die von Google und Facebook entwickelt wurden. Das französische Verfassungsgericht habe eine vergleichbare nationale Auflage im Juni gekippt. Trotz massiver Kritik hat der federführende Ausschuss für bürgerliche Freiheiten, Justiz und Inneres des EU-Parlaments im Jänner für einen Verordnungs-Entwurf gestimmt, der auch in den Digital Services Act eingearbeitet werden soll.

Vor dem Sturm auf das US-Kapitol war die Kritik an derartigen Ideen lauter. Noch im Dezember hat etwa Timo Wölken, bei den Sozialdemokraten im EU-Parlament für Digitales zuständig, über den Digital Services Act gesagt: “Wir stehen vor dem großen Problem des Overblockings, dass also legale Inhalte aufgrund der Haftungsverschärfung gelöscht werden.” Solcherart Kritik ist seit den Ereignissen in Washington DC leiser geworden. Dabei wäre eine Debatte durchaus wünschenswert. Thierry Breton - auch ein Proponent des Digital Services Act - schreibt in seinem Gastkommentar zurecht, dass die Sperre des Twitter-Accounts von Donald Trump die Frage aufwerfe: „Warum haben sie [Twitter und Facebook] es nicht geschafft, die Fake News und Hassreden, die zu dem Anschlag am Mittwoch führten, von vornherein zu verhindern?“ Er fordert, dass die EU und die neue US-Regierung gemeinsam kohärente, globale Regulierungsprinzipien für Facebook & Co. vorantreiben.

Laut Entwurf zum Digital Services Act muss das Entfernen von Inhalten auf Social Media durch sogenannte „Trusted Notifiers“ erfolgen. Dabei handelt es sich um Organisationen, die auch heute schon Hinweise auf illegale Inhalte an die Plattformen liefern. Diese „vertrauenswürdigen Hinweisgeber“ sollen durch den Digital Service Act in Zukunft aber verpflichtend eingebunden werden. Wer sollen diese Hinweisgeber sein? Sebastian Schwemer, Professor im Centre for Information and Innovation Law an der Uni Kopenhagen, sagt: “Diese Trusted Notifiers sind etwa die Motion Pictures Association of America für Urheberrechtsfragen, die Internet Watch Foundation für Übergriffsmaterial oder die Amadeu-Antonio-Stiftung hinsichtlich rechtsextremen Materials. Sie haben besonderes Wissen in ihrem Bereich, aber natürlich auch besonders großes Interesse daran, Inhalte zu entfernen. Das Risiko besteht darin, dass Plattformen - ohne sich noch einmal genau anzusehen, was da eigentlich ist - im Schnellverfahren die Entfernung akzeptieren.”

Um zu verhindern, dass völlig willkürlich Inhalte gelöscht und Accounts gesperrt werden, sieht der Digital Services Act vor, dass die Hinweisgeber ihre Regeln und Maßnahmen öffentlich machen müssen. Das EU-Parlament muss über die Entwürfe zu Digital Services Act und Digital Market Act noch abstimmen. Facebook hat angekündigt, in Zukunft noch stärker auf Künstliche Intelligenz zu setzen, um gewaltverherrlichende Inhalte herabzustufen. Die Kommentarfunktion in Gruppen mit einem hohen Anteil an Hassrede solle zukünftig automatisch blockiert werden.

Aktuell: