Litigationblog

Grundgesetz für den digitalen Raum? – Was sich mit dem neuen Gesetz über digitale Dienste verändert

Der digitale Raum soll durch das neue Gesetz über digitale Dienste (Digital Services Act, DSA) künftig rechtssicherer werden und nach internationalen Standards nutzergerecht reguliert werden. Darauf haben sich Unterhändler der EU-Mitgliedstaaten nach langen Verhandlungen geeinigt. Im Kern nimmt die EU-Kommission nun die Internetkonzerne in die Pflicht, effektiver gegen Hetze, Gewalt und Desinformation vorzugehen, um den digitalen Raum strenger beaufsichtigen zu können und die Verbraucher damit wirksamer zu schützen. Die Kommissionspräsidentin Ursula von der Leyen prognostiziert: „Unsere neuen Regeln werden die Online-Nutzer schützen, die freie Meinungsäußerung gewährleisten und den Unternehmen neue Möglichkeiten eröffnen.“

Wen betreffen die Regelungen des DSA?

Grundsätzlich gilt der DSA für alle digitalen Dienstleister in der EU. Wie stark die Dienstleister reglementiert werden, hängt davon ab, wozu die digitalen Anbieter die persönlichen Daten ihrer Nutzer gebrauchen und welche Reichweite sie haben. Kategorisiert wird dabei in Vermittlungsdienstleister (Daten werden übermittelt), in Hostingdienste (Daten werden übermittelt und gespeichert) und in Plattformen (Daten werden übermittelt, gespeichert, aufbereitet und selektiert). Für die Plattformen, darunter auch die sozialen Netzwerke wie Facebook oder Twitter, gelten dabei die schärfsten Regeln. Außerdem wird bei den Plattformen noch einmal in Reichweite unterteilt, erreicht eine Plattform mehr als 10% der in der EU lebenden Menschen (das sind mindestens 45 Millionen Nutzer), so gelten für diese besonders strenge Regeln und Beaufsichtigungen. Das wird insbesondere Google (mit YouTube), Microsoft, Meta (mit Facebook und Instagram), Amazon, LinkedIn, Twitter und Apple betreffen.

Was regelt der Digital Services Act?

Entfernen illegaler Inhalte

Gemäß dem Prinzip „Was offline illegal ist, soll auch online illegal sein“ will die EU-Kommission künftig Falschinformationen und gewaltsame Äußerungen unter Berücksichtigung der Meinungsfreiheit eindämmen. Dafür sollen die digitalen Anbieter nun Verantwortung für die entsprechenden verstoßenden Inhalte (Terrorpropaganda, Hassrede, gefälschte Produkte etc.) übernehmen und diese in erster Linie löschen, sobald sie über die Inhalte informiert werden. Sowohl Nutzer wie auch EU-Mitgliedstaaten können das Löschen bestimmter Inhalte bindend einfordern. Als Richtwert legt die EU-Kommission dabei 24 Stunden fest. Bei wiederholtem Fehlverhalten sollen die digitalen Anbieter Nutzer auch sperren dürfen. Löscht der Anbieter hingegen unzulässig und unzureichend begründet etwas, können Nutzer Lösch-Entscheidungen der Anbieter anfechten und eventuell entschädigt werden.

Transparenz und Entscheidungsfreiheit

Auch hinsichtlich der Transparenz soll sich einiges im digitalen Raum verbessern. Minderjährige sollen künftig keine personalisierte Werbung mehr erhalten, während sensible Daten wie Gesundheitsinformationen oder politische und sexuelle Orientierungen fortan von der Nutzung für personalisierte Werbeangebote ausgeschlossen sind. Auch soll die digitale subtile Manipulation durch sogenannte „dark patterns“ eingeschränkt werden. Darunter sind Design-Praktiken zu verstehen, die zu bestimmten Entscheidungen führen, indem eine von mehreren Optionen besonders hervorgehoben wird. So sollen irreführende Benutzeroberflächen, wie etwa bei der Cookie-Auswahl auf Websites, weitgehend untersagt sein.

Anbieterprüfung

Für die digitalen Online-Marktplätze (z. B. eBay) wird es mit dem neuen Digitalgesetz nun für die Online-Marktplatzbetreiber verpflichtend sein, die Anbieter von Produkten auf dem Online-Marktplatz zu prüfen, um den Verkauf von gefälschten Produkten zu unterbinden.

Risikoanalysen

Mindestens einmal jährlich sollen die digitalen Anbieter zudem Untersuchungen anstellen, wie sich ihre Dienste auf die Öffentlichkeit auswirken. Auf Anfrage der EU-Kommission kann das Unternehmen auch verpflichtet werden, derartige Risikoanalysen unabhängig von der jährlichen Analyse durchzuführen. Die Analysen sollen dann von Experten geprüft und ausgewertet werden. Der Risikobewertung entsprechend können dann Maßnahmen beschlossen werden, um die Sicherheit des digitalen Raums zu verbessern. Hintergrund ist der derzeitige Usus der Top-Digitalkonzerne, zwar solche Untersuchungen und Risikoanalysen anzustellen, so wie Facebook Hinweise fand, dass Instagram Essstörungen bei Jugendlichen beförderte, aber diese dann nicht veröffentlicht hat und profitbedingt keine Maßnahmen ergriffen hat, die Situation zu verbessern.

Krisenmechanismus

Gänzlich neu und bislang auch umstritten ist die Einführung eines Krisenmechanismus, der es der EU-Kommission ermöglichen soll, in Krisensituationen wie Krieg, Pandemie oder Terror die Auswirkungen von Manipulationen im Netz zu kontrollieren. Die sehr großen Dienste (wie Facebook, Twitter & Co.) sind dann eventuell verpflichtet, Informationen an Aufsichtsbehörden und Experten weiterzuleiten.

Was passiert bei einem Verstoß gegen den Digital Services Act?

Verstößt ein Unternehmen gegen den Digital Services Act, indem etwa illegale Inhalte nicht gelöscht werden, so drohen Bußgelder von bis zu 6% des weltweiten Umsatzes des Unternehmens. Was erst wenig zu sein scheint, stellt sich nach Berechnungen doch als beachtliche Summe heraus: für einen Konzern wie Facebook könnte sich ein derartiges Bußgeld auf bis zu 7 Milliarden Dollar belaufen.

Wie soll das neue Digitalgesetz umgesetzt werden?

Zunächst wird zu klären sein, was als illegaler Inhalt einzustufen ist. Die EU betont, dass lediglich illegale Inhalte gelöscht werden sollen, nicht jedoch Inhalte, die zwar schädlich sind, aber noch unter dem Schutzschirm der Meinungsfreiheit stehen. Wie das konkret abzugrenzen ist, ist im DAS nicht näher geregelt. Nach allgemeinen Regeln sind von der Meinungsfreiheit nicht geschützt: Beleidigungen, üble Nachreden und Verleumdungen.

In der Praxis steht bislang fest: Um die Umsetzung des DSA zu kontrollieren, sollen die großen Digitalkonzerne der EU-Kommission und Wissenschaftlern Zugang zu ihren Daten gewähren. Bei kleineren Firmen sollen dafür Behörden des jeweiligen Landes, in dem die Firma ihren Hauptsitz hat, zuständig sein. Für Deutschland ist noch nicht festgelegt, welche Behörde diese Aufgabe übernehmen wird. In Frage kommen die Bundesnetzagentur oder die Landesmedienanstalten. Die EU setzt überdies in jedem EU-Mitgliedstaat auch Digital Services Coordinators ein, die die Durchsetzung der Regeln überwachen sollen.

Die Gestaltung des rechtssicheren digitalen Raums wird also voraussichtlich in Form einer Annäherung stattfinden, in der Nutzer und Mitgliedstaaten auf illegale Inhalte hinweisen und damit zunehmend schärfer abgrenzen, was unter illegalen Inhalten zu verstehen ist, woraufhin die digitalen Unternehmen zu reagieren und sich anzupassen haben.

Ein Wendepunkt in der Geschichte der Internetregulierung?

Es ist unwahrscheinlich, dass illegale Inhalte aus dem digitalen Raum verschwinden werden. Allerdings ist mit dem Digital Services Act nun ein supranationaler Rahmen gesteckt, der die digitalen Konzerne stärker in die Verantwortung nimmt und von ihnen Maßnahmen zur Eindämmung von Hetze, Gewalt und Desinformation einfordert. Ein grundsätzliches Problem wird jedoch bleiben: Nach wie vor ist nicht klar umrissen, was illegale Inhalte sind. Bevor die Gerichte ultimativ darüber entscheiden können, wird es zunächst im Verantwortungsbereich der Unternehmen liegen, die Grenzen der Meinungsfreiheit zu interpretieren. Spätestens zum 01. Januar 2024 soll das DSA in Kraft treten, wenn sowohl EU-Parlament und Rat der EU-Mitgliedstaaten zugestimmt haben. Dann wird auch zu bewerten sein, welche praktische Bedeutung das Gesetz hat und wie wirksam es den digitalen Raum sicherer macht.