Aktuelle Entwicklungen der Haftung von Plattformen für Deep Fakes im Kontext des Digital Services Act (DSA) und der Rechtsprechung.
KI generiertes Bild – cadi communication design | filiz dindin
Allgemeine Haftungsregeln
Die Haftung von Plattformen für fremde Rechtsverletzungen ist im Wandel. Der BGH hat seine frühere Rechtsprechung geändert, sodass Plattformen nun als Täter oder Mittäter angesehen werden können, wenn sie trotz Kenntnis von Rechtsverstößen nicht handeln.
Die Haftung als Störer bleibt bestehen, jedoch wird die Begrifflichkeit zunehmend durch die des Täters ersetzt, da Plattformen unter bestimmten Bedingungen als (Mit-)Täter gelten müssen.
Ansprüche auf Unterlassung, Löschung und Schadensersatz richten sich nach nationalem Recht.
Neue Rechtsprechung zu Social Media
Soziale Medien übernehmen zunehmend die Rolle traditioneller Medien und sind mit neuen Haftungsfragen konfrontiert.
Wichtige Urteile des OLG Frankfurt a. M. klären, wann Plattformen für rechtswidrige Inhalte haften und welche Anforderungen an qualifizierte Meldungen bestehen.
Der Digital Services Act (DSA) harmonisiert die Verantwortlichkeiten von Plattformen und ersetzt das Telemediengesetz (TMG).
Haftungsausschlüsse nach DSA
Der DSA regelt eine abgestufte Haftung für Plattformen, wobei eine Haftung ausgeschlossen ist, wenn die Plattform keine Kenntnis von rechtswidrigen Inhalten hat.
Das Notice-and-Take-Down-Prinzip bleibt bestehen, wonach Plattformen erst nach einer entsprechenden Mitteilung zur Löschung verpflichtet sind.
Rechtswidrige Inhalte sind alle Informationen, die nicht im Einklang mit dem Unionsrecht oder nationalem Recht stehen.
Anforderungen an Organisation und Überwachung
Der DSA legt umfangreiche Organisationspflichten für große Plattformen fest, um Sicherheit, Transparenz und Rechenschaftspflicht zu erhöhen.
Plattformen müssen Risikobewertungen durchführen, ein Meldesystem einrichten und mit nationalen Behörden zusammenarbeiten.
Notice and Take Down, E-Commerce-RL und DSA
Die E-Commerce-Richtlinie regelte die Haftung von Anbietern und schützt sie vor Verantwortung für Nutzerinhalte, solange sie bei Kenntnis schnell handeln.
Der DSA greift diese Regelungen auf und präzisiert die Haftungsprivilegierung für Hosting-Dienste.
Qualifizierte Notifizierung
Die Haftung des Hostproviders setzt eine konkrete Verdachtsmeldung voraus. Plattformen haften nur, wenn die Meldungen so konkret sind, dass ein Rechtsverstoß leicht erkennbar ist.
Ein Anwaltsschreiben allein reicht nicht aus, um der Plattform die erforderliche Kenntnis zu vermitteln.
Unterlassungsansprüche
Ansprüche auf Unterlassung und Löschung basieren auf den §§ 1004 und 823 BGB, wobei die Begriffe teilweise synonym verwendet werden.
Bei Persönlichkeitsrechten ergibt sich ein Unterlassungsanspruch aus den Grundrechten und der Rechtsprechung.
Sonderfall Persönlichkeitsrechte
Deep-Fake-Videos können einen rechtswidrigen Eingriff in das allgemeine Persönlichkeitsrecht darstellen, wenn sie den Eindruck erwecken, dass eine Person Äußerungen gemacht hat, die sie nicht getätigt hat.
Der Eingriff ist rechtswidrig, wenn das Schutzinteresse des Betroffenen die Belange der anderen Seite überwiegt.
Anspruch auf Löschung sinngleicher Inhalte
Plattformen müssen auch sinngleiche Inhalte löschen, wenn diese in ihrer Aussage identisch sind, auch wenn sie in der Form abweichen.
Beiträge, die nicht im Wesentlichen identisch sind, fallen nicht unter diese Regelung.
Anspruch auf Löschung ganzer Nutzerkonten
Ein Anspruch auf Löschung von Nutzerkonten besteht, wenn diese ausschließlich zur Verbreitung rechtsverletzender Inhalte genutzt werden.
Die Löschung ganzer Profile ist ein erheblicher Eingriff, der nur bei klarer Rechtsverletzung gerechtfertigt ist.
Technische Umsetzung der automatisierten Erkennung und Löschung
Plattformen müssen technische Mittel zur Erkennung von Deep Fakes einsetzen. Die Rechtsprechung erkennt KI-basierte Software als Standard zur Überprüfung von Rechtsverletzungen an.
Die Plattformen sind verpflichtet, bei Kenntnis von rechtsverletzenden Inhalten unverzüglich zu handeln.
Übertragung der Grundsätze auf andere Plattformen und Schutzrechte
Die Rechtsprechung zur Haftung von Plattformen wird durch den Einsatz von KI zur Überprüfung von Inhalten geprägt.
Die Anforderungen an die Zumutbarkeit der Überprüfung könnten durch technische Entwicklungen weiter gesenkt werden.
Praxishinweis
Plattformen müssen ein effektives Meldesystem für Rechtsverletzungen bereitstellen, das detaillierte und rechtlich fundierte Meldungen erfordert.
Anwälte sollten bei der Meldung von Rechtsverletzungen präzise und ausführlich vorgehen, um die Plattform in die Lage zu versetzen, eine Rechtsverletzung zu erkennen.
Die Definition von sinngleichen Inhalten ist klarer geworden, wobei die Identität und der Inhalt entscheidend sind.
Die Möglichkeit einer KI-basierten Überprüfung wird anerkannt, jedoch bleibt ein menschlicher Gegencheck erforderlich.
Die Rechtsprechung zu Persönlichkeitsrechten und Deep Fakes ist noch nicht abschließend geklärt, da die Umstände des Einzelfalls entscheidend sind.
Die Löschung ganzer Nutzerprofile ist nicht immer erforderlich, sondern nur, wenn diese ausschließlich für Rechtsverletzungen genutzt werden.
Text: Carsten Bildhäuser
Bild: cadi communication design | filiz dindin