In den letzten Jahren haben wir unsere Anstrengungen verdoppelt, um unserer Verantwortung gerecht zu werden und gleichzeitig
die Faszination einer offenen Plattform zu bewahren. Dabei haben wir uns an den folgenden vier Prinzipien orientiert:
Im Laufe der kommenden Monate möchten wir euch darüber informieren, was wir konkret für die Umsetzung dieser Prinzipien tun. In diesem ersten Teil beschäftigen wir uns mit dem
Entfernen von unzulässigem Content. Schädliche Inhalte haben wir schon immer entfernt, seit es YouTube gibt. In den letzten Jahren haben wir unsere Arbeit in diesem Bereich jedoch intensiviert. Unten findet ihr eine kurze Zusammenfassung der zwölf wichtigsten Verbesserungen seit 2016. Im Zuge dieser fortlaufenden Bemühungen konnten wir über die letzten 18 Monate die Zahl der Aufrufe von Videos, die gegen unsere Richtlinien verstoßen und später entfernt werden, um 80 % senken. Wir arbeiten kontinuierlich daran, diese Zahl noch weiter zu reduzieren.
Entwicklung von Richtlinien für eine globale Plattform
Bevor wir eingreifen und Inhalte entfernen, die gegen unsere Richtlinien verstoßen, müssen wir uns sicher sein, dass wir die Grenze zwischen schädlichen und zulässigen Inhalten an der richtigen Stelle ziehen. Schließlich möchten wir die lebendige YouTube-Community schützen und fördern, ohne die freie Meinungsäußerung einzuschränken. Daher beschäftigen wir ein eigenes Team für die Entwicklung von Richtlinien. Dieses Team überprüft sämtliche Richtlinien systematisch daraufhin, ob sie noch zeitgemäß sind, die Sicherheit unserer Community gewährleisten und genügend Raum für die freie Entfaltung auf YouTube lassen.
Bei der Prüfung einzelner Richtlinien stellen wir häufig fest, dass gar keine grundsätzlichen Änderungen erforderlich sind. Manchmal aber stoßen wir auf Formulierungen, die aus Sicht der Community vage oder verwirrend sind. Insofern dienen viele Aktualisierungen im Grunde nur der Klärung bestehender Leitlinien. Zum Beispiel haben wir dieses Jahr
näher erläutert, wann wir eine „Challenge“ als zu gefährlich für YouTube einstufen. Seit 2018 haben wir unsere Richtlinien mehrere Dutzend mal aktualisiert, darunter manche kleinere Anpassungen aber ebenso solche von substanzieller Natur.
In besonders komplizierten Fällen arbeiten wir manchmal mehrere Monate an einer neuen Richtlinie. In dieser Zeit sprechen wir mit unabhängigen Experten und YouTube Creators, um herauszufinden, warum die bestehende Richtlinie nicht ausreicht. Wir berücksichtigen dabei auch regionale Unterschiede, damit die vorgeschlagenen Änderungen auf der ganzen Welt angewendet werden können.
Unsere
Aktualisierung der Richtlinie zur Hate Speech ist ein gutes Beispiel für eine solche grundlegende Überarbeitung. Wir haben die Neufassung über Monate mit großer Sorgfalt ausgearbeitet und gemeinsam mit unseren Teams die erforderlichen Schulungen und Tools für ihre Anwendung entwickelt. Entsprechend der Anfang Juni eingeführten neuen Richtlinie prüfen und entfernen unsere Teams nun mehr problematische Inhalte, und mit der neuen Praxis wird sich auch die maschinelle Erkennung verbessern. Es kann Monate dauern, bis wir eine neue Richtlinie wirklich umsetzen können. Doch der tiefgreifende Effekt der Hate Speech-Richtlinie lässt sich jetzt schon eindeutig an den aktuellen Daten des Quartalsberichts
YouTube-Community-Richtlinien und ihre Anwendung ablesen:
Die große Zahl entfernter Inhalte erklärt sich teilweise aus der Tatsache, dass viele ältere Kommentare, Videos und Kanäle nach der neuen Richtlinie nicht mehr zulässig waren. Im
April 2019 haben wir angekündigt, dass wir auch an einer Aktualisierung unserer Richtlinie zu Belästigung arbeiten, die auch Belästigung innerhalb der Creator-Community einschließt.
Maschinelle Erkennung problematischer Inhalte
Wenn wir eine Richtlinie festgelegt haben, setzen wir auf eine Kombination aus Mensch und Technologien, um die problematischen Inhalte herauszufiltern und unseren Prüfteams zu melden. Manchmal verwenden wir sogenannte Hashes („digitale Fingerabdrücke“), um bekannte unzulässige Inhalte zu erfassen, bevor diese überhaupt veröffentlicht werden. Bei bestimmten Inhalten wie Darstellungen des sexuellen Missbrauchs von Kindern (child sexual abuse images, CSAI) oder Videos zur Rekrutierung von Terroristen beteiligen wir uns an gemeinsamen Branchen-Datenbanken für solche Hashes. Dadurch können unsere Maschinen ein größeres Volumen an Inhalten bereits dann erfassen, wenn der Content noch hochgeladen wird.
2017 haben wir den Einsatz maschinellen Lernens ausgeweitet, um potenziell unzulässige Inhalte herauszufiltern und dann von Menschen überprüfen zu lassen. Maschinelles Lernen eignet sich gut, um bestimmte Muster zu erkennen. Die Technologie hilft uns, noch vor einer Veröffentlichung Content zu identifizieren, der bereits entfernten Inhalten ähnelt (aber nicht mit ihnen identisch ist). Diese Systeme sind also besonders effektiv, wenn es darum geht, Inhalte mit typischen Mustern zu melden – beispielsweise Spam oder Pornografie. Maschinen helfen auch, Hate Speech oder anderen unzulässigen Inhalt herauszufiltern, wobei diese Kategorien stark kontextabhängig sind. Hier zeigt sich, wie wichtig die Überprüfung durch Menschen ist, wenn man zu einem differenzierten Urteil kommen will. Trotzdem wurden 87 % der 9 Millionen Videos, die wir im zweiten Quartal des Jahres 2019 entfernt haben, zuerst durch unsere ML-Technologie erkannt.
Wir investieren kontinuierlich in diese automatisierten Erkennungssysteme. Unsere technischen Teams aktualisieren und überarbeiten sie monatlich. So hat eine Aktualisierung unseres Spam-Erkennungssystems im zweiten Quartal 2019 dazu geführt, dass die Zahl der Kanäle, die wir aufgrund von Verstößen gegen unsere Spam-Richtlinien gesperrt haben, um 50 % gestiegen ist.
Verbreitung unzulässiger Inhalte verhindern
Wir geben uns große Mühe, regelwidrige Inhalte aus dem Verkehr zu ziehen, bevor sie angesehen werden oder sich nennenswert verbreiten können. Wie bereits erwähnt, haben die verbesserten automatischen Meldesysteme dazu beigetragen, dass wir problematischen Content erkennen und prüfen können, bevor unsere Community ihn meldet. Der Effekt: Im zweiten Quartal 2019 wurden mehr als 80 % dieser automatisch gemeldeten Videos entfernt, ehe sie auch nur einmal angesehen werden konnten.
Wir wollen aber noch besser werden und die Verbreitung von Videos, die gegen unsere Richtlinien verstoßen, weiter minimieren. Daher haben wir bei Google insgesamt über
10.000 Menschen beauftragt, regelwidrige Inhalte zu erkennen, zu prüfen und zu entfernen.
Beispielsweise kamen die fast 30.000 Videos, die wir im letzten Monat wegen Hassreden entfernt haben, nur auf 3 % der Aufrufe, die Videos zum Thema Stricken im selben Zeitraum erreichten.
In der letzten Woche haben wir unseren vierteljährlichen Bericht
YouTube-Community-Richtlinien und ihre Anwendung aktualisiert. Er gibt zusätzliche Einblicke, in welchem Umfang wir Inhalte von YouTube entfernen, warum wir sie entfernen und wie sie erkannt werden. Der Bericht zeigt, wie die in den letzten Jahren eingeführte Technologie dazu beigetragen hat, dass wir schädliche Inhalte schneller als je zuvor von YouTube entfernen können. Er macht auch deutlich, warum das menschliche Urteilsvermögen nach wie vor ein wichtiger Aspekt bei der Anwendung der Richtlinien ist. Schließlich möchten wir mit unseren Richtlinien dem Einzelfall gerecht werden, Inhalte mit Umsicht prüfen und unsere ML-Technologie verantwortungsbewusst einsetzen.