Das Weltwirtschaftsforum (WEF) hat diesen Monat einen Artikel veröffentlicht, in dem es vor einer “dunklen Welt an Online-Schäden” warnt und eine “Lösung” für den “Online-Missbrauch” fordert, die durch künstliche Intelligenz (KI) und menschliche Intelligenz unterstützt werden soll.

In dem Vorschlag wird ein auf KI basierendes System gefordert, das die Zensur von “Fehlinformationen” und “Hassreden” automatisieren und die Verbreitung von “Kindesmissbrauch, Extremismus, Desinformation, Hassreden und Betrug” im Internet bekämpfen soll.

Der Autorin des Artikels, Inbal Goldberger, zufolge sind menschliche “Vertrauens- und Sicherheitsteams” allein nicht in der Lage, solche Inhalte online zu kontrollieren.

Goldberger ist Vizepräsidentin von ActiveFence Trust & Safety, einem Technologieunternehmen mit Sitz in New York City und Tel Aviv, das nach eigenen Angaben “automatisch Daten aus Millionen von Quellen sammelt und kontextbezogene KI anwendet, um Vertrauens- und Sicherheitsoperationen jeder Größe zu unterstützen”.

Anstatt sich ausschließlich auf menschliche Moderationsteams zu verlassen, schlägt Goldberger ein System vor, das auf “von Menschen kuratierter, mehrsprachiger, plattformunabhängiger Intelligenz” basiert – mit anderen Worten: Input, der von “fachkundigen” menschlichen Quellen bereitgestellt wird, die dann “Lernsets” erstellen, mit denen die KI trainiert wird, um vermeintlich schädliche oder gefährliche Inhalte zu erkennen.

Diese “plattformfremde Intelligenz” – laut Didi Rankovic von ReclaimTheNet.org eher maschinelles Lernen als KI an sich – würde aus “Millionen von Quellen” gesammelt und dann zusammengefasst und zusammengeführt, bevor sie für “Entscheidungen zur Entfernung von Inhalten” seitens der “Internetplattformen” verwendet würde.

Laut Goldberger würde das System “intelligentere automatische Erkennung mit menschlichem Fachwissen” ergänzen und die Schaffung von “KI mit eingebauter menschlicher Intelligenz” ermöglichen.

Dies wiederum würde Schutz vor “zunehmend fortschrittlichen Akteuren, die Plattformen auf einzigartige Weise missbrauchen”, bieten.

“Ein menschlicher Moderator, der Experte für europäische weiße Vorherrschaft ist, wird nicht unbedingt in der Lage sein, schädliche Inhalte in Indien oder Fehlinformationen in Kenia zu erkennen”, erklärte Goldberger.

Durch die einzigartige Kombination aus innovativer Technologie, der Sammlung von Informationen außerhalb von Plattformen und der Kompetenz von Experten, die wissen, wie Bedrohungsakteure vorgehen, kann die Erkennung von Online-Missbrauch auf breiter Front nahezu perfekt sein”, da diese Lernsätze im Laufe der Zeit in die KI integriert werden”, so Goldberger.

Dies wiederum würde es den “Vertrauens- und Sicherheitsteams” ermöglichen, “Bedrohungen im Internet zu stoppen, bevor sie die Nutzer erreichen”, fügte sie hinzu.

In seiner Analyse, wie Goldbergers Vorschlag in der Praxis aussehen könnte, erklärte der Blogger Igor Chudov, wie die Überwachung von Inhalten in den sozialen Medien heute auf jeder einzelnen Plattform erfolgt.

Die Moderatoren von Twitter schauen sich beispielsweise nur die Inhalte an, die auf dieser Plattform gepostet werden, nicht aber die Inhalte eines Nutzers, die außerhalb von Twitter gepostet werden.

Chudov argumentierte, dass dies der Grund ist, warum das WEF einen Vorschlag zu unterstützen scheint, “über die großen Internetplattformen hinauszugehen, um Informationen über Menschen und Ideen überall sonst zu sammeln”.

“Ein solcher Ansatz”, so Chudov, “würde es ihnen ermöglichen, besser zu wissen, welche Person oder Idee sie zensieren müssen – und das auf allen großen Plattformen gleichzeitig.”

Die “Erkenntnisse”, die das System aus seinen “Millionen von Quellen” sammelt, würde, so Chudov, “Gedanken erkennen, die ihnen nicht gefallen”, was zu “Entscheidungen über die Entfernung von Inhalten führt, die an Twitter, Facebook und so weiter weitergegeben werden… eine große Veränderung gegenüber dem Status quo, bei dem jede Plattform auf der Grundlage von Nachrichten, die nur auf dieser speziellen Plattform gepostet werden, selbst entscheidet, was zu tun ist.”

Auf diese Weise wird “die Suche nach falschem Denken globalisiert”, schließt Chudov.

In Reaktion auf den WEF-Vorschlag wies ReclaimTheNet.org darauf hin, dass “man anfangen kann, das Argument hier zu erkennen … als einfaches Drängen sozialer Netzwerke, sich in Richtung ‘präventive Zensur’ zu bewegen”.

Chudov behauptet, dass der WEF den Vorschlag fördert, weil er “ein wenig besorgt ist”, da “nicht genehmigte Meinungen immer beliebter werden und die Online-Zensoren nicht mit den Millionen von Menschen mithalten können, die immer bewusster und lauter werden”.

Dem Daily Caller zufolge wird in dem WEF-Dokument nicht spezifiziert, wie über die Mitglieder des KI-Schulungsteams entschieden wird, wie sie zur Rechenschaft gezogen werden oder ob die Länder Kontrollen über die KI ausüben können”.

In einem Haftungsausschluss, der Goldbergers Artikel begleitete, versicherte das WEF der Öffentlichkeit, dass der in dem Artikel geäußerte Inhalt “die Meinung des Autors und nicht des Weltwirtschaftsforums ist”, und fügte hinzu, dass “dieser Artikel auf Websites geteilt wurde, die routinemäßig Inhalte verdrehen und Fehlinformationen verbreiten”.

Das WEF scheint jedoch für Vorschläge wie den von Goldberger offen zu sein. So wird in einem Artikel auf der WEF-Website vom Mai 2022 das “Oversight Board” von Facebook als Beispiel für ein “reales Governance-Modell” vorgeschlagen, das auf die Governance im Metaverse angewendet werden kann.

Und, wie Chudov anmerkte, “die KI-Inhaltsmoderation fügt sich direkt in das KI-System für die soziale Bonussysteme ein”.

Die UN, unterstützt von der Gates-Stiftung, will ebenfalls “Kette von Fehlinformationen” durchbrechen

Das WEF ist nicht die einzige Einrichtung, die eine strengere Überwachung von Online-Inhalten und “Fehlinformationen” fordert.

So kündigte die UNESCO kürzlich eine Partnerschaft mit Twitter, der Europäischen Kommission und dem Jüdischen Weltkongress an, die zum Start der Kampagne #ThinkBeforeSharing führte, um “die Verbreitung von Verschwörungstheorien zu stoppen”.

Die UNESCO führt aus:

“Die COVID-19-Pandemie hat eine besorgniserregende Zunahme von Desinformation und Verschwörungstheorien ausgelöst.

“Verschwörungstheorien können gefährlich sein: Sie zielen oft auf gefährdete Gruppen ab und diskriminieren sie, ignorieren wissenschaftliche Erkenntnisse und polarisieren die Gesellschaft mit schwerwiegenden Folgen. Das muss aufhören.”

Die Generaldirektorin der UNESCO, Audrey Azoulay, sagte:

“Verschwörungstheorien schaden den Menschen, ihrer Gesundheit und auch ihrer physischen Sicherheit. Sie verstärken und legitimieren falsche Vorstellungen über die Pandemie und verstärken Stereotypen, die Gewalt und gewalttätige extremistische Ideologien schüren können.”

Die UNESCO sagte, dass die Partnerschaft mit Twitter die Menschen darüber informiert, dass Ereignisse auf der ganzen Welt nicht “heimlich hinter den Kulissen von mächtigen Kräften mit negativen Absichten manipuliert werden”.

Die UNESCO hat eine Anleitung herausgegeben, was zu tun ist, wenn man online auf einen “Verschwörungstheoretiker” stößt: Man muss sofort “reagieren”, indem man in den Kommentaren einen entsprechenden Link zu einer “Faktenprüfungs-Website” postet.

Die UNESCO bietet der Öffentlichkeit auch Ratschläge für den Fall, dass jemandem ein “Verschwörungstheoretiker” persönlich begegnet. In diesem Fall sollte die Person es vermeiden, sich zu streiten, da “jedes Argument als Beweis dafür gewertet werden kann, dass Sie Teil der Verschwörung sind und diese Überzeugung verstärken”.

Die Kampagne #ThinkBeforeSharing bietet eine Vielzahl von Infografiken und Begleitmaterialien, die erklären sollen, was “Verschwörungstheorien” sind, wie man sie erkennt, wie man über sie berichtet und wie man allgemein auf sie reagiert.

Diesen Materialien zufolge haben Verschwörungstheorien sechs Dinge gemeinsam, darunter:

  • Ein “angebliches, geheimes Komplott”.
  • Eine “Gruppe von Verschwörern”.
  • “‘Beweise’, die die Verschwörungstheorie zu stützen scheinen.”
  • Vorschläge, die “fälschlicherweise” behaupten, dass “nichts zufällig geschieht und dass es keine Zufälle gibt” und dass “nichts so ist, wie es scheint, und alles miteinander verbunden ist”.
  • Sie teilen die Welt in “gut oder böse” ein.
  • Sie machen Menschen und Gruppen zu Sündenböcken.

Die UNESCO lehnt die Existenz von “Verschwörungstheorien” nicht gänzlich ab, sondern räumt ein, dass “große und kleine Verschwörungen tatsächlich existieren”.

Die Organisation behauptet jedoch, dass sich solche “Verschwörungen” “häufiger auf einzelne, in sich geschlossene Ereignisse oder eine Person wie ein Attentat oder einen Staatsstreich konzentrieren” und nur dann “real” sind, wenn sie “von den Medien aufgedeckt” werden.

Neben dem WEF und der UNESCO hat auch der Menschenrechtsrat der Vereinten Nationen (UN) Anfang des Jahres einen Aktionsplan zur Bekämpfung von Desinformation verabschiedet.

Der von den USA, Großbritannien, der Ukraine, Japan, Lettland, Litauen und Polen unterstützte “Aktionsplan” betont “die vorrangige Rolle, die Regierungen bei der Bekämpfung falscher Narrative spielen”, und bringt gleichzeitig seine Besorgnis zum Ausdruck:

“Die zunehmenden und weitreichenden negativen Auswirkungen auf die Wahrnehmung und Verwirklichung der Menschenrechte durch die absichtliche Erstellung und Verbreitung falscher oder manipulierter Informationen, die darauf abzielen, das Publikum zu täuschen und irrezuführen, entweder um Schaden anzurichten oder um persönlichen, politischen oder finanziellen Gewinn zu erzielen.”

Selbst Länder, die den Plan des Menschenrechtsrats nicht offiziell unterstützt haben, äußerten sich besorgt über die “Desinformation” im Internet.

So bezeichnete China solche “Desinformationen” als “gemeinsamen Feind der internationalen Gemeinschaft”.

Eine frühere UN-Initiative, die in Zusammenarbeit mit dem WEF durchgeführt wurde, rekrutierte 110.000 Informationsfreiwillige”, die, in den Worten von Melissa Fleming, UN-Direktorin für globale Kommunikation, als digitale Ersthelfer” auf Online-Fehlinformationen” reagieren sollten.

Die UN-Initiative #PledgeToPause, die kürzlich als neue Entwicklung in den sozialen Medien kursierte, wurde im November 2020 angekündigt und von den Vereinten Nationen als “die erste globale Kampagne zur Verhaltensänderung in Bezug auf Fehlinformationen” bezeichnet.

Die Kampagne ist Teil einer breiter angelegten UN-Initiative mit dem Namen “Verified“, die darauf abzielt, Teilnehmer zu rekrutieren, die “verifizierte, für die Weitergabe in sozialen Netzwerken optimierte Inhalte” verbreiten, die direkt aus der UN-Kommunikationsabteilung stammen.

Fleming sagte damals, dass die UNO auch “mit Social-Media-Plattformen zusammenarbeitet, um Änderungen zu empfehlen”, um “die Kette der Fehlinformationen zu durchbrechen”.

Sowohl “Verified” als auch die #PledgeToPause-Kampagne scheinen zum Zeitpunkt der Erstellung dieses Artikels noch aktiv zu sein.

Die Initiative “Verified” wird in Zusammenarbeit mit Purpose betrieben, einer Aktivistengruppe, die bereits mit der Bill & Melinda Gates Foundation, der Rockefeller Foundation, Bloomberg Philanthropies, der Weltgesundheitsorganisation, der Chan Zuckerberg Initiative, Google und Starbucks zusammengearbeitet hat.

Seit 2019 besteht eine strategische Partnerschaft zwischen den Vereinten Nationen und dem WEF, die sich auf sechs Schwerpunktbereiche stützt, von denen einer die digitale Zusammenarbeit ist.