Finden Sie Die Kompatibilität Durch Zodiac -Zeichen Heraus
Wikipedia-Vandalismus könnte Hoax-Busting auf Google, YouTube und Facebook vereiteln
Fakten Überprüfung

Für einen kurzen Moment unterstützte die California Republican Party den Nationalsozialismus. Das sagt zumindest Google.
Das liegt daran, dass jemand am 31. Mai die Wikipedia-Seite der Partei verwüstet hat, um „Nationalsozialismus“ neben Ideologien wie „Konservatismus“, „Marktliberalismus“ und „Steuerkonservatismus“ aufzulisten. Der Fehler wurde mit Google aus den Suchergebnissen entfernt Klärung gegenüber Vice News dass die Suchmaschine den Vandalismus im Wikipedia-Eintrag nicht erfasst hatte.
Wenn Sie bei Google nach „Kalifornien-Republikaner“ suchen, listet Google „Nazismus“ als eine der Ideologien auf. pic.twitter.com/JblamxkyF7
– Eric Wilson (@ericwilson) 31. Mai 2018
Google hat lang gezogen die Online-Enzyklopädie zum Anhängen grundlegender Informationen an Suchergebnisse. Entsprechend das Bearbeitungsprotokoll für die kalifornische GOP-Seite, jemand fügte „Nationalsozialismus“ hinzu am 31. Mai gegen 7:40 UTC in den Ideologiebereich der Partei. Die Bearbeitung wurde innerhalb einer Minute entfernt, aber es scheint, dass der Algorithmus von Google die Seite gerade rechtzeitig für die Fälschung gelöscht hat.
„Manchmal zerstören Menschen öffentliche Informationsquellen wie Wikipedia, was sich auf die Informationen auswirken kann, die in der Suche erscheinen“, sagte ein Google-Sprecher Poynter in einer E-Mail. „Wir haben Systeme eingerichtet, die Vandalismus erkennen, bevor er sich auf die Suchergebnisse auswirkt, aber gelegentlich kommen Fehler durch, und genau das ist hier passiert.“
Auch die Wikimedia Foundation, eine gemeinnützige Organisation, die Wikipedia betreibt, gab auf Twitter eine Erklärung ab.
Ein Google Knowledge Panel-Ergebnis offenbarte Vandalismus von a @Wikipedia Artikel heute. Hier erfahren Sie mehr darüber, was passiert ist und wie Vandalismus auf Wikipedia angegangen wird. pic.twitter.com/fcoaK2DsXq
— Wikimedia (@Wikimedia) 1. Juni 2018
Laut Google sind mehr als 99,9 Prozent der Wikipedia-Änderungen, die in Knowledge Panels angezeigt werden, die grundlegende Informationen zu durchsuchbaren Schlüsselwörtern oben in den Ergebnissen anzeigen, kein Vandalismus. Der Benutzer, der die ursprüngliche Bearbeitung der Seite der kalifornischen GOP verfasst hat kein Benutzerprofil verwendet , wodurch sie schwer aufzuspüren sind.
Das ist eine gängige Taktik unter Personen, die Wikipedia-Seiten zerstören, eine Praxis der gemeinnützigen Organisation ausführlich dokumentiert . Aber angesichts der Menge an Änderungen, die auf Wikipedia vorgenommen werden – etwa 10 pro Sekunde , mit 600 neuen Seiten pro Tag – und der Tatsache, dass Facebook und YouTube jetzt daraus ziehen, um Posts mehr Kontext zu geben, sind das Potenzial und die Auswirkungen von Missbrauch hoch.
„Natürlich ist es ein ziemlich schwacher Weg, um Fake News zu bekämpfen, weil Wikipedia keine verlässliche Informationsquelle ist – wie sogar Wikipedia anerkennt“, sagte er Magnus Pharao Hansen , ein Postdoktorand an der Universität Kopenhagen, in einer Nachricht an Poynter. „Wikipedia ist sehr anfällig für Hoaxes und enthält alle Arten von Fehlinformationen, daher ist es kein sehr ernsthafter Weg, um das Problem der erfundenen Nachrichten zu bekämpfen.“
Hansen bearbeitet seit etwa 10 Jahren Wikipedia-Seiten und sagte, Vandalismus sei auf der Plattform an der Tagesordnung. Die Anzahl der Redakteure ist geschrumpft in den letzten Jahren, während Online-Partisanen haben zunehmend auf die Plattform abzielen — ein Problem, das spitzte sich zu während der Gamergate-Kontroverse im Jahr 2014. Es ist im Wesentlichen ein Zahlenspiel.
Das ist weit davon entfernt wo Wikipedia 2005 war , als eine Studie herausfand, dass es ungefähr so genau war wie Britannica. Und es macht es für freiwillige Redakteure schwieriger, Vandalismus in großem Umfang auf Wikipedia zu bekämpfen, was nichts Gutes für die Verwendung zur Bekämpfung von Fehlinformationen auf anderen Plattformen verheißt.
„Sicherlich gibt es viele falsche Informationen auf Wikipedia, und viele davon werden bleiben“, sagte Hansen. „Oft schreibt jemand einen Artikel und es kann Jahre dauern, bis jemand kommt und ihn redigiert. Die Leute machen keine Faktenchecks, es sei denn, etwas scheint wirklich fehl am Platz zu sein.“
Ein erfundener Wikipedia-Artikel lebte ein Jahrzehnt auf der Website, bevor sie 2015 gelöscht wurde.
Gleichzeitig hat sich die Plattform als resistent gegen die Art von Falschmeldungen erwiesen, die regelmäßig viral werden Facebook und Twitter . Wikimedia-Schätzungen dass etwa 2,5 Prozent der täglichen Bearbeitungen Vandalismus sind, und Samantha Lien, Kommunikationsmanagerin bei Wikimedia, wies auf einen Algorithmus hin, der fragwürdige Bearbeitungen automatisch als Schlüsselerfolg seiner Bemühungen um Integrität kennzeichnet.
„Artikel bieten in der Regel eine ausgewogene Darstellung der Fakten, und die Website hat sich bis zu diesem Zeitpunkt als widerstandsfähig gegenüber gefälschten Nachrichten und Fehlinformationen erwiesen“, sagte sie Poynter in einer E-Mail. „Wir haben in den letzten Jahren auch mit freiwilligen Redakteuren zusammengearbeitet, um Moderationstools zu entwickeln und zu verbessern, um Vandalismus auf Wikipedia schnell zu erkennen und zu bekämpfen.“
Über die eigenen Beschränkungen von Wikipedia hinaus sind die eigenen Systeme von Tech-Plattformen häufig Gegenstand von Fehlern und Kontroversen – insbesondere Knowledge Panels.
Ebenfalls am 31. Mai wurde in North Carolina nach einem Donald Trump unterstützenden republikanischen Senator gesucht ein Bild aufgetaucht von ihr mit „bigot“ auf der Unterseite geschrieben. Im Januar stellte The Daily Caller fest, dass Google fälschlicherweise Faktenchecks an seine Inhalte anhängte und nicht an die anderer Medien. Das veranlasste das Technologieunternehmen, das Feature auszusetzen, bis die Fehler behoben waren.
Google teilte Poynter mit, dass die Suchergebnisse nicht manuell geändert werden, um eine Präferenz für eine Partei gegenüber einer anderen anzuzeigen. Aber seine Algorithmen werden regelmäßig gespielt Scherze , gefälschte Anzeigen und Trolle, die versuchen, Suchergebnisse zu ändern. Und diese Probleme könnten sich auf andere Plattformen erstrecken, die auf Wikipedia verlinken.
„Wenn mehr Medienplattformen Inhalte von Wikipedia unkritisch verwenden, erhöht das den Einsatz – sowohl für diejenigen, die irreführen oder täuschen würden, als auch für diejenigen, die Wissen verbreiten“, sagte Hansen. „Ich denke, insbesondere wenn YouTube-Videos über Verschwörungstheorien auf Wikipedia verlinken, könnte dies dazu führen, dass die falsche Menge angezogen wird.“
März, YouTube kündigte an dass es in Videobeschreibungen direkt auf Wikipedia-Seiten verlinken würde, um mehr Kontext zu bieten und virale Verschwörungstheorien zu entlarven, die gehen oft viral nach Eilmeldungen. Diese „Informationshinweise“ – die auf der Plattform eingeführt wurden ohne Wissen von Wikipedia — enthält eine kurze Zeile über die Quelle und einen Link zu ihrer Wikipedia-Seite.
Diese Funktion wurde noch nicht eingeführt, aber YouTube hat im Februar eine ähnliche Funktion eingeführt, die Nachrichtenorganisationen, die Geld von der US-Regierung erhalten, mehr Kontext bietet.

(Screenshot von YouTube)
Angesichts der erhöhten Sichtbarkeit von Wikipedia-Seiten ist es denkbar, dass Vandalen auf die Plattform strömen, um mehrere Plattformen mit einer Bearbeitung zu trollen.
„Das Hacken von Wikipedia war schon immer ein Problem, aber es war ein Problem, das nur die Leser von Wikipedia wirklich betraf. Jetzt ist es sogar noch gefährlicher, da die Plattformen zunehmend automatisch aus Wikipedia ziehen“, sagte Claire Wardle, Geschäftsführerin von First Draft, in einer E-Mail an Poynter. „Für Agenten der Desinformation, die eine maximale Verstärkung wünschen, bietet jede Technik, die sicherstellt, dass Plattformen oder Nachrichtenredaktionen eine Unwahrheit wiederholen und damit legitimieren, einen unverhältnismäßigen ‚Return on Investment‘.“
Obwohl Wikipedia als Quelle für mehr Plattformen dient, hat es keinen Anstieg des Vandalismus gegeben, sagte Lien. Aber wenn man sieht, wie die Ergänzungen die Organisation überrascht haben, ist es ungewiss, wie genau sie die Integrität der Wikipedia-Seiten beeinflussen werden.
„Der Trend, dass Technologieunternehmen Wikipedia nutzen, um Probleme mit Fehlinformationen auf ihren eigenen Plattformen anzugehen, ist Neuland für uns, und wir wissen nicht, was die vollständigen Auswirkungen sein werden“, sagte sie. „Kurzfristig beobachten wir genau, wie sich dies auf Wikipedia und unsere globale Community von Freiwilligen auswirkt. Wir haben bis heute nichts gesehen, was auf ein größeres Problem von Vandalismus hindeuten würde.“
Aber selbst wenn es zu einem Anstieg des Wikipedia-Vandalismus mit der Absicht käme, Ergebnisse auf den Plattformen zu verändern, sagte Lien, die Organisation hätte keine Möglichkeit, dies zu erfahren.
„Uns liegen keine Daten vor, die auf Vandalismustrends hinweisen würden, mit der ausdrücklichen Absicht, andere Plattformen zu manipulieren“, sagte sie.
Wie wahrscheinlich ist es also, dass weitere Fehlinformationen auf andere Plattformen gelangen? Joseph Reagle, außerordentlicher Kommunikationsprofessor an der Northeastern University und Wikipedia-Experte, sagte Poynter, obwohl es ohne die richtigen Überwachungssysteme keine Möglichkeit gibt, dies zu wissen, könnte die eingerichtete Struktur Fehlinformationen sichtbarer machen – selbst wenn sie nicht zum Spielen erstellt wurden Plattformen wie Google und Facebook.
„Ja, das ist wahrscheinlich, und ich denke, es wird noch wahrscheinlicher, wenn diese gewinnorientierten Unternehmen weiter auf den fahrenden Zug aufspringen“, sagte er. „Im Fall Google glaube ich nicht, dass es die Absicht der Bearbeitung war, die nachgeschalteten Benutzer von Wikipedia zu belasten, aber das war immer noch der Effekt. Die Tatsache, dass Wikipedia von diesen nachgelagerten Aggregatoren verwendet wird, wird Wikipedia auch eher zu einem Ziel machen, was Anlass zur Sorge gibt.“
Obwohl es schrumpft, hat Wikipedia immer noch eine engagierte Gemeinschaft von Redakteuren, die es getan haben langjährige Erfahrung Umgang mit Artikeln über aktuelle Nachrichten. Nathan Matias, ein Postdoktorand an der Princeton University, sagte Poynter in einer E-Mail, dass Fehlinformationen aufgrund dieser Gemeinschaft wahrscheinlich nicht häufig durch die Ritzen schlüpfen würden.
Aber am Rande der Website steigt diese Chance erheblich.
„In Fällen von aktuellen Nachrichten, in denen Aktivisten aller Art Wege entwickelt haben, Plattformalgorithmen schneller zu beeinflussen als die Geschwindigkeit des Journalismus, erwarte ich, dass Wikipedia widerstandsfähiger gegen Beeinflussung sein wird“, sagte er. „Die Risiken für Wikipedia und Plattformen werden an den Rändern von Wissen und Aufmerksamkeit größer sein, da es schwieriger ist, einen kleinen Strom von Menschen zu erkennen, die auf unauffälliges extremistisches Material zugreifen.“
Trotz der Herausforderungen sehen einige Experten Tech-Plattformen, die auf Wikipedia-Seiten verlinken, als einen Schritt nach vorn, um Online-Fehlinformationen zu bekämpfen.
Eni Mustafaraj, Assistenzprofessor für Informatik am Wellesley College, sagte Poynter in einer E-Mail, dass die Aufnahme von Wikipedia in große Tech-Plattformen ein positiver Schritt sei. Aber es kommt mit Vorbehalten.
„Sie müssen dies konsequent tun, und nicht nur, um Fehlinformationen oder Falschmeldungen oder Verschwörungstheorien zu bekämpfen“, sagte sie. „Um Fehlinformationen zu bekämpfen, sollten wir nicht Facebook und Google in die Pflicht nehmen, denn sie waren es, die das Problem überhaupt erst verschärft haben.“
Gleichzeitig kann die Entnahme von Informationen aus Wikipedia von der Plattform die Leser verwirren. Hansen sagte, dass das Sehen von Links zu der Website von Social-Media-Plattformen, selbst wenn sie gut gekennzeichnet sind, nicht die gleiche Art von Skepsis hervorrufen wird, die Wikipedia-Benutzern eigen ist.
„Der Leser weiß nicht, dass dies von Wikipedia ist. Auf diese Weise wird eine Ebene eingeführt, in der Sie sich über die Quelle der Informationen nicht sicher sein können “, sagte er. „Die Leute sind skeptisch, wenn sie auf Wikipedia sind – man sieht, wenn es keine Quelle gibt … wenn man auf einer anderen Plattform ist, ist man sich solcher Dinge nicht bewusst.“
Dann ist da noch die Frage nach der Bandbreite. Da die Redaktionszahlen weiter zurückgehen, sollte Wikipedia in Betracht ziehen, Vollzeitmitarbeiter einzustellen, deren Aufgabe es ist, Vandalismus zu überwachen und sicherzustellen, dass er sich nicht auf andere Plattformen ausbreitet. Hansen sagte, er denke, dass die gemeinnützige Organisation eine interne Einheit zur Überprüfung von Fakten einrichten oder erfahrene Redakteure und Akademiker bitten sollte, sich zu einigen der nuancierteren Seiten zu äußern.
„Ich denke, das ist der einzige Weg, Desinformation auf Wikipedia zu bekämpfen“, sagte er.
Zumindest schlug Lien vor, dass Technologieplattformen, die Wikipedia verwenden, um Fehlinformationen entgegenzuwirken, der gemeinnützigen Organisation in irgendeiner Weise etwas zurückgeben – ein Punkt, in dem Katherine Maher, Exekutivdirektorin von Wikimedia, argumentierte ein kürzlich erschienener Artikel für Wired . (Facebook und Youtube sind nicht enthalten unter den wichtigsten Wohltätern von Wikimedia.)
„Wir ermutigen Unternehmen, die Wikipedia-Inhalte verwenden, im selben Geist der Nachhaltigkeit etwas zurückzugeben“, sagte sie. „Damit würden sie sich den Millionen von Menschen anschließen, die sich dafür einsetzen, dass Wikipedia stark und erfolgreich bleibt.“
Und Matias stimmte zu.
„Wenn Unternehmen damit rechnen, sich auf massive Mengen unbezahlter und oft psychisch belastender Arbeit von Wikipedianern und der Wikimedia Foundation zu verlassen, um einige ihrer schwierigsten Probleme zu lösen, müssen sie Wege finden, diese Arbeit zu unterstützen und gleichzeitig die intellektuelle Unabhängigkeit von Wikipedia zu schützen“, sagte er.