Kompensation Für Das Tierkreiszeichen
Substability C Prominente

Finden Sie Die Kompatibilität Durch Zodiac -Zeichen Heraus

Die automatisierte Überprüfung von Fakten kann Behauptungen erkennen, die menschlichen Prüfern entgehen. Hier sind die zwei Arten, wie sie funktionieren.

Fakten Überprüfung

Entweder überprüfen sie Behauptungen, indem sie sie anhand einer maßgeblichen Quelle oder eines Artikels validieren, oder sie verwenden eine Computertechnik namens Stance Detection.

(Shutterstock)

Von falschen Behauptungen, dass Das Trinken von warmem Wasser mit Zitrone schützt vor dem Coronavirus zu hohe Kontaminationsraten unter den in Lettland stationierten NATO-Truppen , war die Pandemie reif für viele Arten von Falschmeldungen und Desinformationskampagnen.

Das hat das Reuters Institute for the Study of Journalism zwischen Januar und März festgestellt die Zahl der Faktenchecks stieg um 900 % , was wahrscheinlich eine noch höhere Zunahme von Fake-News-Vorkommen bedeutet, da viele von ihnen wahrscheinlich durch das Netz geschlüpft sind.

Obwohl Medienkompetenz unerlässlich ist, um das Blatt zu wenden, könnte der Einsatz von Automatisierung und Algorithmen dazu beitragen, Faktenprüfungen in großem Umfang durchzuführen. In seinem Bericht 2018 , identifizierte Lucas Graves im Wesentlichen zwei Arten der automatisierten Faktenprüfung: Faktenprüfungen, die Behauptungen verifizieren, indem sie sie anhand einer maßgeblichen Quelle oder einer bereits verifizierten Geschichte validieren, und Faktenprüfungen, die auf „sekundären Signalen“ beruhen, wie z Standerkennung — eine Computertechnik, die feststellt, ob ein Textteil einer Behauptung zustimmt oder nicht.

Hier ein Überblick über journalistische Nutzungen und Rechercheprojekte zu beiden Aspekten.

Quetschen: Reporterlabor der Duke University mit Squash experimentieren , ein Computerprogramm, das Fernsehuntertitel in Textfolgen umwandelt und sie dann mit einer Datenbank früherer Faktenprüfungen abgleicht. Das Ziel von Squash ist es, die Aussagen von Politikern fast augenblicklich zu überprüfen, obwohl sein Forschungsteam das Programm immer noch zugab erfordert menschliche Hilfe, um zu entscheiden, ob es seine eigenen Ergebnisse verbreiten soll .

Vollständige Tatsache: Das kann auch die in London ansässige Faktenprüfungsorganisation Full Fact dubiose Behauptungen durch TV-Untertitel erkennen , indem es sie mit seinem eigenen Katalog verifizierter Faktenchecks abgleicht und zuverlässige Daten wie Regierungsstatistiken verwendet, um ungeprüfte Aussagen zu verifizieren.

Aber auch verlässliche Daten müssen gründlich geprüft werden. Im Bericht von Graves betonte der Gründungsleiter der Automatisierungsabteilung von Full Fact, dass offizielle Zahlen leicht aus dem Zusammenhang gerissen werden könnten, etwa als die Mordrate im Vereinigten Königreich im Jahr 2003 sprunghaft anstieg, aber nur, weil die Morde von einem berüchtigten Serienmörder im Laufe der Jahre begangen wurden davor wurden damals offiziell in die Statistik aufgenommen.

Checkbot: Wie Squash und Full Fact, checkbot – eine Initiative der argentinischen Faktenprüfungsorganisation Chequeado – durchsucht nationale Medien automatisch nach kontroversen Aussagen. Anschließend gleicht es sie mit einer bestehenden Datenbank ab und erstellt Textdateien, die Faktenprüfer in sozialen Medien teilen können. Dennoch ist Chequeabot vom Mangel an Rohdaten in Argentinien betroffen, was Chequeado dazu veranlasst, Partnerschaften mit der Regierung, aber auch mit Universitäten, Denkfabriken und Gewerkschaften zu prüfen.

IFCNs Chatbot: Mitten in der Pandemie hat das International Fact-Checking Network eine Datenbank mit Faktenchecks zusammengestellt, die jetzt aus mehr als 7.000 Einträgen in mehr als 40 Sprachen besteht. Im Mai startete die Faktencheck-Allianz einen eigenen WhatsApp-Chatbot , das in der Lage ist, diese Datenbank zu durchsuchen, um auf die Keyword-Anfrage eines Benutzers zu antworten. Zunächst auf Englisch verfügbar, ist der WhatsApp Chatbot jetzt auch auf Spanisch, Hindi und Portugiesisch verfügbar.

Die Universität von Waterloo: Ein Forschungsteam der University of Waterloo in Kanada hat befasst sich mit der Haltungserkennung, um ein Tool zu entwickeln, mit dem gefälschte Nachrichten erkannt werden können indem Ansprüche mit ähnlichen Beiträgen und Geschichten verglichen werden. Die Forscher programmierten Algorithmen, um aus der in Trainingsdaten gefundenen Semantik zu lernen, und schafften es, Behauptungen in neun von zehn Fällen genau zu bestimmen. Sie stellen sich ihre Lösung als Hilfsmittel vor, das darauf abzielt, gefälschte Inhalte herauszufiltern, um Journalisten dabei zu helfen, Behauptungen nachzugehen, die es wert sind, untersucht zu werden.

MIT: Ein Problem, das sich aus der Haltungserkennung ergibt, besteht jedoch darin, dass sie dazu neigt, unsere eigenen Vorurteile gegenüber der Sprache zu reproduzieren. Beispielsweise werden negative Äußerungen eher als unzutreffende Inhalte angesehen, während bejahende Äußerungen im Allgemeinen mit einem Sinn für Wahrheit assoziiert werden. Das ist was fand ein MIT-Forschungsteam heraus beim Testen von algorithmischen Modellen an bestehenden Datensätzen. Es veranlasste sie, neue Modelle zu entwickeln. Das Team machte auch auf das Problem aufmerksam, dass Behauptungen zu einem bestimmten Zeitpunkt wahr sind, aber ab einem bestimmten Punkt nicht mehr richtig sind.

In seinem Bericht wies Graves auch auf andere Hinweise hin, die dazu beitragen könnten, gefälschte Informationen in großem Umfang zu entlarven. Diese könnten von „stilistischen Merkmalen, wie der Art der Sprache, die in einem Social-Media-Beitrag oder einem vermeintlichen Nachrichtenbericht verwendet wird“, bis hin zu „der Netzwerkposition einer Quelle“ oder „der Art und Weise, wie sich ein bestimmter Anspruch oder Link im Internet verbreitet,“ reichen.

Aber so fortschrittlich automatisierte Lösungen auch sind, sie werden immer noch herausgefordert die vielen Gründe, warum wir angezogen werden, gefälschte Nachrichten zu glauben in erster Linie – sei es zum Beispiel voreingenommenes Denken, abgelenkte Aufmerksamkeit oder wiederholte Exposition. Darüber hinaus besteht die zusätzliche Gefahr des „Backfire-Effekts“, a Vorstellung Das sagt voraus, dass, wenn eine Behauptung stark mit den Ideen einer Person übereinstimmt, diese Person in ihren eigenen Ansichten weiter gestärkt wird, sobald sie der Wahrheit ausgesetzt ist.

Automatisierte Faktenprüfung wird letztlich nur erfolgreich sein, wenn sie eng mit Medienkompetenz verzahnt ist.

Samuel Danzon-Chabaud ist Ph.D. Forscher auf der JOLT-Projekt , das im Rahmen der Marie-Skłodowska-Curie-Finanzhilfevereinbarung Nr. 765140 Mittel aus dem Forschungs- und Innovationsprogramm Horizon 2020 der Europäischen Union erhalten hat.