Finden Sie Die Kompatibilität Durch Zodiac -Zeichen Heraus
Facebook kündigt weitreichende Änderungen seiner Anti-Fehlinformations-Richtlinien an
Fakten Überprüfung

(Shutterstock)
Facebook beginnt das zweite Quartal des Geschäftsjahres mit der Einführung von Änderungen an der Art und Weise, wie es Fehlinformationen auf seiner Plattform bekämpft.
In einem fast 2.000 Wörter umfassenden Blog-Beitrag, der am Mittwoch an Poynter gesendet wurde, kündigte Facebook eine Reihe neuer Maßnahmen zur Bekämpfung falscher Nachrichten, Bilder und Videos an.
Unter den Änderungen:
- Facebook verringert nun die Reichweite von Gruppen, die immer wieder Fehlinformationen verbreiten.
- Es untersucht den Einsatz von Crowdsourcing, um festzustellen, welchen Nachrichtenagenturen die Benutzer am meisten vertrauen.
- Und das Unternehmen fügt Messenger, Gruppen und Newsfeed neue Indikatoren hinzu, um Benutzer über die Inhalte zu informieren, die sie sehen.
„Wir haben eine Reihe von Produktaktualisierungen gegenüber ein oder zwei größeren Änderungen“, sagte Facebook-Sprecherin Mari Melguizo in einer E-Mail an Poynter. „Diese Bemühungen konzentrieren sich darauf, die Sicherheit der Menschen zu gewährleisten und die Integrität der Informationen zu wahren, die durch unsere Apps fließen.“
Hier ist, was jede der größten Änderungen speziell mit Fehlinformationen zu tun hat, mit Kontext von Journalisten, Akademikern und Technologen sowie zusätzlicher Lektüre zu jedem Thema. Lesen Sie den Blogbeitrag von Facebook vollständig Hier .
Herabstufung von Gruppen, die Fehlinformationen verbreiten
Zu den größten Änderungen, die Facebook am Mittwoch angekündigt hatte, gehörte, dass es damit beginnen würde, die Reichweite von Gruppen zu verringern, die wiederholt falsche Nachrichten, Bilder und Videos verbreiten.
„Wenn Personen in einer Gruppe wiederholt Inhalte teilen, die von unabhängigen Faktenprüfern als falsch eingestuft wurden, werden wir die gesamte News Feed-Verbreitung dieser Gruppe reduzieren“, schrieben Guy Rosen, Vice President of Integrity von Facebook, und Tessa Lyons, Head of News Feed Integrity , im Blogbeitrag.
Facebookhat Flackern bekommenin den letzten Monaten für die Verbreitung von Anti-Impfstoff-Verschwörungstheorien, von denen viele in Gruppen begannen und sich dann auf den Rest der Plattform ausbreiteten. Als Reaktion auf Mediendruck undDruck von amerikanischen Politikern, die Firma skizzierte einen Plan Anfang März, um Antivaxxer-Inhalte auf seiner Plattform einzudämmen.
Darin kündigte Facebook an, dass Gruppen und Seiten, die Fehlinformationen gegen Impfungen teilen, aus seinem Empfehlungsalgorithmus entfernt würden – aber nicht ganz. Der Schritt war eine stillschweigende Anerkennung der Macht, die Gruppen bei der Verbreitung gefälschter Inhalte haben.
BuzzFeed News berichtet im März 2018, dass das Feature, oft von der Facebook-Führung gelobt – und im News Feed priorisiert – war „ein globaler Honigtopf aus Spam, gefälschten Nachrichten, Verschwörungen, Gesundheitsfehlinformationen, Belästigung, Hacking, Trolling, Betrug und anderen Bedrohungen für Benutzer geworden“. Warum?
„Propagandisten und Spammer müssen ein Publikum gewinnen, und Gruppen servieren das auf einem Tablett“, sagte Renee DiResta, eine Sicherheitsforscherin, gegenüber BuzzFeed. „Es ist nicht nötig, eine Werbekampagne durchzuführen, um Leute zu finden, die für Ihre Botschaft empfänglich sind, wenn Sie einfach relevanten Gruppen beitreten und mit dem Posten beginnen können.“
Und obwohl das Unternehmen mehrere Schritte unternommen hat, um die Verbreitung von Fälschungen im News Feed einzudämmen, hat es bis Mittwoch wenig unternommen, um Fehlinformationen speziell in Gruppen zu bekämpfen.
„Es gibt keine konzertierte Anstrengung, um falsche Nachrichten, Fehlinformationen oder was auch immer loszuwerden“, sagte ein ehemaliger Facebook-Mitarbeiter, der an Gruppen arbeitete, im Januar gegenüber Poynter. „Es ist so viel schlimmer, weil es dort sitzt und versteckt ist … es ist genauso schlimm wie eine Maschine zur Erzeugung falscher Nachrichten und Fehlinformationen, wie es jemals im News Feed war.“
Leonard Lam, ein Sprecher von Facebook-Gruppen, sagte gegenüber Poynter, dass die gleichen Anti-Fehlinformations-Richtlinien, die für Produkte wie News Feed gelten, für die gesamte Plattform gelten. Das bedeutet, dass gefälschte Artikel, Bilder und Videos, die von den Faktenprüfungspartnern von Facebook entlarvt wurden, mit dem relevanten Faktencheck darunter angezeigt werden – sogar in Gruppen.
Diese Signale werden auch verwendet, um festzustellen, welche Gruppen wiederholt falsch informieren, eine der ersten Maßnahmen, die Facebook speziell getroffen hat, um Fehlinformationen in Gruppen zu bekämpfen.
Überparteiliche Facebook-Gruppen sind die nächste große Herausforderung für Faktenprüfer
Crowdsourcing vertraut auf Nachrichten
Die Ankündigung vom Mittwoch kommt, während Facebook seine Partnerschaft mit Faktencheck-Stellen auf der ganzen Welt ausbaut – wohl die sichtbarste Anstrengung des Unternehmens, Fehlinformationen auf der Plattform zu bekämpfen.
Facebook startete das Programm im Dezember 2016 mit amerikanischen Faktenprüfern wie PolitiFact, Snopes und Factcheck.org (im Besitz von Poynter). Das Ziel: Falschmeldungen auf der Plattform identifizieren, entlarven und deren Reichweite verringern. Sobald ein Hoax als falsch gekennzeichnet ist, wird seine zukünftige Reichweite im Newsfeed verringert und ein Faktencheck angehängt.(Offenlegung: Als Unterzeichner vonGrundsatzkodex von Poynter’s International Fact-Checking Networkist eine notwendige Bedingung für die Teilnahme am Projekt.)
Seitdem ist eshat expandiertTatsachenprüfer falsche Bilder und Videos entlarven zu lassen. Die Partnerschaft ist gewachsen zu 47 Projekten, die in 23 Sprachen auf der ganzen Welt schreiben. Und während sich Projekte wie Snopes und CBS aus verschiedenen Gründen zurückgezogen haben, haben Verkaufsstellen wie Associated Press haben vor kurzem erweitert ihr Engagement für das Programm.
Eine neue Anti-Fehlinformationsfunktion könnte dazu beitragen, diese Arbeit zu unterstützen.
Wie Facebook mit Fehlinformationen umgeht, in einer Grafik
„Es gibt einfach nicht genug professionelle Faktenprüfer weltweit und wie jeder gute Journalismus braucht der Faktencheck Zeit“, schreiben Rosen und Lyons in dem Blogbeitrag. „Eine vielversprechende Idee zur Unterstützung ihrer Arbeit, die wir seit 2017 untersuchen, besteht darin, dass Gruppen von Facebook-Nutzern auf journalistische Quellen verweisen, um Behauptungen zu bestätigen oder zu widersprechen, die in potenziell falschen Inhalten gemacht wurden.“
CEO Mark Zuckerberg strahlte diese Idee aus in einem Facebook-Video im Februar – etwas mehr als ein Jahr danach er schwebte es zuerst . Der Umzug war nicht Beliebt unter Journalisten, die sagten, dass normale Facebook-Nutzer nicht in der Lage seien, ihre Vorurteile abzulegen, um glaubwürdige Nachrichtenagenturen zu bewerten.
Aber eine neue Studie erschienen im Februar 2018 schlägt etwas anderes vor.
„Was wir herausgefunden haben, ist, dass es zwar echte Meinungsverschiedenheiten zwischen Demokraten und Republikanern in Bezug auf die Mainstream-Nachrichtenagenturen gibt, aber im Grunde alle – Demokraten, Republikaner und professionelle Faktenprüfer – der Meinung sind, dass man den gefälschten und überparteilichen Websites nicht trauen kann“, sagte David Rand , außerordentlicher Professor am Massachusetts Institute of Technology, in einer Pressemitteilung .
Laut dem Blogbeitrag vom Mittwoch wird Facebook die Idee weiter untersuchen, indem es Akademiker, Faktenprüfer, Journalisten und Organisationen der Zivilgesellschaft konsultiert.
„Jedes System, das wir implementieren, muss Schutz vor Spielen oder Manipulation bieten, die Einführung persönlicher Vorurteile vermeiden und die Stimmen von Minderheiten schützen“, schrieben Rosen und Lyons.
Mehr Kontext auf Facebook
Früher Technologieunternehmen haben sich an Websites gewandt wie Wikipedia, um mehr Kontext zu den Quellen bereitzustellen, die auf ihren Plattformen veröffentlichen. Am Mittwoch kündigte Facebook eine Reihe neuer ähnlicher Indikatoren an.
„Wir investieren in Funktionen und Produkte, die den Menschen mehr Informationen geben, um ihnen bei der Entscheidung zu helfen, was sie lesen, ihnen vertrauen und sie teilen möchten“, schrieben Rosen und Lyons in dem Blogbeitrag.
Facebook hat seinen Kontext-Button aktualisiert, gestartet im April letzten Jahres, um Informationen von einzuschließen Das Treuhandprojekt über die Ethikrichtlinien, Eigentums- und Finanzierungsstrukturen der Verlage. Das Unternehmen beginnt, mehr Informationen auf seiner Registerkarte „Seitenqualität“ anzuzeigen, die Januar gestartet um Seitenbesitzern zu zeigen, welche ihrer Posts von Facebooks Faktenprüfungspartnern entlarvt wurden. Und in Messenger fügt das Unternehmen ein verifiziertes Abzeichen hinzu, um Nachahmungen und Betrug zu reduzieren.
Facebook beginnt auch damit, weitergeleitete Nachrichten im Messenger zu kennzeichnen – eine Taktik, die scheinbar von der Schwesterfirma WhatsApp ausgeliehen wurde, die rollte eine ähnliche Funktion aus im Juli, um die Verbreitung von Fehlinformationen einzudämmen.
WhatsApp startet eine Funktion, die weitergeleitete Nachrichten kennzeichnet
Während sie eine einfache Möglichkeit sind, Benutzern mehr Informationen über Publisher in sozialen Medien zu geben und sie dadurch daran zu hindern, Fehlinformationen zu teilen, können Indikatoren wie die Kontextschaltfläche von Facebook auch ausgenutzt werden.
Im Laufe des Sommers zerstörte jemand die Wikipedia-Seite der California Republican Party, um zu sagen, dass sie den Nationalsozialismus unterstütze. Während die meisten Fälle von Wikipedia-Vandalismus ziemlich schnell aufgedeckt werden, gelangte dieser Fall zu Google. die auftauchten die falsche Bearbeitung ganz oben in den Suchergebnissen.
Das ist selten. Aber angesichts der Menge an Änderungen, die jeden Tag an Wikipedia vorgenommen werden, kann es für Technologieplattformen schwierig sein, alle Fälle von Vandalismus zu erfassen.
„Natürlich ist es ein ziemlich schwacher Weg, um gefälschte Nachrichten zu bekämpfen, weil Wikipedia keine verlässliche Informationsquelle ist – wie sogar Wikipedia anerkennt“, sagt Magnus Pharao Hansen, Postdoktorand an der Universität Kopenhagen, sagte Poynter im Juni . „Wikipedia ist sehr anfällig für Hoaxes und enthält alle Arten von Fehlinformationen, daher ist es kein sehr ernsthafter Weg, um das Problem der erfundenen Nachrichten zu bekämpfen.“
Wikipedia-Vandalismus könnte Hoax-Busting auf Google, YouTube und Facebook vereiteln
Gleichzeitig haben Funktionen wie der Seitenqualitäts-Tab von Facebook einen deutlicheren Effekt auf die Verbreitung von Fehlinformationen.
Nach Faktencheck.org entlarvt ein falsches Meme über die US-Repräsentantin Alexandria Ocasio-Cortez (D-N.Y.) im März, die Seite, die das Foto veröffentlichte löschte es . Und es war nicht das erste Mal; andere wiederholt falsch informierende Seiten auf Facebook Inhalte entfernt haben entlarvt von den Faktenprüfungspartnern des Unternehmens und einigen haben ihren Betrieb umbenannt insgesamt.
Interessante Forschung von @dpfunke bei @factchecknet . Mehr Beweise dafür, dass ja (bitte fügen Sie das Klischee hinzu, dass Lügen schneller reisen als die Wahrheit), aber es scheint, dass das Faktenprüfungssystem von Drittanbietern aktiviert ist @Facebook IST eine Wirkung und verringert die Wirksamkeit einiger US-Operationen für „gefälschte Nachrichten“. https://t.co/yc2qGP7eH7
– Peter Cunliffe-Jones (@PCunliffeJones) 13. März 2019
Korrektur: Eine frühere Version dieses Artikels hat den Nachnamen von Leonard Lam falsch geschrieben.