You are here: Dagstuhl » Beispiel FakeNews

Beispiel Fake-News

Offiziell: Dies ist ein Beispiel, das von Mitarbeitenden der PHSZ diskutiert und für gut befunden worden ist.

Alltagsbezug

Fake-News sind Falschmeldungen, welche mit einem bestimmten Ziel verbreitet werden, beispielsweise um anderen Personen zu schaden, um finanzielle Interessen zu verfolgen oder um Einfluss auf die öffentliche Meinung auszuüben. Sie können frei erfunden oder faktenverzerrt sein. Obwohl die Fakten nicht stimmen, werden die Fake-News im Internet, insbesondere in sozialen Netzwerken viral verbreitet. Fake-News erschweren die Meinungsbildung, da sie nur mit grösserem Aufwand als falsch identifiziert werden können.

Perspektiven des Dagstuhl-Dreiecks

  • Wie kann ich überprüfen, ob der Inhalt mit technischen Mitteln manipuliert wurde? Auf was muss ich achten?
  • Könnte ein «Social Bot» diese Nachricht verfasst haben?
  • Wer steckt hinter dieser «Fake-News», was ist seine/ihre Absicht?
  • Welche Kanäle eignen sich, um sich zu informieren? Welche davon wähle ich für meine persönliche Nutzung?
  • Wie informiere ich mich effektiv und effizient?
  • Was für einen Einfluss haben «Fake-News» auf:
    • die Politik
    • die Öffentliche Meinung
    • das Vertrauen der Bevölkerung in bestimmte Institutionen oder die Demokratie
    • ...?
  • Wie kann man trotz Fake-News Informationen beurteilen, eigene Standpunkte entwickeln und Einfluss auf gesellschaftliche und technologische Entwicklungen nehmen?
  • Welche technischen Möglichkeiten gibt es heutzutage, um einen Inhalt (Text, Bild, Video, Audio…) zu manipulieren?
  • Wie werden Texte, Bilder, Videos und Audios manipuliert?
  • Was ist ein «Social Bot» und wie funktioniert dieser?

Erläuterungen

  1. Anwendungsbezogene Perspektive: Falschmeldungen gab es schon früher, dort fehlte aber meist die manipulative Absicht dahinter, vielmehr war der Fehler eine ungründliche Recherche. Aufgrund der veränderten Medienlandschaft sind Falschmeldungen heutzutage viel gefährlicher. Es gibt nur noch wenig klassische Medien, welche Falschnachrichten entlarven und Gegendarstellungen liefern können. Demgegenüber steht die Flut der online verfügbaren Nachrichten. So sind die Nutzer oft auf sich selbst gestellt. Welche Zeitung, welcher Webseite kann ich vertrauen? Problematisch wird dies dann, wenn die Nutzer sich zu einseitig informieren. Denn anders als traditionelle Medien halten sich manche Online-Angebote nicht immer an journalistische Grundsätze wie Ausgewogenheit oder das Zitieren mehrerer Quellen.
  2. Gesellschaftlich-kulturelle Perspektive: Mithilfe von Fake-News kann Stimmung für oder gegen politische Ansichten gemacht und die öffentliche Meinung gezielt beeinflusst werden. Es kann auch das Vertrauen der Bevölkerung in bestimmte Institutionen oder die Demokratie selbst zerstört werden.
  3. Technologische Perspektive: Der Aufschrei war gross, als die technischen Entwicklungen eine professionelle Bildbearbeitung ermöglichten. Schliesslich konnte man bisher einem Foto glauben. Heutzutage sind nicht einmal Videoclips mehr sicher. Mit speziellen Computerprogrammen lassen sich bewegte Bilder inzwischen täuschend echt manipulieren. So können Politikern Zitate in den Mund gelegt werden, die sie nie gesagt haben. Oder Prominente tauchen in Pornos auf, ihr Gesicht wird von einer künstlichen Intelligenz eingefügt, sogenannte Deep Fakes. Um den Wahrheitsgehalt einer Nachricht überprüfen zu können, ist es wichtig zu wissen, welche technischen Möglichkeiten der Manipulation von Text-, Bild-, Audio- und Videomaterialien es heutzutage gibt. Verfasser solcher manipulativen Nachrichten sind manchmal nicht einmal Menschen, sondern Computerprogramme namens «Social Bots».

Verwandte Beispiele

Unterrichtseinheiten

Diskussion dieses Beispiels

 

Kontakt
Pädagogische Hochschule Schwyz
Zaystrasse 42
CH-6410 Goldau
T +41 41 859 05 90
info@phsz.ch Dies ist ein Wiki des Fachkerns Medien und Informatik der Pädagogischen Hochschule Schwyz. Für Fragen wenden Sie sich bitte an wikiadmin@phsz.ch
This page was cached on 22 Mar 2024 - 11:13.