Digitales Glossar ->

Foto: CC-BY-SA 2.0 ceslava.com
Quelle: http://www.netzpolitik.org
*
Digitales Glossar
Vertiefende Hinweise;
> Galerie - Kunst & Gestaltung 4.0
   http://www.kultur-punkt.ch/galerie/bildungslandschaften-das-scheitern-lernen.html
   http://www.kultur-punkt.ch/galerie/bildungslandschaften-das-scheitern-lernen/digitale-medienkunst-schweiz.html http://www.kultur-punkt.ch/galerie/digitale-synaesthesie-wien.html
****


-da-dtv-18-6fake-fakt-glossar
Fake-News, Bots und Sockenpuppen – eine Begriffsklärung

Es ist also höchste Zeit für eine Begriffsklärung. Wir wollen deshalb mal die gängigsten Formen von falschen und echten, von menschlichen und automatisierten Profilen und ihre Rolle in der Meinungsbeeinflussung vereinfacht darstellen – und voneinander trennen. Dabei geht es absichtlich nicht nur um maschinelle Social-Bots, da auch manuelle Fake-Accounts eine große Rolle in der Meinungsbildung spielen können. Letztere zeigen auch, dass die Phänomene nicht alle neu sind, sondern den medialen Alltag schon lange begleiten. Um das Thema greifbar zu machen, werden die einzelnen Fälle anhand von Beispielen erklärt.

•Social Bots
•Bots (Roboter)
•Bot-Netze
•Menschliche Fake-Accounts
•Maschinelle Fake-Accounts
•Trolle (echte Person, die digital stört)
•Trollarmeen
•Chat-Bots (Vorgefertigte Kundenfragen - Betreuung)
•Spam-Bot (..themenfremde Werbenachrichten, sind lästig, nutzlos )
•Meinungsbots  (automatisierte Propaganda)
•Fake-News  ( digitale Zeitungsenten oder Tatarenmeldungen)
•Lösungsansätze

---------------------------

• Social Bots
bilden unsere Meinung. Troll-Armeen nehmen Einfluss. Fake-News entscheiden die nächste Wahl.
In der aufgeregten Debatte um Medienkonsum und Propaganda geht vieles durcheinander. Wir geben einen Überblick zu den wichtigsten Phänomenen.
Spätestens seit Trumps Wahlsieg sind Fake-Nachrichten und Meinungsbots eines der heißen politischen Themen des Herbstes. So wichtig, dass die Bundeskanzlerin Merkel in der Generaldebatte zum Haushalt dem Thema einen Absatz widmet. Doch ihre Rede zeigt auch, dass in der Debatte vieles durcheinander geht: Die Menschen würden heute Medien wahrnehmen, die auf anderen Grundsätzen als der Sorgfaltspflicht basierten und weniger kontrolliert seien. Dabei würden Fake-Seiten, Bots, Trolle und Algorithmen Meinungen verfälschen oder verstärken. Dies müsse notfalls geregelt werden. Und weil das ja nicht schon genug voneinander zu trennende Phänomene sind, vermengt die Kanzlerin das sogar noch mit der Hatespeech-Debatte. Dass eine Regelung dieser Phänomene sich negativ auf die freie Meinungsäußerung und andere Grundrechte auswirken kann, zeigt nicht nur, dass China die Debatte um falsche Nachrichten dankbar aufgreift.
Es ist also höchste Zeit für eine Begriffsklärung. Wir wollen deshalb mal die gängigsten Formen von falschen und echten, von menschlichen und automatisierten Profilen und ihre Rolle in der Meinungsbeeinflussung vereinfacht darstellen – und voneinander trennen. Dabei geht es absichtlich nicht nur um maschinelle Social-Bots, da auch manuelle Fake-Accounts eine große Rolle in der Meinungsbildung spielen können. Letztere zeigen auch, dass die Phänomene nicht alle neu sind, sondern den medialen Alltag schon lange begleiten. Um das Thema greifbar zu machen, werden die einzelnen Fälle anhand von Beispielen erklärt.
• Bots
• Bot-Netze
Das Wort „Bot“ ist eine Kurzform des englischen Wortes Robot (Roboter). Ein Bot kann ein Computerprogramm sein oder auch ein maschinell gesteuerter Social-Media-Account. Bots erfüllen automatisiert bestimmte Aufgaben. Der Text widmet sich hauptsächlich Chat-Bots und Social-Bots wie Spambots und Meinungsbots. Andere Arten von Bots werden nur am Rande behandelt.
Bots können sehr praktisch und völlig legitim sein. Der Twitter-Account @netzpolitik_org ist ein einfacher Bot. Er überprüft in regelmäßigen Abständen, ob auf netzpolitik.org neue Artikel veröffentlicht werden. Wird ein Artikel veröffentlicht, nimmt er sich die Überschrift und das Artikelbild und postet diese auf dem Twitter-Account.
Während unser Bot manuell angelegt und dann mit einer Automatisierung versehen wurde, werden die meisten Social-Bots halb- oder vollautomatisiert erstellt. So lassen sich große Stückzahlen zu einem niedrigen Preis produzieren. Wer Bots benutzen will, kann sich diese entweder selbst erstellen oder auf dem freien Markt kaufen. Der Bot kann mit Informationen wie Profilbild oder Biografie-Text angereichert werden, er kann anderen Accounts oder Bots folgen – oder loslegen mit den Aktionen, die in sozialen Netzwerken automatisiert ansteuerbar sind.
Bots werden also über Skripte/Software erstellt und gesteuert. Eine einfache Aufgabe könnte sein: Twittere Überschrift und Link zum Artikel aus den Medien A, B und C immer dann, wenn die Überschrift das Wort „Merkel“ enthält und versehe den Tweet mit dem Hashtag #merkelmussweg. Oder: Stelle bei Account XY eine Freundschaftsanfrage. Oder: Like diesen Facebook-Post. Denkbar sind natürlich auch deutlich komplexere Programmierungen oder Aktionen sowie der Einsatz künstlicher Intelligenz und die Interaktion mit echten Menschen.
Bot-Netz
Ein Botnetz ist ein Netzwerk von Bots, die zusammen agieren. In sozialen Netzwerken sind Botnetze miteinander verbundene automatische Accounts, die sich meist gegenseitig folgen und ihre Inhalte gegenseitig weiterverbreiten können. Sie können aus tausenden Einzelaccounts bestehen, die von nur einer echten Person gesteuert werden. Bots sind besonders häufig auf Twitter zu finden, können aber in allen sozialen Netzwerken existieren. In einem Bot-Netz können dann tausende von Bots Aktionen ausführen, wie Hashtags retweeten oder bestimmte Postings auf Facebook liken.
Der Begriff Bot-Netz wird häufig für gekaperte Computer benutzt, die zum Beispiel Spam versenden oder DDoS-Angriffe fahren, um zum Beispiel Onlineshops zu erpressen. Diese haben aber nichts mit den Social Bots zu tun, die jetzt diskutiert werden.

*
• Menschliche Fake-Accounts
Menschliche Fake-Accounts
Momentan reden alle von Bots. Es gibt es auch jede Menge manuell erstellte Fake-Accounts in sozialen Netzwerken, Communities und Foren. Während Pseudonymität eine weit verbreitete und wichtige Kulturpraxis für Privatpersonen ist, kann sie von PR-Agenturen und anderen gesellschaftlichen Playern für intransparente Meinungsbeeinflussung sowie von Trollen für Belästigung genutzt werden.

• Maschinelle Fake-Accounts
Automatisiert erstellte Fake-Follower und Fake-Accounts
Ob Tumblr, Facebook, Twitter oder Instagram: Fake-Profile aller sozialen Netzwerke sind im Internet für Geld frei erhältlich. 1000 falsche Twitterprofile kosten ab 40 Dollar aufwärts. Dafür gibt es allerdings nur die so genannten „Eierköpfe“: Profile ohne Profilbild und ohne Follower.
Will man gereifte Profile kaufen mit Followern, Biografien, Profilbildern und Tweets muss man deutlich mehr Geld hinlegen. Je höher die Qualität und damit die Glaubwürdigkeit der Profile, desto teurer sind die Fake-Accounts. Die Preise können bei richtig guter Qualität schon mal 100 Dollar für einen einzigen Facebook-Account erreichen. Die gekauften Fake-Accounts können, sofern sie steuerbar sind, als Meinungsbots eingesetzt werden. Hierzu werden sie mit Skripten in ihrem Verhalten gesteuert.

*
•Trolle
•Trollarmeen
Als Troll bezeichnet man eine echte Person, die in der Netzkommunikation durch Provokation, Störung, Beleidigungen und schiere Häufigkeit der Kommunikation auffällt. Trolle können auf Twitter Hashtags kapern, in den Kommentarbereichen von Medien Diskussionen erschweren, auf Facebook blöde Fragen stellen. Hier ist jede Art von Störung denkbar. Trolle agieren in ihrem echten Namen, im Namen anderer, unter Pseudonym oder auch anonym. Der Troll gehört schon immer zum Internet. Er ist ein lästiges aber bisweilen auch unterhaltsames Phänomen.
Troll-Armeen
Der Begriff Troll-Armee wurde bislang nur für eine russische Desinformationsstrategie genutzt. Das greift aber zu kurz, denn ähnliche Vorgehensweisen gibt es auch in anderen Zusammenhängen. Kennzeichen von Troll-Armeen war bislang, dass echte Menschen die Aktionen koordiniert ausführen. Hier wird der Mensch selbst zum Bot, der Handlungsaufrufe und Befehle erhält. Dies kann sich jedoch heute auch mit dem Einsatz von maschinellen Bots vermischen.

*
•Chat-Bots
werden heute zum Beispiel in der Kundenbetreuung eingesetzt. Ein Beispiel wäre: Ein Energieversorger bietet auf seiner Webseite einen Chat-Bot an. Dieser ist gefüttert mit den am Häufigsten gestellten Fragen. Ich will nun als Kunde wissen, wie ich den Stromzähler ablese. Ich frage: „Wie lese ich den Stromzähler ab?“ – Darauf gibt der Bot mir die richtige Antwort. Stelle ich eine Frage, die der Bot nicht beantworten kann, gelange ich auf die nächste Ebene des Kundensupports und werde mit einem menschlichen Kundenbetreuer verbunden. Meine nicht beantwortbare Frage fließt eventuell in die Verbesserung des Chat-Bots ein, damit dieser beim nächsten Mal die Frage beantworten kann. Unternehmen versprechen sich vom Einsatz dieser Chat-Bots, die mittlerweile auch in Telefonhotlines einsetzbar sind, eine Senkung der Personalausgaben.
Ein schönes Beispiel im politischen Betrieb ist der virtuelle Adler von bundestag.de. Diesem Chat-Bot können Nutzer zahlreiche Fragen stellen, die er auch beantworten kann. Chat-Bots werden auch auf Datingportalen eingesetzt. Da Männer dort überrepräsentiert sind, versuchen unseriöse Portale die schlechte Frauenquote mit Chat-Bots und Fake-Profilen auszugleichen. Die Bots sollen hier die Männer beschäftigen, damit diese auf der Plattform bleiben und weiterhin bezahlen.
Bei Chat-Bots
wird vermehrt auch künstliche Intelligenz eingesetzt. Die großen Internetkonzerne wie Apple, Google und Amazon arbeiten hier mit Siri, Google Assistant und Alexa an ausgefeilten Lösungen. Ein Trend der Chat-Bots ist, dass sie immer mehr in den Bereich der Instant-Messenger drängen.

• Spam-Bots
Es gibt unterschiedliche Typen von Spam-Bots in sozialen Medien. Spam-Bots auf Twitter setzen sich in den meisten Fällen auf häufig genutzte Hashtags und posten dann, oftmals völlig themenfremd, ihre Werbenachrichten. Sie sind lästig, weil sie Hashtags verschmutzen und unbenutzbar machen. Eine andere Form des Spam-Bots postet so genannte @mentions (Erwähnungen) an Personen und versucht damit die Nutzer zum Klick auf einen Link zu bewegen.

*
• Meinungsbots
Meinungsbots & automatisierte Propaganda
Um Meinungsbots, Social Bots oder „automatisierte Propaganda“ geht es hauptsächlich in der Debatte nach der Trump-Wahl. In der Wahl wurden diese intensiv vor allem von Trump, aber auch vom Clinton-Lager eingesetzt.

Das Forschungsprojekt Politicalbots.org beschreibt das Phänomen so:„
„Der Begriff automatisierte Propaganda, oder auch computergestützte Propaganda, bezieht sich auf politische Desinformation oder Belästigungskampagnen auf Social-Media-Plattformen. Sie passiert häufig auf Plattformen wie Twitter und Facebook und wird durch die Nutzung softwarebasierter, automatisierter Bots betrieben. Dabei werden Accounts genutzt, die wie echte Menschen aussehen, die Inhalte produzieren und mit echten Usern interagieren. Politische Bots werden weltweit von Regimes und anderen politischen Akteuren als Instrument eingesetzt, um massiv und rechnergestützt Journalisten zu bedrohen, Kommunikation von Aktivisten zu stören und um Propaganda zu verbreiten, mit dem Ziel die öffentliche Meinung zu manipulieren.“

• Fake-News
Falsche Nachrichten oder „Fake News“ sind kein neues Phänomen, sie sind unter Namen „Zeitungsenten“ oder „Tatarenmeldungen“ schon seit dem 19. Jahrhundert in Deutschland bekannt.

Falschmeldungen können unterschiedliche Hintergründe haben:
Ein häufiger Grund ist schlechte Recherche, Irrtümer und/oder fehlerhafte Darstellung von Zusammenhängen durch Journalisten. Falschmeldungen können aber auch eine Spielart von Satire wie beim Postillion oder The Onion sein. Bei Aktionen der Kommunikations- und Medienguerilla gehören Falschmeldungen zur Tagesordnung. Oftmals werden hier Journalisten durch gezielte Fakes (falsche Webseiten, falsche Pressemitteilungen, falsche Pressesprecher) zu falscher Berichterstattung verführt. Das bekannteste Beispiel hierfür ist der Dow-Chemical-Hack der Yes Men.
Eine weitere Variante sind bewusst falsch dargestellte „Nachrichten“ mit dem Ziel, die Öffentlichkeit für bestimmte politische und/oder kommerzielle Ziele zu manipulieren. Hierzulande gehören zum Beispiel die zahlreich auftauchenden Falschmeldungen über Asylsuchende zum Repertoire einer fremdenfeindlichen Fake-News-Strategie. Als politische Beeinflussung sind auch die Fake-News zu sehen, die aus dem unmittelbaren Umfeld von Trump im Wahlkampf lanciert wurden.

*
• Lösungsansätze
Lösungansätze gegen automatisierte Propaganda und Fake-News
Die gesteuerte Beeinflussung der Meinungsbildung schafft Misstrauen in Medien, Politik und Technik. Doch statt neuer Regelungen und Verbote, gibt es heute schon einfache Mittel, welche die Wirkung von Bots und Fake-News zumindest einschränken können.

Was können Journalisten tun?
Mehr Medienkompetenz bei der Einschätzung sozialer Medien brauchen nicht nur die Otto-Normal-Nutzer, sondern vor allem auch Journalistinnen und Journalisten, weil sie als Verstärker wirken. Bei der Berichterstattung über soziale Netzwerke ist also Vorsicht geboten:
•Journalisten müssen bei der populär gewordenen Form der „Das sagt das Netz“-Berichterstattung besser aufpassen. Aussagen wie „Anhänger von XY ließen den Hashtag #XYgewinnt über 18 Stunden trenden“ sind nichts wert, wenn man nicht weiß, ob es sich um echte Anhänger oder Bots handelt.
•Mit Zahlen in sozialen Medien sollte man sowieso extrem vorsichtig sein. Unter den Followern/Freunden können sich zahlreiche Fake-Follower oder Bots befinden. Die reine Zahl sagt also erstmal recht wenig aus, ob Politikerin A beliebter als Politiker B ist.
•Follower, Facebook-Likes, Youtube-Views und vieles mehr kann man sich im Netz für wenig Geld kaufen. Zahlen sagen also wenig aus. Und man kann die Follower auch für andere Leute/Parteien/Unternehmen kaufen, um diese dann als „Faker“ zu diskreditieren.
•Die Ergebnisse der allseits beliebten Online-Umfragen sind meistens nichts wert, weil sie sowohl manuell durch Interessensgruppen wie maschinell durch Bots manipuliert werden können.
•Das Offenlegen von Quellen durch Verlinkungen oder die Veröffentlichung von Originaldokumenten macht die Nachricht für den Leser überprüfbar.

Wie können Nutzer Bots erkennen?
Es gibt verschiedenen Anzeichen, die auf einen Bot hinweisen können:
•Der Name des Accounts: Oftmals haben die Bots Accountnamen, die nach Zufallsgenerator aussehen. Das muss aber nicht so sein.
•Die Anzahl von täglichen Postings ist ungewöhnlich hoch oder hat eine Regelmäßigkeit, die ein menschlicher User nicht leisten könnte. Nur wenige Leute twittern immer zur gleichen Zeit und im immer gleichen Abständen.
•Können die Accounts, wenn man sie anschreibt vernünftig antworten? Machen die Postings und Tweets beständig Sinn oder schleichen sich Fehler ein, die auf eine Automatisierung hinweisen?
•Einen Blick auf die Follower werfen: Folgen einem deutschsprachigen Account nur Accounts, die andere Sprachen nutzen, könnte dies auf Fake-Follower hinweisen. Ungewöhnliche Follower sind oft auf den ersten Blick erkennbar.
•Eine Analyse ihrer Follower und denen, die sie folgen. Bots folgen sich in der Regel gegenseitig und habe wenig/keine echten Freunde. Eine Auswertung des Netzwerkes, die allerdings Programmkenntnisse benötigt, kann Botnetze entlarven, weil die meisten Bots in Botnetzen sich vor allem selbst folgen.

Was können politische Parteien tun?
Parteien könnten eine freiwillige Selbstverpflichtung unterschreiben, dass sie keine meinungsverstärkenden Bots im Wahlkampf einsetzen. Hierbei bleibt natürlich die Gefahr, dass einige Parteien nicht mitmachen oder dass diese Bots nicht offiziell einsetzen, es aber unter der Hand doch tun. Bei versteckter Wahlkampfunterstützung hat gerade die rechtspopulistische AfD Erfahrung. Andererseits können sich Parteien schwer dagegen wehren, wenn irgendjemand Bots für sie einsetzt.
Und Parteien sollten selbst nicht an Fakten vorbei Politik machen: Wir leben in Zeiten, in denen zwei Drittel der Deutschen die Kriminalitätsentwicklung vollkommen falsch einschätzen. Doch Innenpolitiker berufen sich auf dieses „subjektive Unsicherheitsgefühl“, um immer neue Überwachungsinstrumente durchzusetzen. Das ist eine Politik, die nicht auf Empirie und Evidenz setzt, sondern auf Gefühle und gesellschaftliche Fehlannahmen.

Was können soziale Netzwerke und Plattformen tun?
Soziale Netzwerke können die Erkennung von Bots und Botnetzen verbessern. Sie müssen dabei darauf achten, dass sie nützlichen Bots nicht schaden. Dass in Sachen Fake-News ausgerechnet Facebook die Rolle zukommen soll, zwischen wahren und falschen Nachrichten zu unterscheiden, kann niemand wollen, dem freie Meinungsäußerung ein wichtiger Wert ist. Es gibt Hinweise, dass Facebook an einem Zensurtool arbeitet, dass für den chinesischen Markt bestimmt ist. Das weist darauf hin: Dem Unternehmen ist egal, wo es seine Profite macht und unter welchen politischen Voraussetzungen.
Wichtig ist jetzt vor allem, dass Facebook nicht anfängt „falsche“ Nachrichten auf Einzelaccounts zu zensieren oder ihre Verbreitung verhindert. Stattdessen könnte Facebook in vom Unternehmen selbst kuratierten Angeboten dafür sorgen, dass dort seriöse Quellen und Nachrichten verbreitet werden. Dass Facebook diese Trending News beeinflussen kann, hat es ja in der Vergangenheit gezeigt. Genauso kann das Unternehmen überlegen, ob es sinnvoll ist, dass jede dahergelaufene Fake-News-Seite mit „Instant Articles“ das gleiche Design bekommt wie seriöse Medien. Dafür wird Facebook Leute brauchen, die das preisgekrönte Bild vom Napalm-Mädchen von Kinderpornografie und die qualitativ hochwertige investigative Recherche von der billigen Fake-News unterscheiden können, wie Margaret Sullivan von der Washington Post treffend schreibt.

Wie können Nutzer Fake-News erkennen?
Bei einer bestimmten Gruppe von Menschen wird ein Appell an die Eigenverantwortung zur Überprüfung von Nachrichten nicht helfen. Sie posten, was in das vorgeformte Weltbild passt. Da ist es egal, ob die Nachricht nun komplett frei erfunden, ob sie von unseriösen Medien wie der Epoch Times aufgebretzelt oder von Rechtsradikalen mit falscher Überschrift auf Facebook gepostet wurde.
Bei anderen Menschen helfen die simpelsten Werkzeuge der Medienkompetenz und ein bisschen Suchmaschinenbedienung:
•Nachrichten auf Plausibilität zu prüfen, bevor man auf „Teilen“ klickt
•gibt der Artikel eine Quelle an? Ist diese verlinkt und überprüfbar?
•gibt es andere Quellen, welche die Nachricht bringen?
•berichten auch angesehene Medien darüber?
•Wer verbreitet eigentlich die Nachricht? Wen teile oder retweete ich eigentlich da? Welche anderen Inhalte verbreitet der Ursprungsaccount?

• Fact-Checking-Webseiten
(hier eine Studie über diese) und Anti-Fake-Webseiten helfen dabei, herauszufinden und publik zu machen, ob eine Nachricht gefälscht ist. Im schnellen Strom der Nachrichten und bei den begrenzten Mitteln der Fact-Checker ist das nur für einen Teil der Nachrichten möglich. Und wie das schon immer mit der Richtigstellung von „Enten“ war: Sie erreichen nie eine so große Leserschaft wie die schrille Nachricht, die sie dementieren. Treffend besungen hatte das vor Urzeiten einmal Reinhard Mey in seinem Song „Was in der Zeitung steht“.

• Was kann der Staat tun?
Der Bundes- und Landesregierungen müssen das Thema Medienkompetenz auf die Agenda setzen. Das geht mit der Schule los und hört mit der Weiterbildung aller gesellschaftlichen Alterstufen auf. Das kostet Geld. Solange in den Bundesländern bisher nur einige Cent pro Bürger und Jahr dafür zur Verfügung stehen, wird es nicht klappen, diese neuen Herausforderungen für die Demokratie zu meistern.

am  29.11.2016  Markus Reuter
https://netzpolitik.org/2016/fakenews-social-bots-sockenpuppen-begriffsklaerung/
***