Archiv 2018 "Die Plattform-Demokratie"
Pressemitteilung
Wie Algorithmen die Aufmerksamkeitsökonomie steuern
lpr-forum-medienzukunft 2018
zum Thema Die Plattform-Demokratie am 1. März in Frankfurt
Frankfurt am Main, 2. März 2018. Sie selektieren, filtern, kuratieren und adressieren: In der Welt der Informationsintermediäre entscheiden die Algorithmen von Suchmaschinen und sozialen Online-Netzwerken darüber, welche Inhalte für wen auf welchen Displays sichtbar werden. Dadurch sind etwa Google und Facebook längst mehr als nur neutrale Plattformen. Die Algorithmen, die errechnen, was bei Googles PageRank-Ergebnisliste prominent platziert wird oder auch auf einer Facebook-Timeline auftaucht, prägen unser Bild von der Wirklichkeit. Intermediäre avancieren zu Katalysatoren öffentlicher Kommunikation und streben dabei im Grunde nur eines an: die Maximierung von Klickzahlen, die sich über Werbung monetarisieren lassen. Algorithmen dienen damit vor allem dem Ziel, die Aufmerksamkeit von Menschen zu erregen. Dabei werden Sensationalismus und Desinformation, Polarisierung und Propaganda, Wirklichkeitsverzerrung und Echokammern häufig zu gefährlichen Kollateralschäden. Beim 9. lpr-forum medienzukunft diskutierten Experten am 1. März in Frankfurt am Main darüber, welche Ethik- und Moral-Modelle die digitale Gesellschaft benötigt, um die Wirkmacht verantwortungsbewusst mit der Macht von Algorithmen und Künstlicher Intelligenz umzugehen.
Die Informatik-Professorin Katharina Zweig berichtete, der Google-Suchalgorithmus basiere auf etwa 200 Kriterien. Facebook benutze vermutlich noch mehr „Signale“, um zu ermitteln, was im Internet für einzelne Nutzer vermeintlich relevant sei. Die Leiterin des Algorithm Accountability Lab der Technischen Universität Kaiserslautern schilderte, auf welcher Basis Intermediäre die Vorlieben einzelner Nutzer zu ermitteln versuchen: „Wenn jemand klickt, ist das der Erfolgsfall.“ Von diesem Modell ausgehend, würden die Algorithmen von Google oder Facebook nur bei angeklickten Online-Inhalten auf individuelle Relevanz schließen. Dabei blieben jedoch solche Online-Informationen unberücksichtigt, die beispielsweise bei News-Übersichten von Rezipienten inhaltlich zur Kenntnis genommen, aber nicht angeklickt würden.
Mark Zuckerbergs Ankündigung, der Facebook-Algorithmus werde künftig stärker „bedeutungsvolle soziale Interaktionen“ berücksichtigen, findet die Informatik-Professorin wenig überzeugend und fragte: „Wie will Facebook das messen?“ Um die gefährlichen Effekte von Facebook-Echokammern oder -Filterblasen zu verdeutlichen, erinnerte Katharina Zweig an Erfahrungen, die Simon Hurtz gemacht hat: Der Reporter der Süddeutschen Zeitung erstellte ein national-konservatives Profil auf Facebook. Darüber erreichten ihn Verschwörungstheorien und eine Flut von fremdenfeindlichen Äußerungen. Fakten wurden zur Nebensache, Emotionen verdrängten Argumente, und die Auswahl der präsentierten Inhalte löste Beklommenheit aus. Solche Echokammern könnten auch die Welt vieler Blogs bestimmen, vermutet die Informatik-Expertin.
Darüber hinaus machte Katharina Zweig deutlich, dass Facebook wenig kooperativ sei. Das soziale Online-Netzwerk biete keine Daten-Schnittstelle an, um überhaupt Untersuchungen zu ermöglichen. Wie die Personalisierung von Inhalten geschieht, versuchte Katharina Zweig im vergangenen Jahr bei Google zu ermitteln, als ihr Forscherteam regelmäßig Suchanfragen über fremde Browser von etwa 4.400 Freiwilligen an die Suchmaschine schickte. Am Ende dieses Datenspende-Projektes stellte sich heraus, dass die meisten Nutzer ähnliche Suchergebnisse erhalten hatten, also nicht in personalisierte Echokammern gesperrt worden waren. „Ich habe keine Sorge, dass Google uns in eine Filterblase bringt“, bilanzierte die Wissenschaftlerin.
Wenn Algorithmen einen immer größeren Einfluss auf die Art ausüben, in der wir die Welt wahrnehmen, und darauf, wie wir kommunizieren, ergibt sich zwangsläufig die Frage nach der moralischen Verantwortung für die Folgen dieser Entwicklung. Lässt sich Moral programmieren? Mit dieser Frage setzt sich Catrin Misselhorn auseinander. Die Inhaberin des Lehrstuhls für Wissenschaftstheorie und Technikphilosophie der Universität Stuttgart erläuterte, bei der sogenannten Maschinenethik gehe es darum, Maschinen zu gestalten, die selbst ethische Entscheidungen treffen und umsetzen könnten. Als Beispiele, in denen Computer-Algorithmen eine zentrale moralische Rolle spielen könnten, gelten das autonome Fahren von Autos, aber auch der Einsatz von Drohnen oder Kriegsrobotern oder das Identifizieren und Filtern von Hate Speech im Internet. In all diesen Bereichen ersetzt die sogenannte Künstliche Intelligenz menschliche Handlungen. Catrin Misselhorn argumentierte, je komplexer und autonomer Maschinen würden, desto eher müssten diese Systeme in der Lage sein, ihr Verhalten selbst zu regulieren und gegebenenfalls moralische Entscheidungen zu treffen. Deshalb werde daran gearbeitet, Maschinen zu entwickeln, die über ein gewisses Maß an eigenständiger moralischer Entscheidungsfähigkeit verfügen. Solange aber künstliche Systeme nicht wirklich Bewusstsein, Willensfreiheit und Reflexionsvermögen hätten, so urteilte die Stuttgarter Philosophie-Professorin, könnten Algorithmen nur eine funktional stark eingegrenzte Äquivalenz zu moralischem Handeln bieten.
Beim 9. lpr-forum medienzukunft wurde deutlich, dass auf dem Weg zur digitalen Plattform-Demokratie zahlreiche ökonomische und technologische Imperative einen normativen Zwang des Faktischen zur Folge haben: Längst verändern Google und Facebook, Microsoft, Apple und Amazon mit ihren Algorithmen die demokratische Kommunikationskultur so nachhaltig, dass Medien- und Ordnungspolitikern kaum Zeit zum Reagieren bleibt. Das gilt für den Bereich Datenschutz ebenso wie für die Sicherung von Meinungsvielfalt oder die Förderung von Medienkompetenz. „Die machtvollen Intermediäre sind nicht nur die neuen Kuratoren des öffentlichen Diskurses, sie sind längst auch zu Regel setzenden Akteuren avanciert“, machte LPR-Direktor Joachim Becker deutlich.
Wichtig sei eine verstärkte politische, ökonomische und gesellschaftliche Debatte über die Folgen der Digitalisierung für unsere Demokratie, fasste Deutschlandradio-Korrespondent Ludger Fittkau ein zentrales Ergebnis der Tagung zusammen. Gleiches hatten zuvor auch der Politikwissenschaftler Gary S. Schaal (Helmut-Schmidt-Universität Hamburg), der Journalistik-Professor Stephan Russ-Mohl (Università della Svizzera italiana, Lugano) und der Medienrechtler Tobias Gostomzyk (Technische Universität Dortmund) gefordert. Die Erkenntnis, dass digitale Medien nicht nur Instrument, sondern auch Gegenstand öffentlicher Diskussionen werden müssen, teilten Vertreter aller politischen Richtungen. Auf dem Podium des 9. lpr-forum medienzukunft galt dies für den Herausgeber der konservativen Frankfurter Allgemeinen Zeitung, Werner D’Inka, ebenso wie für den Digitalexperten und Netzpolitiker Malte Spitz (Bündnis 90/Die Grünen), der die Migration in die digitale Infosphäre als „ein Generationenprojekt“ bezeichnete.
Matthias Kurp
Matthias Kurp ist Professor an der HMKW Hochschule für Medien, Kommunikation und Wirtschaft in Köln
Ca. 7.000 Zeichen
Weitere Informationen unter www.lpr-forum-medienzukunft.de