Infodemie: Datendiskriminierung, Algorithmierung und digitaler Widerstand Am 21. März 2025 fand im Linzer Wissensturm die zweite Ausgabe der Tagung „Im Auge der Infodemie“ statt. Im Zentrum standen dabei Themen wie Datendiskriminierung, algorithmische Entscheidungen und digitaler Widerstand. Die drei Vorträge von Clemens Apprich, Astrid Mager und Magdalena Taube zeigen die tiefgreifenden Problematiken auf, die durch die Digitalisierung in unserer Gesellschaft entstanden sind auf. Clemens Apprich (Universität für angewandte Künste Wien) eröffnete die Tagung mit einem Vortrag über Datendiskriminierung. Er wirft einen kritischen Blick auf Daten und die Art, wie sie interpretiert werden. Daten sind nicht neutral, sondern entstehen immer in einem Kontext. In zunehmend automatisierten Entscheidungssystemen geraten Menschen nicht als Individuen in den Fokus, sondern als Teil vergleichbarer Gruppen. Es geht nicht mehr darum, wer jemand ist, sondern wie ähnlich diese Person anderen ist – etwa, wenn Dating-Apps Partner*innen vorschlagen oder Online-Shops gezielte Produkte bewerben. Hinter diesen Filtersystemen verbirgt sich die Annahme der Homophilie: Die Vorstellung, dass Ähnlichkeit Verbindung schafft. Erst durch diesen Rahmen – durch algorithmische Muster und Kontexte – erhalten Daten Bedeutung. Die Risiken, die diese Systeme bergen, sind beispielsweise, dass Gesichtserkennungssoftwares schwarze Menschen oder Frauen oft schlechter erkennen. Das liegt daran, dass sie mit einseitigen Datensätzen – meist weißen Männern trainiert wurden. Der gesellschaftliche Bias ist also schon in den Daten enthalten und setzt sich in digitalen Systemen fort. Apprich nennt das Datendiskriminierung: Eine KI reproduziert bestehende Vorurteile, nicht weil sie „böse“ ist, sondern weil sie mit einseitigem Material gefüttert wird. Daten sind nie neutral, sie sind Grundlage eines personalisierten Glaubens. Zudem sind sie immer etwas Produziertes – sie werden stets für einen bestimmten Zweck produziert. Auch Astrid Mager (Österreichische Akademie der Wissenschaften) spricht darüber, wie Digitalisierung und Datafizierung zunehmend Teil des Alltags werden und auch von staatlichen Institutionen immer mehr genutzt werden. Sie stellt die Frage, ob und wie Daten einen öffentlichen Wert erzeugen können. Ein solcher Wert wäre nicht auf Gewinnmaximierung ausgerichtet, sondern auf das Gemeinwohl. Er würde dafür eingesetzt werden, soziale Gerechtigkeit, bessere Bildung oder ein gerechteres Gesundheitssystem zur kreieren. Anhand des AMS-Algorithmus – einem System zur Einschätzung der Arbeitsmarktchancen – zeigt Mager, wie algorithmische Diskriminierung über Chancen und Perspektiven entscheidet. Arbeitssuchende werden dort in drei Gruppen eingeteilt, basierend auf groben Merkmalen. Bereits diese Einordnung sei problematisch, denn es gibt zum Beispiel nur zwei Geschlechter zum Auswählen. Wie schon Apprich betonte: Es geht nicht um das einzelne Subjekt, sondern um Korrelationen zwischen vermeintlich ähnlichen Personen. Doch Daten müssen nicht zwangsläufig zur Reproduktion von Ungleichheit führen. Um einen positiveren Umgang damit zu ermöglichen, ist es entscheidend, mit welchem Ziel sie genutzt werden – und in welchem System. Dafür sei ein Wandel notwendig: bestehende Arbeitsweisen, verfestigte Hierarchien und intransparente Strukturen müssten hinterfragt und aufgebrochen werden. Magers Appell: Zusammenarbeit fördern, „damit Demokratie nicht nur Formalkriterien erfüllt, sondern auch die Werte die mit Demokratie verbunden sind – Freiheitsrechte“ Magdalena Taube (Berliner Gazette) widmet sich der Frage, wie Widerstand gegen KI und Big Tech im digitalen Zeitalter möglich ist. Sie eröffnet ihren Vortrag mit einem Zitat von Audre Lorde: „Das Werkzeug des Herrschers wird niemals das Haus des Herrschers zerstören.“ Damit stellt sie die Frage, ob man mit KI überhaupt gegen die Logik der KI arbeiten kann. Dabei sieht sie die Herausforderung darin, kritisches Bewusstsein zu entwickeln, sich eigene Werkzeuge anzueignen, sich gegen bestimmte Narrative zu wehren und Alternativen zu entwickeln. Taube betont, dass KI weder „künstlich“ noch „intelligent“ sei, sondern ein komplexes Geflecht aus Technologie, Institutionen und Ideologien. Sie erinnert daran, wie viel Macht in den Händen weniger Firmen liegt: Apple, Amazon, Alphabet, Meta, Microsoft – Big Tech kontrolliert heute nicht nur Kommunikation und Konsum, sondern auch einen wachsenden Teil öffentlicher Infrastruktur. Medienaktivismus müsse daher auch die Aneignung und Erschaffung neuer technischer Mittel umfassen. Um konkret zu zeigen, wie das aussehen kann, stellt sie drei alternative KI-Tools vor: Rolly App, Journalism Watch Dogs und Hugging Face. Alle drei sind Anwendungen, die für unabhängigen Journalismus genutzt werden können. Um eine Verbesserung und mehr Unabhängigkeit von KI-Tools zu erreichen sei es jedoch auch wichtig, die offline-Kommunikation und die sozialen Netzwerke außerhalb des digitalen Raums zu stärken. Gleichzeitig ist Taube jedoch der Meinung, man müsse sich damit abfinden, dass es wohl keine „bessere“ Version des iPhones geben werde, die weniger problematisch und gleichzeitig attraktiver wäre. Deshalb plädiert sie für einen anderen Zugang – über Bildung, Medienkompetenz und Aufklärung. Denn nur wer versteht, was mit den eigenen Daten passiert, kann selbstbestimmt handeln. Widerstand beginnt bei Bewusstsein. Verfasst von Nuria Tomaschek am 23.4.2025