Workshop: Big Tech’s Gaze and Representational Self-Defence

Gegenstrategien für die automatisierte Kuratierung von Inhalten in sozialen Medien
Workshop mit Michael Wallinger
Wie können wir uns gegen die Deutungs- und Darstellungshoheit von Big Tech im Internet wehren? Können wir künstlerische Strategien der Täuschung, Verweigerung oder des Widerstands entwickeln? Können wir ihre Systeme so umgestalten, dass sie unserer Handlungsfähigkeit dienen, anstatt sie auszubeuten?
Sprachmodelle haben den KI-Hype der letzten Jahre eindrucksvoll befeuert, aber sie haben auch ein neues dominantes Paradigma etabliert, das weit über gruselige Chatbot-Demos hinausgeht.
Suchmaschinen, Empfehlungs- und Moderationssysteme, generative KI für Text, Bild und Video sowie unscheinbarere digitale Infrastrukturen des täglichen Lebens beruhen alle auf Fortschritten in der Art und Weise, wie Maschinen Kontext durch Methoden der semantischen Repräsentation verstehen.
Fragen der Interpretation und Repräsentation, die traditionell in den Künsten, verwandten akademischen Bereichen und im öffentlichen Diskurs verhandelt wurden, werden nun in automatisierte Systeme übertragen, die unter einer Prämisse von Objektivität und technologischer Neutralität agieren.
In der Realität sind diese Systeme aber oft von Biases, Missinterpretationen und Fehldarstellungen geprägt. Infolgedessen neigen sie dazu, diskriminierende und hegemoniale Strukturen sowie Machtasymmetrien zu reproduzieren und zu verstärken.
Eingebettet in hochkomplexe Architekturen sind diese Modelle, die inhaltliche Bedeutung interpretieren, ein zentraler Bestandteil der Systeme, die unsere Medienrealitäten generieren, kuratieren und verifizieren.
Neben ihren Auswirkungen auf unsere psychische Autonomie und Gesundheit nehmen sie Einfluss auf unsere Sehgewohnheiten und damit wiederum auf die Produktion neuer Inhalten. Sie beeinflussen die Art und Weise, wie wir die Welt und uns selbst wahrnehmen, verstehen und darstellen, und prägen so Normen und allgemeine soziale Zusammenhänge.
Diese Auswirkungen sind jedoch nicht auf den Medienkonsum auf digitalen Plattformen beschränkt. Zunehmend werden große Mengen von Daten aus Online-Quellen für die Entwicklung neuer Technologien verwendet. Infolgedessen werden algorithmische und unternehmerische Entscheidungen darüber, welche Teile unserer Online-Aktivitäten als relevant oder überflüssig, ethisch vertretbar oder schädlich angesehen werden, in diese Datensätze eingebettet und in den darauf aufbauenden Technologien unbemerkt reproduziert. Dies wiederum kann erhebliche Auswirkungen auf unser künftiges Alltagsleben und unsere zukünftige kulturelle Produktion haben.
Während einige dieser Systeme wichtigen Zwecken dienen, z. B. der Bekämpfung diskriminierender Online-Inhalte, entzieht sich ihr weitergehender Einfluss oft der öffentlichen Beobachtung. Während sie im Hintergrund unsere Online-Umgebungen prägen, stellen sie zugleich dringende ethische Fragen nach der Verantwortung für algorithmisches Handeln, nach dessen Einfluss auf öffentliche Sichtbarkeit und nach den Werten, die in diese Technologien eingeschrieben sind.
In diesem Workshop werden wir die grundlegende Architektur dieser Systeme erkunden und ihren wachsenden Einfluss auf visuelle Sprachen, kreative Werkzeuge und demokratische Öffentlichkeiten nachgehen. Gemeinsam werden wir darüber nachdenken, wie sie Bedeutung formen können, und ein praktisches Hacking Experiment durchführen:
KÖNNEN WIR DIESE MASCHINEN DAZU VERLEITEN, DAS ZU SEHEN, WAS WIR SIE SEHEN LASSEN WOLLEN?
Dauer: ca. 4 Stunden
Es sind keine Programmiererfahrung oder technische Vorkenntnisse erforderlich. Die Teilnehmer*innen benötigen einen Computer mit Internetzugang, ein Google Colab-Konto und, wenn möglich, Zugang zu einem ein Instagram-Account.
11. Juni 2025, ab 10 Uhr bis ca. 16 Uhr
Anmeldung
über das Pad
Raum 311
Nordbau der Kunsthochschulekassel
Menzelstraße 13-15, 34121 Kassel