4.3. Selbstbestimmt durch CT#
Jede breit genutzte technische Entwicklung hat Auswirkungen auf die Gesellschaft und befeuert weitere Entwicklungen, die nur schwer vorherzusagen sind. Sich aus dieser Entwicklung herauszuhalten ist praktisch nicht möglich. So führte die Einführung des Automobils auch dazu, dass kleine lokale Geschäfte durch große Supermärkte ersetzt werden konnten. Der Gewinn an Mobilität machte damit Mobilität zur Notwendigkeit. Heute ist es kaum denkbar auf dem Land ohne Auto zurechtzukommen.
Kaum eine Entwicklung hat mehr Auswirkungen auf unser gesellschaftliches Leben als die Digitalisierung. Ein aktuelles Beispiel wie Algorithmen die Gesellschaft formen, zeigt der Fall Cambridge Analytica: Durch maschinelles Lernen und Big Data Analysis, lernen Algorithmen Strukturen in großen Datenmengen. Sie abstrahieren Eigenschaften aus einer vorgegebenen Datenmenge und Klassifizieren schließlich neue Datensätze auf Basis der gelernten Strukturen. 2012 erbringt Michal Kosinski den Nachweis, dass man aus durchschnittlich 68 Facebook-Likes von Benutzer*innen vorhersagen kann,
welche Hautfarbe diese haben (95-prozentige Treffsicherheit)
welche sexuelle Orientierung diese haben (88-prozentige Treffsicherheit)
ob sie Demokrat*innen oder Republikaner*innen sind (85-prozentige Treffsicherheit)
und wie intelligent sie sind, welche Religionszugehörigkeit, Alkohol-, Zigaretten- und Drogenkonsum sie nachgehen oder ob ihre Eltern bis zu deren 21. Lebensjahres zusammengeblieben sind.
Seine Arbeit finden Sie in [Kosinski et al., 2015, Kosinski et al., 2014, Kosinski et al., 2013]. Sein Modell wurde auf illegale Weise auf Facebook-Daten angewendet, um u. a. Wahlwerbung zu individualisieren (Mikrotargeting) und somit die Wahlen in den USA zu beeinflussen.
Algorithmen, die mit uns und miteinander auf der ganzen Welt agieren, verstärken die Effekte der Globalisierung und beeinflussen menschliches Verhalten auf dem Globus. Dies ist jedoch keine Einbahnstraße. Das veränderte Verhalten wird von den Informationsverarbeitungssystemen aufgenommen, die veränderte Struktur wird gelernt und das Resultat wird auf den Menschen zurückgeworfen. Diese Rückkopplungsschleife kann wünschenswert sein, sie kann aber auch den Schaden, den Algorithmen verursachen, rasant verstärken—das System kann aus dem Ruder laufen.
Ein möglicherweise wünschenswertes Beispiel wären Musikvorschläge in Streaming-Diensten wie Spotify. Durch die konsumierte Musik der Benutzer*innen auf der Platform lernt ein Algorithmus deren Musikgeschmack und schlägt vermehrt Musik vor, welche den Benutzer*innen gefällt. Da die Benutzer*innen jene Musik hören, verstärkt sich dieser Effekt. Ähnlich wie Architekturen Körper in der physikalischen Welt regulieren, reguliert Programmiercode die digitale Welt [Lessig, 2006]. Der regulierende Effekt ist unvermeidlich jedoch sollte uns dieser bewusst sein.
Problematisch wird diese Rückkoppelung, wenn es um gesellschaftliche oder politische Themen geht. Füttert uns der Algorithmus mit unseren eigenen Vorurteilen, indem er uns Videos und Artikel vorschlägt die uns gefallen werden, verhärtet sich unsere Ignoranz. Wir laufen Gefahr ein vollkommen verzerrtes Bild von der realen politischen wie gesellschaftlichen Landschaft zu bekommen. Menschen mit den selben Ansichten kommen zusammen und grenzen sich gegen andere Meinungen ab. Man ist sich einig und eine Diskussion wird überflüssig. Statt sich in öffentlichen Räumen auszutauschen, verteidigt man sich gegen andere Auffassungen in abgeschotteten Zonen. Es entsteht ein Klima der Denunziation, ein Kampf um das lauteste Wort und ein Austausch von reinen Wortphrasen. Ohne den konstruktiven Diskurs steht am Ende die Radikalisierung.
Hinter jedem Algorithmus steht ein gewisses Interesse. Das kann sinnvoll, unsinnig, hilfreich, ehrenwert aber auch gefährlich sein. Algorithmen sind menschengemacht und Menschen irren. Deshalb können die Architekt*innen der Informationssysteme deren Auswirkungen nicht im Vorhinein vollends überblicken. Oftmals fehlt ihnen die notwendige Expertise, z.B. im Bereich der Psychologie und/oder Soziologie. Im schlimmsten Fall sind ihnen die Auswirkungen gleichgültig.
So ist, zum Beispiel, die Währung der Streaming-Dienste, sozialer Medien und Influencer Ihre Aufmerksamkeit—ein wertvolles Gut. Wenn Algorithmen diese Aufmerksamkeit um jeden Preis erhaschen wollen, erfüllen sie zwar ihren angedachten Zweck, jedoch mit möglicherweise äußerst fragwürdigen Mitteln. Diese Mittel haben womöglicher die Erbauer*innen der Algorithmen gar nicht vorgesehen. Solche Fehler können zu (sozialen) Katastrophen führen. Anstatt einer unerwarteten Zerstörung der Ozonschicht durch Fluorchlorkohlenwasserstoffe (FCKW), haben wir es in der (digitalen) Zukunft vielleicht mit einer unerwarteter Zerstörung sozialer Konstrukte zu tun.
Zusammenfassend lässt sich sagen: Wir können es nicht alleine den Entwickler*innen aus dem Silicon Valley überlassen, wie wir unsere digitale Zukunft gestalten. Algorithmen sind weder gut noch schlecht, derartige Begriffe sind ihnen völlig fremd. Sie können Wundervolles wie Schreckliches zu Tage bringen. Allerdings ist es naiv zu glauben wir hätten die totale Kontrolle über die technische Entwicklung. Technik prägt unsere Sicht auf die Welt bevor wir überhaupt die Kontrolle übernehmen können. Entscheidend ist, dass wir uns dessen bewusst sind und eine gewisse reflektierende Distanz zur Technik bewahren.
Um uns in die zukünftige Entwicklung einzumischen und so die Zukunft mitzugestalten aber auch um schlichtweg durch die digitale Welt navigieren zu können, ist das Computational Thinking unerlässlich. Jeder Mensch sollte wissen welche Ziele die Systeme verfolgen mit denen er oder sie interagiert. Er oder Sie sollte wissen welche gewaltigen sozialen Kräfte diese Algorithmen freisetzen können und wie sie individuelles wie auch gemeinschaftliches Verhalten beeinflussen. Er oder Sie sollte wissen welche Potenziale und Grenzen die Digitaltechnik hat, um sich nicht von Nebelkerzen blenden zu lassen. Als selbstbestimmte*r freie*r Bürger*in ist Computational Thinking ein Handwerkszeug um mit Informationssystemen als Nutzer*in und nicht als Benutzte*r zu interagieren.