re:publica 2018: Dämonische Algorithmen und eine bessere Welt

re:publica 2018: Dämonische Algorithmen und eine bessere Welt
Alle Jahre wieder treffen sich Digitalaffine aus Deutschland und der Welt in Berlin zur re:publica. Der Besuch lohnt sich, auch wenn der Blick auf die digitalisierte Gegenwart eher düster ausfällt.

Die Welt, die auf der re:publica präsentiert wird, gerät aus den Fugen. Kameras erkennen jeden von uns überall, Smartphones werden zu privaten Spionage-Geräten, im Internet bedrohen uns Trolle, Bots und Shitstorm-Schreiber, Algorithmen entscheiden über unsere Bewerbungschancen und selbst unsere Haarbürsten melden Spliss direkt an Pharmakonzerne.

Das ist der "worst case" von Digitalisierung, die dystopische Vision aus Minority Report und den Büchern von William Gibson. Es ist eine Welt, die auf der re:publica, der alljährlichen Blogger-/Internet-/Gesellschaftskonferenz bis ins Detail auseinandergenommen wird, sie wird seziert, analysiert, kritisiert. Ohne dieses genüssliche Zukunftsschaudern auf den großen Bühnen wäre die re:publica eine komplette Flausch-Veranstaltung, auf der sich die Nerds der Republik nur gegenseitig herzen und wahlweise mit unbezahltem #freubier, Holunder-Limonade oder Club Mate zuprosten.

###extern|twitter|horn/status/992485673897775104###

Ein positiver Blick auf eine digitalisierte Zukunft war eher in der Minderheit der Sessions zu finden. Immerhin hieß einer der Konferenzstränge "Cancel the Apocalypse", aber auch in dem Titel steckt eine gewisse Endzeit-Erwartung. Denn wer nicht mit dem Weltenende rechnet, muss sich auch keine Mühe machen, es abzuwenden.

Ganz konkret fand sich der Ruf nach Regulierung und Kontrolle von ungezähmten, unverstandenen Algorithmen von der Eröffnungs-Keynote auf Bühne 1 bis zur Detaildiskussion über Algorithmen im Personalwesen. Beispielhaft nahm Simon Hegelich, Professor für Political Data Science an der TU München, einen veröffentlichten IBM-Algorithmus auseinander (sein Blogeintrag hier, das Video von der Session hier).

Die Kurzfassung: IBM Watson war zu dem Schluss gekommen, dass Überstunden der entscheidende Faktor seien, warum Menschen im Unternehmen kündigen würden. In Hegelichs Experiment mit den Entscheidungsbäumen, denen dieser Algorithmus folgt, hat er gezeigt, dass eine andere Anordnung der Datenpunkte zu völlig anderen Ergebnissen führen kann. Wenn man viele Entscheidungsbäume mit unterschiedlichen Ausgangspunkten zusammenfasst, zeigt Hegelich, ist am Ende das monatliche Gehalt der wahrscheinlich ausschlaggebendste Indikator dafür, ob jemand kündigen wird.

###extern|twitter|kleinerW4hnsinn/status/992650630320869376###

Natürlich ermöglicht kein Algorithmus eine hundertprozentige Aussage darüber, wie sich eine konkrete Person tatsächlich verhalten wird. Das ist die Herausforderung von Wahrscheinlichkeiten: Es kann immer anders kommen als prognostiziert.

Noch sind algorithmisch gestützte Personalentscheidungen aber im Experimentier-Status. "Wir reden hier über ein Zukunftsthema", ergänzte Hegelich. Und Matthias Spielkamp (iRights, AlgorithmWatch) warf in der Diskussion noch ein, dass Algorithmen und Menschen immer in Kombination auftreten und sich das auf absehbare Zeit auch nicht ändern werde, jedenfalls nicht im Personalwesen. Aber auch Spielkamp warnte: "Macht euch mal nichts vor – da sind Möglichkeiten drin, die sprengen das, was man mit menschlichem Einsatz erreichen kann." Und Katharina Simbeck, die über Diskriminierung durch Künstliche Intelligenz forscht, zeigte auf, dass sich menschliche Vorurteile in die Programmierung von Datenanalyse einfach einschleichen können.

Das hat Auswirkungen auf die Kohlenstoff-Welt. Wenn die Algorithmen nämlich von Vorbildern der echten Welt lernen, macht das gerade bei Bilderkennung Schwierigkeiten. Wenn zum Beispiel Männer in einer Küche bei der automatischen Erkennung als Frauen gekennzeichnet werden oder das iPhone die Gesichter von zwei asiatischen Frauen nicht auseinanderhalten kann, bilden sich darin bestehende Vorurteile ab.

Was da genau passiert, ist für einzelne Menschen schon nicht mehr überschaubar. Wir sind darauf angewiesen, dass die Programmierer und Firmen hinter den Algorithmen wissen, welche ethischen Entscheidungen sie ihren Algorithmen mitgeben – und das möglichst transparent. Es ist auch für die Regulierer ein Problem, dass Algorithmen schwer durchschaubar sind, im Zweifel sogar als Firmengeheimnisse gelten, erklärte Heike Raab. Sie ist Staatssekretärin in Rheinland-Pfalz und unter anderem zuständig für Digitales. Auf ihrem Panel zu "Smart Regulation" (Link?) machte sie klar: Politik schaut auf die Ergebnisse algorithmisch gestützter Entscheidungen und reguliert nach gewünschtem Ergebnis. Das bedeutet: Man kann zwar verbieten, dass Algorithmen im Ergebnis Menschen diskriminieren. Man kann aber letztlich nicht sinnvoll kontrollieren, ob der Algorithmus diskriminierend angelegt ist.

Für die Gesellschaft, die sich daraus ergibt, macht das keinen Unterschied. Aber diese Diskussionen auf der re:publica beschwören eine Schattenwelt des Undurchdringlich-Magischen, die einige Privilegierte aus der sicheren Position des Profitierenden kontrollieren, während Betroffene keine Chance haben, sich gegen die unsichtbare Hand des Algorithmus zur Wehr zu setzen. Und wenn sie es tun, werden sie so getagged, dass ihr Leben noch schwieriger wird.

###extern|twitter|sixtus/status/991985226770501633###

Das muss nicht so sein. Eine Mischung aus Technikverständnis und offenem Code, sinnvoller Regulierung und bewusster digitaler Ethik kann die Vorteile der übermenschlich fähigen Technik nutzbar machen. Dazu hätte ich mir auf der re:publica noch mehr positive Einschätzungen gewünscht. (NB: Ich spare mir aus Platzgründen die Replik auf einen Talk über Transhumanismus, dessen Speakerin uns alle lieber zu Zombies mit emotionalen Bedürfnissen machen würde als zu herzkalten Cyborgs.)

Zumindest eine Initiative, die präsentierten durfte, zeigt, dass sich digitale und kohlenstoffliche Welt wunderbar vermengen können. #Keine(r)BleibtAllein heißt der Verein. Das Ziel: digital erreichbare Menschen aus der ungewollten Einsamkeit holen. Ich habe darüber schon kurz geschrieben, weil evangelisch.de als Partner mit an Bord ist und wir (mit der EKD) für den Advent eine ganze Kampagne dazu planen. Wir sind aber vor allem deswegen dabei, weil dieses Ziel so einfach ist, so wichtig und auch zu unserem Auftrag als Kirche passt.

Zur re:publica kann man endlos schreiben, deswegen noch vier Dinge in Kürze.

Lobend sei erwähnt, dass der Anteil der Frauen und Männer bei den Speakerinnen komplett ausgeglichen war, einschließlich ein paar Menschen, die sich selbst als nicht-binär erkennen.

Beim Netzgemeindefest hat sich sich auch die #DigitaleKirche ökumenisch getroffen, das hat Felix Neumann drüben bei katholisch.de schon kenntnisreich zusammengefasst. Wir waren viele – vielen Dank dafür, und nächstes Jahr schauen wir mal, ob wir das nicht auch noch anders hinkriegen!

"Privacy by default" war auch ein Thema, und zumindest eine gute technische Lösung dafür bekam auch eine große Bühne in Berlin: "pretty easy privacy", ein Schweizer Unternehmen, das eine einfache Lösung für Verschlüsselung von E-Mails anbietet. Wer sich bisher mit PGP etc. nicht auseinandersetzen wollte, findet da eine einfache (aber nicht kostenlose) Variante.

Und wie immer von der re:publica gibt es fast alles auch in Videos zu sehen, die nach und nach aus den Live-Streams als Einzelvorträge ausgekoppelt werden. Ich empfehle diese Playlist (Links ergänze ich, sobald die Videos verfügbar sind):

Vielen Dank für’s Lesen & Mitdenken!


Im Blog #Lattenkreuz schreibe ich meine Beobachtungen, Links und Interviews zu den Themen Digitalisierung, Digitale Kirche und digitalisierte Welt auf. Ich bin erreichbar auf Twitter als @dailybug.

weitere Blogs

Drei Kreuze mit Regenbogenfarben
Körper sind ein zentrales Thema in den Passionserzählungen. Eine gute Gelegenheit, einen Blick in eine queer-theologische Körperkonfigurationen zu Kreuz und Auferstehung zu werfen.
KI macht jetzt auch Musik – und das beunruhigend gut.
Aus gegebenem Anlass: zwei Briefe an den bayerischen Ministerpräsidenten.