Algorithms for a better tomorrow

20.05.2019

Warum digitale Ethik zum Trendthema wird

Vor ein paar Monaten landete in meiner Inbox eine Umfrage des BVDW zu den Top-Themen für das Jahr 2019. Ich skippte durch die Wahlmöglichkeiten und setzte mein Kreuz bei „Digitale Ethik”. Überrascht, dass nun auch in der Digitalwirtschaft das ankommt, was seit über 10 Jahren auf Veranstaltungen wie der re:publica diskutiert wird. Déjà-vu?

Mit dem Beginn der Umweltbewegung und dem Einzug der Grünen in die Parlamente begannen etwas zeitverzögert viele Unternehmen Nachhaltigkeit auf die Agenda zu setzen und verstärkt ressourcenschonende Technologien zu nutzen oder zu entwickeln.

Vielleicht stehen wir bei der Digitalisierung gerade an einem ähnlichen Punkt. Alles scheint machbar. Aber was ist gut für die Gesellschaft? Wie so oft ist die Diskussion gespalten – zwischen den verdammt Optimistischen und den verdammt Pessimistischen. Und wie so oft liegen die Antworten eben nicht einfach in der Mitte.

Spannend: Die Blickwinkel auf das Thema sind breit gefächert. Von der Ethik selbst und den Soziologen bis zur Wirtschaftsinformatik, zur Philosophie oder Jura – alle finden einen anderen Zugang.

Bild: MABB Berlin

Anlässlich einer Diskussion, die ich auf der Media Convention in Berlin vor kurzem moderiert habe, möchte ich einige Beobachtungen teilen, die praktische Fragen aufwerfen, wie wir als Gesellschaft mit Technologie umgehen, wie wir sie diskutieren und worauf wir achten sollten.

1. Die MIT Moral Machine: Wer soll sterben und warum eigentlich?

Ein Beispiel, das mittlerweile vielen bekannt ist: Was macht ein autonomes Fahrzeug, wenn es nicht mehr ausweichen kann? Sollen die Kinder, die älteren Menschen oder der Drogenabhängige sterben? Klingt platt, aber tatsächlich befeuerte dieses Beispiel vor wenigen Jahren die Diskussion – bis heute. Heute sagen Forscher*innen, dass es ganz unterschiedliche Ansätze zur Regulierung und der Kultur des Umgangs damit gibt. Während man in Kalifornien selbstfahrende Autos im laufenden Verkehr sieht, hält man in Europa Extra-Spuren wie bei Karlsruhe für „Trolley-E-LKW” für den Anfang realistischer. Zumindest für die Zeit der Ko-Existenz, in der sich Maschinen und Menschen gleichzeitig im Verkehrsraum bewegen. Wer haftet für Schäden? Warum lassen wir heute Menschen mit einem bestimmten Maß an Alkohol oder über 85 Jahren einfach so fahren? Wenn wir uns heute selbst bei Elektro-Rollern schwer mit Entscheidungen tun, wie lange wird es dauern, bis man in Deutschland auch ohne Führerschein „selbst fahren” kann?

2. Der Algorithmus, der Schwarze länger im Gefängnis sitzen lässt: Welche Entscheidungen lassen sich algorithmisch treffen, welche nicht?

Richter in den USA setzen eine Software ein, welche die Rückfallwahrscheinlichkeit von Inhaftierten berechnet. Das Non-Profit-Newsdesk ProPublica behauptet, dass diese Algorithmen Schwarze benachteiligen.

An diesem Beispiel zeigt sich ein besonderes Problem von Software, die mit maschinellem Lernen arbeitet. Zum Trainieren braucht man Daten – die kommen naturgemäß aus der Vergangenheit. Wir müssen also verhindern, dass wir unsere alten gesellschaftlichen Probleme in die Algorithmen von morgen einbauen. Wenn Daten der Vergangenheit unsere Optionen für die Zukunft mitbestimmen – wie ist dann gesellschaftlicher Fortschritt möglich? Wir müssen uns einigen, ob AI benutzt werden darf, um Freiheitsrechte negativ zu beeinflussen. Auch das Zusammenspiel von Mensch und Software bedarf einer genaueren Untersuchung. Wie beeinflusst das Ergebnis der Maschine die Richter*innen? Wer hat die Formeln des Algorithmus geschrieben, mit welchem Weltbild? Gibt es Transparenz? Müssen Betroffene ein Recht auf Erklärung erhalten, um Entscheidungen nachvollziehbar zu machen? Ein Lösungsansatz der aktuell diskutiert wird: Software, die vom Steuerzahler finanziert wird, muss Open Source bleiben. So beugt man möglicherweise dem Risiko vor, dass Algorithmen in solch sensibler Software unter Verschluss bleiben.

Bild: Frederik Schmidtke

3. Der Krebs, den man früher erkennt, weil Software aufmerksamer als der Mensch ist: Wie viel Weltverbesserung ist möglich?

Gerade der Gesundheitsbereich arbeitet schon heute mit Bilderkennung und Big Data. Nirgendwo stellen sich mehr ethische Fragen. Die Chancen auf längeres Leben oder die Heilung bisher unheilbarer Krankheiten sind hier vermutlich riesig. Aber auch der Algorithmus, der empfiehlt, keine künstliche Hüfte mehr einzusetzen oder die Krankenkasse, die Behandlungen ablehnt wegen gemessenen Fehlverhaltens. Beides durchaus realistische Szenarien. Hier ist besondere Aufmerksamkeit und Sensibilität gefordert. Die Abwägung zwischen Datenschutz und Menschenrettung sollte hier zugunsten der Gesundheit ausfallen, die Patient*innen müssen dabei natürlich involviert sein.

4. Digitale Ethik ist die neue Nachhaltigkeit: Aber wie machen wir das Thema wirklich nachhaltig?

Zig Bücher zum Thema, „Algorithmen-TÜV“, Datenethikkommisionen, Verbände, Vereine, Firmen mit „Ethical Officern” oder Ethikboards. Ist digitale Ethik die neue Nachhaltigkeit? Google, Microsoft und viele andere veröffentlichen eigene Ethik-Leitlinien. Das ist löblich und hoffentlich sind diese nicht nur im Marketing und der PR bekannt.

Genau wie am Anfang von Nachhaltigkeit, wo Greenwashing ein gern genutztes, aber oft entlarvtes Mittel war, drängt sich beim Thema „Digitale Ethik” der gleiche Eindruck auf. Wir müssen vermeiden, dass Ethik zur Nebelkerze wird, um weiter „business as usual“ zu machen. Doch es tut sich bereits etwas. Bei Google zum Beispiel war der Protest gegen zu viel Zusammenarbeit mit dem US-Militär und dem Rüstungssektor so groß, dass einige Projekte wieder eingestellt wurden. Nur wenig später musste Google sein neu eingerichtetes Ethik-Board nach nur einer Woche wieder auflösen, aufgrund umstrittener Biografien seiner Teilnehmer. „Don’t be evil” scheint da noch seine Wirkung zu entfalten.

Was nun? Ist es wie immer: Die Technologie ist das Werkzeug, der Mensch macht sie sich zu Eigen? Im Guten wie im Schlechten?

Vielleicht ist genau das die eigentliche frohe Botschaft: Wir haben es selbst in der Hand Technologie zu gestalten, zu nutzen oder abzulehnen. Aber auch ihr Entstehen zu hinterfragen und genutzte Datenquellen zu überprüfen. Dafür dürfen wir die Verantwortung nicht in Entwicklungsabteilungen oder in die Algorithmen auslagern, sondern müssen uns alle einbringen. Maßgeblich sollte sein, was der Gesellschaft nützt, nicht nur das technisch Mögliche. Denn das was heute vielleicht noch fern scheint, wird morgen schon bei uns allen in der Organisation eingesetzt oder entwickelt.

Das Video zur Diskussion

Christian Clawien

beschäftigt sich bei fischerAppelt mit digitalen Themen, der Tech-Branche und vermittelt zwischen Marke und Zielgruppe.




Mehr aus dem Blog