Vortrag

Ethics by Design - Wettbewerbsvorteil und Key Asset for AI made in Europe

Meine sehr geehrten Damen und Herren,

jetzt steht nur noch die Ethik zwischen Ihnen und der wohlverdienten Kaffeepause.

Die Ethik als Verhinderer, als Schranke unternehmerischer Freiheit. Das führt uns schon direkt zum Kern des Problems. Vor einigen Tagen hat die Staatsministerin für Digitalisierung im Bundeskanzleramt, Dorothee Bär auf Twitter davor gewarnt, Ethik als Argument gegen Innovationen vorzuschieben. Unweigerlich fühlte ich mich an einen entsprechenden Slogan aus dem letzten Bundestagswahlkampf erinnert. Der kam zwar nicht aus dem konservativen Lager. Digitalisierung First, Bedenken Second hielt die FDP damals für ein zukunftsfähiges Mantra.

Wissen Sie, Ich von meiner Seite kann mit derartigen Vorwürfen umgehen, Juristen (vor allem die Datenschützer) sind Kummer gewöhnt, sie gelten als Berufsbedenkenträger und so manches Projekt soll schon dem Datenschutzbeauftragten zum Opfer gefallen sein. Wenn man ihn gefragt hat.

Ziel der mir zur Verfügung stehenden 15 Minuten muss sein, Sie hier und heute vom Gegenteil zu überzeugen. Es stimmt nicht. Ethik verhindert nicht. Ethik macht besser, macht nachhaltiger, macht wettbewerbsfähiger.

Wir wollen aber nicht über Ethik allgemein sprechen, sondern den Bezug zur Künstlichen Intelligenz herstellen und der Frage nachgehen, was es mit dem Modus „by Design“ auf sich hat. Eingehen möchten ich abschließend auch auf einige bad / worst practice Beispiele. (best practice kann jeder)

Starten wir mit der Ethik. Ich beschränke mich an dieser Stelle auf den Hinweis, dass im öffentlichen Diskurs die Begriffe Ethik und Moral ebenso oft verwechselt werden, wie selbst gesetzte ethische Kodizes (gerade von Unternehmen) dazu missbraucht werden, einer anderenfalls befürchteten hoheitlichen Regulierung (Bußgelder) zuvorzukommen. Letztgenanntes wird gerne auch als „Ethics Washing“ oder Feigenblattethik bezeichnet. Wer den Begriff der Feigenblattethik (Worthülsen als Alibiübung) kennt und sich das Designs der aktuellen Hochglanzbroschüre der Deutschen Telekom „AI Ethics Guidelines“ ansieht, wird sich ein Schmunzeln nicht verkneifen können. Gestalterisch aufgehübscht ist das Papier mit einer Reihe herbstlich anmutender Blätter. Ob sie von Feigenbäumen stammen – ich weiß es nicht.

Die Gleichsetzung von Ethik und Moral und Feigenblattethik haben mit Wissenschaft nichts zu tun. Ethik ist Reflexion und die Analyse der Begründbarkeit richtigen Handelns, also das wissenschaftliche Hinterfragen von Moral.

Eine weiterer, gerade im Bereich innovativer Entrepreneure verbreiteter Irrglaube ist, Technik (egal welche, also auch KI) sei wertneutral und es hänge nur davon ab, was Menschen damit tun. Auch das ist falsch, wie der Technikhistoriker Malvin Kranzberg pointiert formuliert hat. Technik ist nie neutral. Sie ist immer von Wertvorstellungen getragen und reflektiert diese bei ihrer Anwendung in die Gesellschaft zurück. Technik stammt von und betrifft Menschen. Das klingt trivial, ist es aber nicht. Lassen Sie mich diesen Gedanken weiter illustrieren.

Ein erstes Beispiel datiert aus dem Jahr 1380 und betrifft „German Planning by ist best“. In Regensburg wurde der Schließmechanismus der Eingangstür eines Hauses offensichtlich von einem sehr um das Wohl seines Auftraggebers bemühten und weitblickenden Schlosser gefertigt. In bester Kenntnis des Lebenswandels des Hausherrn brachte er die - heute würde man wahrscheinlich sagen „Schlüsselführungsassistenz“ an, so dass sein Schützling trotz alkoholbedingter Treffunsicherheit allabendlich in der Lage war, die Tür zu öffnen. Human centered design 1380.

Ein weiteres, etwas moderneres Beispiel macht noch deutlicher, dass Design und Technik nicht wertneutral, sondern value sensitive sind. 1974 erscheint das Buch „The Power Broker“ über den New Yorker Stadtplaner Robert Moses. Vorgeworfen wird ihm u.a., bestimmte Bevölkerungsgruppen durch den Bau von Brücken diskriminiert zu haben. Wie das geht, werden Sie fragen. Es geht, indem die Brücken nur eine bestimmte Höhe haben und alle Zuwege zu einem attraktiven Ort (Park am Strand) nur über Brücken erreichbar sind. Das allein ist noch nicht diskriminierend werden sie sagen. Praktisch doch, wenn unter der Brücke zwar die Autos der gut situierten Upper Class zum Strand fahren können, nicht aber die Busse der ärmeren, überwiegend schwarzen Bevölkerung. Das ist Diskriminierung by design meine Damen und Herren.

Warum also ethics by design? Um es besser zu machen. Ethics by design liegt gegenwärtig im Trend, wenn man prominenten Firmenstrategen glauben darf. Das tue ich grundsätzlich nicht, weshalb ich ein (weiteres) und ganz entscheidendes Argument habe. Ethics by design schafft Vertrauen und darauf ist gerade die KI als ebenso vielschichtige wie komplexe Technik zwingend angewiesen.

Vertrauen ist eine der wichtigsten externe Einflussvariablen im Technikakzeptanzmodell. Vertrauen ist Wettbewerbsvorteil. Umgekehrt gilt: schwindendes Vertrauen resultiert in Ablehnung. Einen Nachweis hat jüngst Kate Crawford vom AI Now Institute (New York University) in ihrer Studie mit dem Titel „Pushback against harmful AI“ für die KI Anwendung Gesichtserkennung geführt. Im Jahr 2019 haben nach kritischer Berichterstattung einige Metropolen in den USA gesetzliche Verbote für den Einsatz von Gesichtserkennung (Facial Recognition) im urbanen Sicherheitsbereich eingeführt.

AI braucht Vertrauen und ethische Leitplanken sind vertrauensbildende Maßnahmen. Wie aber bestimmen wir ethische Prinzipien für Künstliche Intelligenz? Als Wissenschaftler müsste ich an dieser Stelle den bis dato nicht abschließend definierten Begriff der künstlichen Intelligenz problematisieren, der vor allem zwischen den Disziplinen (Informatik, Philosophie, Recht) in bemerkenswerter Vielfalt erscheint. Wir haben das in einem Forschungsprojekt einmal tabellarisch adressiert. Nur so viel: die Komplexität sprengt die Leistungsfähigkeit von PowerPoint in Sachen Visualisierbarkeit. Am Ende des Tages ist ein Streit um Begrifflichkeiten aber auch nicht zielführend. In der Sache sprechen wir nach wie vor nur über Werkzeuge, wenn auch über kompliziertere. Andernorts verhalten wir uns dann auch wesentlich weniger grundsätzlich. Niemand käme auf die Idee, das Werkzeug Brille begrifflich mit künstlichem Sehen zu verbinden. Was ich damit sagen will: Letztlich brauchen wir keine allgemeine Definition, sondern müssen anwendungsspezifisch denken.

Zurück zum Punkt: wie bestimmen wir universelle ethische Prinzipien für KI-Anwendungen? Induktiv wäre ein Lösungsansatz. Wir schauen, welche Prinzipien bereits formuliert wurden. Glauben Sie mir: es sind viele. Allein Algorithm Watch hat bis zum Sommer 83 Frameworks gezählt. Wenn man aber und das haben andere Think Tanks bereits getan, die bestehenden Vorschläge herunterbricht auf einen gemeinsamen Nenner lassen sich die Big Five herausarbeiten, die sie auch im Europäischen Ansatz der High Level Expert Group on Artificial Intelligence finden.

1 Tue Gutes #Fürsorge

2 Tue niemandem weh #Schadensvermeidung

3 Bewahre die menschliche Handlungsfähigkeit #Autonomie

4 Sei fair #Gerechtigkeit #Nichtdiskriminierung

5 Funktioniere. Transparent #Erklärbarkeit #Robustheit #Prüfbarkeit

Testen wir das Gesagte in der Praxis und schauen wir uns einige Anwendungen an, die unter dem Label „KI“ (berechtigt oder unberechtigt) diskutiert wurden.

Zwei Jungs entwickeln einen smarten Handschuh, der Gesten mit den Händen (Gebärdensprache) maschinenlesbar macht und damit in Echtzeit „übersetzen“ kann. Das ist gut werden sie sagen. Stimmt grundsätzlich. Und hätten sich die beiden neben ihrer guten Absicht zugleich dem Prinzip von ethics by design verschrieben, wäre das Produkt noch besser geworden. Ethics by design bedeutet (Prinzip 1 #Fürsorge und 4 #Nichtdiskriminierung) auch partizipative, inklusive Produktentwicklung. Das hätte bedeutet, Gehörlose, also diejenigen, die sich der Gebärdensprache bedienen, einzubeziehen. Jene hätten die jungen Entrepreneure darauf hingewiesen, dass es mit einem „intelligenten“ Handschuh nicht getan ist. Entscheidend ist auch die Mimik, die den Gesten der Hand ggfls. eine ganz andere Bedeutung zuweisen kann. Es geht immer auch um den (weiteren) Kontext. Ohne ethics by design ist das Produkt nach alledem: gut gemeint, aber nicht gut gemacht.

Schlimmer, weil offensichtlich ohne jede ethische Reflexion ausgekommen sind die (pseudo)wissenschaftlichen Versuche, auf Grundlage biometrischer Vermessung des Gesichts die sexuelle Orientierung oder gar ein Kriminalitäts-Profiling abzulesen. Die Thesen von Wang/Kosinski sind zu Recht scharf kritisiert worden. Schlimmer geht immer: Das israelische Start-Up „Faception wirbt mit „machine learning technology for profiling people and revealing their personality based only on their facial image.“

Auf der Webseite heißt es vollmundig weiter: „Public Safety agencies, city police department, smart city service providers and other law enforcement entities are increasingly strive for Predictive Screening solutions, that can monitor, prevent, and forecast criminal events and public disorder without direct investigation or innocent people interrogations.“

„without direct investigation or innocent people interrogations“ Vielleicht fragt man das Unternehmen einmal, ob sie das tatsächlich garantieren und für die Folgen gegebenenfalls persönlich einstehen (Haftung!) wollen. Ich denke, die Töne würden schnell leiser.

Der Ansatz meine sehr geehrten Damen und Herren ist historisch auch nicht ohne Präzedenz, sie sehen es rechts auf der Folie und ich muss es nicht weiter kommentieren.

Wie man es besser macht?

Nun, Explainable-AI, Transparency-by-Design, Accountablity-by-Design und Kennzeichnungspflichten für relevante KI-Anwendungen werden diskutiert. Auf die in meinem Beispiel angesprochene partizipative Produktentwicklung weist übrigens ganz aktuell auch der Bericht der Datenethikkommission hin.

Was diese Vorgaben genau bedeuten, werden wir in den Unternehmen bereichsspezifisch diskutieren müssen. Explainable-AI beschränkt sich jedenfalls nicht auf den Hinweis, Nutzern zu erklären, warum sie eine Werbebotschaft auf Facebook sehen. Immerhin ist es ein Anfang.

Insgesamt brauchen wir mehr Grundlagenforschung zur Operationalisierung ethischer Reflexion Im Unternehmen – Ethik muss in die unternehmerischen Prozesse! Wie das geschehen kann möchte ich gleich mit Ihnen (wenn sie wollen und nach dem Kaffee) in einem Workshop diskutieren.

Ansonsten verbleibt mir nur mit einem Wort von Joseph Weizenbaum zu schließen.

„Von wem und wie wurde überhaupt entschieden, dass wir das wollen?“

Das Zitat bitte ich, weder technik-, noch innovationsfeindlich zu verstehen.

Wir sollten uns die Zeit zum Überlegen nehmen, welche Technik wir in welchem Bereich wollen. So viel Zeit muss sein, meine sehr geehrten Damen und Herren.

Vielen Dank.

 

Literatur, Quellen (Auswahl):

Deutsche Telekom (2019), Guidelines for Artificial Intelligence, abrufbar unter https://www.telekom.com/en/company/digital-responsibility/details/artificial-intelligence-ai-guideline-524366

Kranzberg (1986), Technology and History: „Kranzberg´s Laws“, Technology and Culture Vol. 27, No. 3, S. 544-560.

Van den Hoven u.a. (2017), Designing in Ethics, S. 29 ff.

Caro (1974), The Power Broker: Robert Moses and the Fall of New York

Gartner (2019), Top 10 Strategic Technology Trends for 2019, abrufbar unter: https://www.gartner.com/smarterwithgartner/gartner-top-10-strategic-technology-trends-for-2019/

Jockisch (2010) Das Technologieakzeptanzmodell, in: Bandow G., Holzmüller H. (eds) „Das ist gar kein Modell!“

Crawford/Whittaker, 2019 Year in Review, abrufbar unter https://ainowinstitute.org/symposia/videos/2019-year-in-review.html

DEK (2019), Gutachten der Datenethikkommission vom 23.10.2019, abrufbar unter: https://datenethikkommission.de/gutachten/

Algorithm Watch (2019), AI Ethics Guidelines Global Inventory, abrufbar unter: https://algorithmwatch.org/en/project/ai-ethics-guidelines-global-inventory/

Research Center for Brain-inspired Intelligence (2019), Institute of Automation, Chinese Academy of Sciences, Linking Artificial Intelligence Principles, abrufbar unter: http://linking-ai-principles.org

High-Level Expert Group on Artificial Intelligence (AI HLEG) (2019) The Ethics Guidelines for Trustworthy Artificial Intelligence, abrufbar unter: https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top

o.V. Incredible Sign Language Gloves, Video abrufbar unter: https://www.brealeys.com/incredible-sign-language-gloves/

Kosinski / Wang (2018), Deep Neural Networks Are More Accurate Than Humans at Detecting Sexual Orientation From Facial Images, Journal of Personality and Social Psychology. Vol. 114, Issue 2, Pages 246-257

Geigner (2016), Israeli Company Claims Its Software Can Look At Your Face And Determine If You're A Terrorist Or Murderer, Artikel abrufbar unter: https://www.techdirt.com/blog/?company=faception

Bundesregierung (2019), Die nationale KI-Strategie der Bundesregierung, Dokument abrufbar unter: https://www.ki-strategie-deutschland.de/home.html

 

Vortrag auf Veranstaltung: S-TEC Spitzentreffen Künstliche Intelligenz
Veranstaltungsort: Fraunhofer-Institut IAO
Datum: 07.11.2019

Weiterführende Links:
Webseite des S-Tec Spitzentreffens Künstliche Intelligenz 2019


Autoren

Eingetragen von

Name:
Prof. Dr. Tobias Keber  Elektronische Visitenkarte


Mehr zu diesem Autor