Portalbeitrag

Ethik und Privacy-by-design im hochautomatisierten Fahren

Ein Vortrag bei der ASRG-S

Kann Ethik programmiert werden? Muss ich als Ingenieurin immer Ethik mitbedenken? Was ist eine ,moral machine'? Wie können Ethik-Kodizes in die alltägliche Arbeit implementiert werden? Die Möglichkeit, diese und weitere Fragen mit Interessierten aus technischen Berufen zu diskutieren, bot sich Susanne Kuhnert, M.A., und Dr. Julia Maria Mönig vom Institut für Digitale Ethik am 12. März 2019 im Stuttgarter Bosch Connectory auf Einladung der Automotive Security Research Group Stuttgart (ASRG-S).1 Der Abend begann mit einem Vortrag von ASRG-S-Gründer John Heldreth, der die Gruppe und ihre Ziele vorstellte, sowie auf einige, teilweise absurde, security-news aufmerksam machte. Im Anschluss stellte Julia Maria Mönig zunächst das BMBF-geförderte Forschungsprojekt „Kooperative Fahrer-Fahrzeug-Interaktion" (KoFFI) vor. Interessant ist, dass es sich um hoch- und teilautomatisiertes Fahren handelt und (noch) nicht um das autonome Fahren, bei dem die Quer- und Längsführung eines Fahrzeugs vollständig von der Maschine übernommen wird, ohne dass der menschliche Fahrzeugführer oder die menschliche Fahrzeugführerin eingreifen könnte. Gerade diese Übergangsphase bietet den Moment, an dem noch offene ethische Fragen und - potentielle - Wertekonflikte diskutiert werden können, da autonomes Fahren, wie alle Technologien, verschiedene Chancen und Risiken birgt und Ängste und Hoffnungen schürt.

Im am Institut für Digitale Ethik angesiedelten Teilprojekt „Ethische, Rechtliche und Soziale Implikationen (ELSI)" stellt sich die Frage, ob es möglich ist, „ethics by design" umzusetzen, d.h. ethische Fragen, mögliche Konflikte, moralische Normen, oder aber explizit ethische Werte in Technologie und neue Produkte von vorneherein zu implementieren. Ein aktuelles Beispiel bei dem dies mit dem Wert „Privatheit" erfolgt, ist die Datenschutzgrundverordnung, in deren Artikel 25 „data protection by design" und „data protection by default" festgeschrieben werden.2 Wird eine neue Technologie entwickelt, so müssen sich die Herstellenden fragen, ob bei der Technikgestaltung Datenschutzgrundsätze wie Datenminimierung berücksichtigt werden, und sicherstellen, dass „datenschutzfreundliche Voreinstellungen" vorgenommen werden. Dies bedeutet beispielsweise, dass bei der Benutzung einer neuen App der/die User_in nicht die Datenerfassung einschränken muss, sondern, wenn dies gewünscht ist und für sinnvoll erachtet wird, weitere Zugriffsrechte erlauben und zulassen kann. Ausgangspunkt ist die Annahme, dass Technik nie wertneutral ist und sein kann, da sie immer von Menschen entwickelt wird, die ihre Annahmen, Ansichten und kulturellen und persönlichen Hintergründe mit in die Entwicklung einschreiben. Um dies bewusst zu machen und negative Auswirkungen nach Möglichkeit zu verhindern, ist ein Reflexionsprozess der Betroffenen notwendig. Im Sinne des vom IDE verstandenen „ethics by design" sollen frühzeitig alle - potentiellen - Stakeholder am Entwicklungsprozess beteiligt werden, um ethische Überlegungen von Beginn eines Prozesses an zu berücksichtigen. Hierbei muss jedoch sichergestellt werden, dass es weder zu „Ethics washing" kommt, bei dem versucht wird, durch ethische Diskussionen und selbstformulierte ethische Grundsätze gesetzliche Regulierung zu vermeiden3, noch kommerzielle Interessen dazu führen, dass die Richtlinien verwässert werden, wenn z.B. der Einfluss der Industrie zu groß wird.4 Im Teilprojekt ELSI des Projekts KoFFI sollen hierfür Leitlinien entwickelt werden.

Ethische Leitlinien für hochautomatisiertes Fahren

Inspiriert durch die Philosophie Immanuel Kants, John Rawls', Günter Ropohls, Friedrich von Borries' und Martha Nussbaums formulierte Susanne Kuhnert in einem ersten Entwurf, welche ethischen Prinzipien bei der Konstruktion und dem Entwerfen hochautomatisierter Fahrzeuge berücksichtigt werden sollen:

1. Technikgestaltung ist nie wertneutral:

Designer_innen, Ingenieur_innen, Entwickler_innen, Programmierer_innen sollten ein Bewusstsein dafür entwickeln, welche Werte sie in ihrem Design bewusst sowie unbewusst zum Ausdruck bringen oder fördern (wollen). Gerade im interkulturellen Kontext sollten Werte intensiv reflektiert werden, da die gesellschaftspolitische Relevanz von Technik und Design beachtet werden sollte.

2. Gerechtigkeit und Fairness:

Automatisierte Technologien sollten das Prinzip der Gerechtigkeit beachten und keine sozialen Benachteiligungen fördern. Das Prinzip der „Gerechtigkeit als Fairness" des US-amerikanischen Philosophen John Rawls gibt eine Perspektive vor, die eine gerechte Verteilung beurteilt, indem Maßnahmen durch einen Schleier der Unwissenheit (veil of ignorance) betrachtet werden, damit weder die soziale Stellung, noch körperliche und geistige Fähigkeiten eine gerechte Anordnung zu stark beeinflussen können.

3. Rechte und Gesetze:

Alle Entwicklungen müssen sich mit den herrschenden, nationalen Gesetzen sowie den internationalen Menschenrechten auseinandersetzen. Während das Gesetz direkte Verbote beschreibt, ist das Recht etwas, das von einem Individuum eingefordert werden kann, aber nicht zwangsläufig muss. Mobilität ist ein individuelles Recht und es ist mit weiteren individuellen Rechten, wie Freiheitsrechten und dem Recht auf Eigentum, verbunden. Ein Recht sollte jedoch nicht erst eingefordert werden müssen, sondern von vorneherein durch das Design respektiert werden. Spätestens ab dem Moment, ab dem ein Design oder eine Entwicklung, Gesetze oder Rechte berührt oder verändert, erhält es eine politische Dimension.

4. Autonomie:

Die Autonomie des Menschen ist besonders im Hinblick auf seine moralische Autonomie zu achten. Moralische Entscheidungen dürfen dem Menschen durch eine Technologie nicht aufgezwungen werden und es muss genug Freiheitsraum für das Individuum vorhanden sein, in welchem es seine persönlichen Entscheidungen treffen kann. Eine manipulative Technik ist aus ethischer Perspektive nicht wünschenswert. Technik darf kein Urteil über einen Menschen fällen und diesen auch nicht zu einem Urteil zwingen. Moralische Autonomie ist die Grundbedingung für das Recht auf ein Leben in Freiheit.

5. Aufrichtigkeit:

Aufrichtigkeit ist der Wert, der alle Prozesse begleiten und formen sollte. Ohne Aufrichtigkeit ist die Forderung nach Transparenz zwecklos.

6. Zukunft und Nachhaltigkeit:

Innovationen möchten die Zukunft formen, weshalb die Zukunft auch immer schon durch die Innovation geschützt werden sollte, dies bezieht sich auf die Natur und das menschliche Leben gleichermaßen.

7. Solidarität:

Kooperation zwischen Mensch und Technik sollte den Wert und das Wesen der Solidarität achten. Insbesondere im Hinblick auf die Fähigkeiten, die Menschen brauchen, um in Zukunft mit Maschinen umgehen zu können. Diese Fähigkeiten müssen von allen Menschen, in allen sozialen Stellungen gleichermaßen erlernt werden können.

Die Rückmeldungen der Anwesenden, die sich insgesamt sehr interessiert zeigten, reichte von der Frage eines Ingenieurs, ob er nun bei allem, was er tue, Ethik berücksichtigen solle, über die Schilderung eines Anwesenden, der ein Youtube-Video gesehen hatte, dass ihn fassungslos machte, bei dem Proband_innen in einem Forschungsprojekt den Tränen nahe waren, als sie virtuell das Trolley-Problem lösen sollten, bis hin zu der Ansicht, dass sich das Trolley-Problem nicht stelle, da Autos oder Maschinen, die so intelligent seien, dass das Problem auftrete, dieses auch selber lösen könnten.

Die Diskussion wird fortgeführt mit einem Vortrag von Susanne Kuhnert und Julia Maria Mönig bei der Security-Konferenz Bsides, am 25.5.2019 im Wizemann.space in Stuttgart.

 

 

1 Die ASRG-S versteht sich als „non-profit initiative", die sich zum Ziel gesetzt hat „to promote the development of security solutions for automotive products." https://www.meetup.com/Automotive-Security-Research-Group-ASRG/

2 Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung) In: Amtsblatt der Europäischen Union, 4.5.2016, L119/1, https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=celex%3A32016R0679

3 Vgl. bspw. Wagner, Ben (2018): Ethics as an escape from regulation. From „ethics-washing" to „ethics-shopping"? In: Emre Bayamlioglu et al.: Being Profiled: Cogitas Ergo Sum. Amsterdam University Press https://www.aup.nl/en/book/9789048550180/being-profiled-cogitas-ergo-sum

4 Vgl. hierzu die Erfahrungen, die Thomas Metzinger aus der Arbeit der von der Europäischen Kommission eingerichteten High Level Expert Group on Artificial Intelligence berichtet, dass aus den jüngst publizierten Ethik-Guidelines zu vertrauenswürdiger künstlicher Intelligenz die Formulierung von ethischen „red lines", die beim Einsatz von Künstlicher Intelligenz nicht übertreten werden dürfen, herausgestrichen wurde: vgl. Metzinger, Thomas: „Ethik-Waschmaschinen made in Europe" in Der Tagesspiegel vom 8.4.2019, https://background.tagesspiegel.de/ethik-waschmaschinen-made-in-europe

 


Weiterführende Links:
Institut für Digitale Ethik
Security-Konferenz Bsides: 25./26.5.2019, Wizemann.space, Stuttgart


Autoren

Eingetragen von


Mehr zu diesem Autor
Sie haben eine Frage oder einen Kommentar zu diesem Beitrag?