Artikel

Funktionalität und Vertrauen

Eine interdisziplinäre Expertenrunde zum automatisierten und autonomen Fahren an der Hochschule der Medien in Stuttgart

 

Funktionalität und Vertrauen -
eine interdisziplinäre Expertenrunde zum automatisierten und autonomen Fahren an der Hochschule der Medien in Stuttgart

Petra Grimm und Susanne Kuhnert
Institut für Digitale Ethik, Hochschule der Medien Stuttgart
kuhnert@hdm-stuttgart.de, grimm@hdam-stuttgart.de

 

Im Rahmen des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projektes KoFFI (Kooperative Fahrer-Fahrzeug-Interaktion) trafen sich in den Räumlichkeiten der Hochschule der Medien in Stuttgart Experten aus unterschiedlichen Fachbereichen zu einem gemeinsamen Austausch über ethische Aspekte des automatisierten und autonomen Fahrens. Dieser Runde Tisch brachte Vertreter aus den Disziplinen der Maschinenethik, der Informationsethik, der Medienethik, der Rechtswissenschaften, der IT-Security, der Kryptografie, der Informations- und der Kommunikationstechnologie zusammen.

Die Gesprächsrunde wurde im Rahmen des vom Bundesministerium für Bildung und Forschung geförderten Forschungsprojektes KoFFI vom Institut für Digitale Ethik unter der Leitung von Frau Prof. Dr. Petra Grimm und Herrn Prof. Dr. Tobias Keber veranstaltet. Das Projekt KoFFI steht für eine „Kooperative Fahrer-Fahrzeug-Interaktion" und erforscht neue Wege in einer partnerschaftlich ausgerichteten Interaktion und Kommunikation zwischen Menschen und Maschinen. Das Teilvorhaben ELSI widmet sich dabei über den gesamten Projektverlauf von drei Jahren den ethischen, rechtlichen und sozialen Implikationen und soll Ansätze von Ethics-by-Design und Privacy-by-Design erfolgreich in die technischen Resultate implementieren.

Die Expertenrunde in Stuttgart hat gezeigt, dass viele Fragen, die wesentlich für die zukünftige Gestaltung der Mensch-Maschine-Interaktion sind, im Kern noch immer unbeantwortet bleiben. Dies sind vor allem Fragen, die das Vertrauen in die neuen Technologien betreffen. Für die zukünftige Gestaltung von Systemen muss gerade aus ethischer Perspektive untersucht werden, ob die Funktionalität und die Vorhersehbarkeit im Verhalten von Systemen eine hinreichende Bedingung ist, damit sich menschliches Vertrauen in automatisierte oder autonome Systeme nachhaltig entwickeln kann. Überdies wurde einheitlich die Notwendigkeit für eine zielgerichtete Bildung hinsichtlich digitaler Kompetenzen betont, welche die Voraussetzung für eine erfolgreiche Digitalisierungsstrategie ist.

 

Trust oder Trustworthiness by Design?

Die Gestaltung von Vertrauen und der Aufbau von vertrauensvollen Beziehungen zwischen Menschen und Maschinen ist die wesentliche Voraussetzung für die Akzeptanz von neuen Technologien und für eine erfolgreiche Mensch-Maschine-Interaktion. Eine mathematisch geprägte Sichtweise, die sich häufig in den Ingenieurswissenschaften und in der Informationstechnologie finden lässt, sucht nach einem „beweisbaren" Vertrauen. Systemvertrauen soll hier auf der Basis von kalkulierbarem und vorhersehbarem Verhalten hergestellt werden.

Diese eher einfache Formel wurde aus Sicht der Experten der Ethik angezweifelt, denn die Faktoren der unbestimmten menschlichen Erwartungshaltung und der (möglichen) Enttäuschungen werden außer Acht gelassen. Unklar ist auch, worauf sich das Vertrauen von Menschen letztlich beziehen wird: auf die hochautomatisierten Maschinen, die Menschen hinter den Maschinen oder auf abstrakte Gesamtgrößen wie Hersteller und deren Firmennamen? Hinzu kommt, dass gerade die Automobilindustrie de facto mit enttäuschtem Vertrauen zu kämpfen hat. Auch die Relation von Gefühlen wie Kontrolle und Unsicherheit darf nicht übersehen werden. Hierbei sollte ebenfalls bedacht werden, dass die Transparenz von Maschinen qua ihrer Natur begrenzt ist. Aus ihrer Materialität ergibt sich zwangsweise ein hoher Grad an Opazität. Die Forderung Systeme transparent zu gestalten, ist demnach nur begrenzt möglich. Ist diese trotzdem in einem ausreichenden Maß umsetzbar, um die Systeme für den laienhaften Nutzer verständlich zu gestalten?

Es darf bezweifelt werden, dass automatisierte Fahrzeuge selbsterklärend sind. Dies wiederum erhöht die Herausforderungen, eine hochkomplexe Technologie für alle Nutzer verständlich zu gestalten.

 

-      Wie kann die Funktionalität hinreichend offenbart werden, damit eine mögliche Vorhersehbarkeit des Verhaltens tatsächlich erfahrbar wird?

-      Weiterhin ergeben sich die Fragen: Sind Funktionalität und Vorhersehbarkeit tatsächlich ausreichende Werte für das Vertrauen in der Mensch-Maschine-Interaktion?

-      Welche Erwartungen hat der Mensch, die über die Logik und Rationalität hinausreichen?

-      Wie verhält es sich bei zunehmend opaken und flexibel operierenden Systemen?

 

Der Mensch selbst ist ein opakes und flexibles System und das maschinelle Lernen und die Künstliche Intelligenz imitieren die kognitiven Fähigkeiten des Menschen. Automatisierte und autonome Systeme auf der Basis von KI sind dann nicht nur durch ihre Materialität opak, sondern werden es auch durch die relative Unvorhersehbarkeit ihres Verhaltens. Die Möglichkeit zur variablen Handlung macht die Technologien zwar flexibler, aber gleichzeitig auch undurchsichtiger und unberechenbarer. Wie wird hier die menschliche Erwartungshaltung sein? Wie kann das Zusammenwirken von Menschen und Maschinen gut funktionieren und wie müssen die Maschinen gestaltet werden, damit Menschen ausreichendes Vertrauen fassen können, um mit den Automaten gemeinsam zu interagieren? Die Vorteile von Künstlicher Intelligenz erschweren es, ein Vertrauensverhältnis zwischen Mensch und Maschine zu gestalten.

Eine Schlussfolgerung hieraus ist, dass ein zu eng gefasster Vertrauensbegriff, der sich nur auf eine simple Berechenbarkeit bezieht, für das sensible Thema Vertrauen in der Mensch-Maschine-Interaktion problematisch ist. Die Komplexität und die Kontextualität, die sich durch die neuen Verhältnisse ergeben, müssen rechtzeitig mitgedacht werden. Gerade die differenzierten Sichtweisen der unterschiedlichen Fachbereiche zeigten in der Diskussion deutlich, dass die Auffassungen und Erwartungen hinsichtlich des Vertrauensbegriffes stark variieren können. Eine weitere Herausforderung ergibt sich durch die unterschiedlichen Ebenen von Vertrauen, die sich leicht vermischen. Werden die Menschen unterscheiden können zwischen dem Vertrauen in die Funktionstüchtigkeit einer Maschine und dem Vertrauen in die Menschen, die für die Produktion dieser Maschine verantwortlich sind?

Hieraus folgt, dass es einen Bedarf hinsichtlich der Konkretisierung des Vertrauensbegriffs in der Mensch-Maschine-Interaktion im hochautomatisierten Fahren gibt. Geklärt werden müssen die Kontexte, die Ebenen-Bezugnahmen und die möglichen Gestaltungsmöglichkeiten von Vertrauen. 

 

Ethik der Mobilität

Zugang zu Mobilität bedeutet Freiheit: Bewegungs- und Entscheidungsfreiheit. Mobilität ist eng mit Macht verbunden und Bedarf somit einer Auseinandersetzung mit der Ethik. Das Automobil gehört zum Leben und zum Lebensraum eines großen Teils der Bevölkerung der Bundesrepublik Deutschland. 62,2 Millionen Kraftfahrzeuge waren zum 1. Januar 2017 in Deutschland zugelassen.[1] Die Gestaltung von den zukünftigen Lebensentwürfen und Lebensräumen der Menschen hängt entscheidend mit der Gestaltung der Mobilität zusammen.

Die Experten waren sich einig, das gerade auf der Ebene der politischen Fragen viele ethische Aspekte bisher ungeklärt sind.

 

-      Wie muss die Infrastruktur verändert werden und wer finanziert dies?

-      Welche Risiken in Bezug auf die soziale Gerechtigkeit sind mit einer automatisierten, autonomen und vernetzten Fahrzeugtechnik verbunden?

-      Ist Privatbesitz von Fahrzeugen in Zukunft nur noch für einen kleinen und sehr wohlhabenden Bereich der Bevölkerung möglich?

-      Wie können gerechte Strukturen für die Stadt- und Landbevölkerung gleichermaßen garantiert werden?

-      Welche weiteren Folgen ergeben sich durch die Digitalisierung der Mobilität, auch in Bezug auf die Arbeitsplätze in der Automobilindustrie und welche Ethik ist hier geboten?

 

Der Transport von Menschen und Waren ist vor dem Hintergrund einer interkulturellen und globalen Gesellschaft ein hochkomplexes Phänomen, welches durch die zunehmende Vernetzung und Digitalisierung an Dichte gewinnt. Digitalisierungsprozesse in demokratischen Strukturen weisen eine scheinbare Erweiterung der Möglichkeiten auf, doch auch dies muss hinterfragt werden. Demokratie möchte Chancengleichheit schaffen und erreicht dies durch die größtmögliche Schaffung von Entfaltungsfreiräumen. Freiheit ist ein zentraler Faktor, der nicht durch technische Möglichkeiten bedroht werden darf, aber zunehmend von den technischen Möglichkeiten untergraben wird. [2]

Noch besteht die Möglichkeit der Übersteuerung der Systeme, aber wie wird sich das in Zukunft verändern und geregelt werden? Wie werden die Sanktionsmöglichkeiten, die durch Technik direkt übersetzt werden könnten, in einem sinnvollen Maß angewendet aber auch gleichzeitig beschränkt werden können? Gerade in Bezug auf die Verhältnisse von Herstellern, Versicherungsanbietern und deren Kunden entstehen durch die technischen Möglichkeiten neue Machtstrukturen. Ein vernetztes und automatisiertes Automobil kann jeden Regelverstoß unverzüglich melden, speichern oder sogar direkt sanktionieren, indem es den Fahrer beispielsweise beim Überschreiten der Geschwindigkeitsbegrenzung übersteuert und das Fahrzeug sofort abbremst. Welche neuen Machtverhältnisse werden sich daraus etablieren und welche Folgen müssen rechtzeitig bedacht werden?

 

Datenschutz, Datensicherheit und digitale Bildungsreformen

Vielen Gefahren und Risiken der Digitalisierung kann nur durch eine umfassende Bildungsreform begegnet werden. Es bedarf eines neuen Bewusstseins für Technik und wie sie unseren Alltag mitbestimmen und vielleicht sogar regulieren wird. Die Differenz von Menschen und Maschinen muss verstanden werden: dazu gehört ein neues Rollenverständnis des Menschen sowie das Überdenken klassischer Hierarchieverhältnisse und auch die Reflexion über die Autonomie von Menschen. Eventuellen Langzeitfolgen, die sich beispielsweise durch eine starke Anthropomorphisierung von Maschinen ergeben könnten, muss rechtzeitig durch Bildung entgegengewirkt werden, damit sich keine gesundheitlichen oder gesellschaftlichen Schäden entwickeln.

Eine umfassende Bildung ist zugleich die Voraussetzung für Datenschutz und Datensicherheit. Einmal auf Seiten der Nutzer, damit diese verstehen, was mit ihren Daten passiert und wie diese/wofür diese verwendet werden können. Widerstandtechniken und Vernebelungsstrategien sollten auch für laienhafte Nutzer zugänglich sein, wenn keine Wahlfreiheit mehr in Bezug auf den Datenschutz und die Privatheit besteht. Bereits in der schulischen Ausbildung muss ein größeres Verständnis für die technische Sprache gebildet werden und eine entsprechende Sensitivität für den Zusammenhang zwischen Selbstbestimmung, Autonomie und Datenschutz.

Der Unterschied zwischen Datenschutz und Datensicherheit ist jedoch andererseits auch bei vielen Spezialisten in der Informationstechnologie nicht ausreichend vorhanden. Verwiesen sei hierbei auch auf eine aktuelle Studie aus Israel von Hadar et al.: „Privacy by designers. Software developers' privacy mindeset." aus dem Jahr 2017, die deutlich macht, wie gerade bei Softwaredesignern ein mangelndes Verständnis hinsichtlich der Differenzierung von Datenschutz und Datensicherheit erkennbar sei. Dies sei auch auf eine unzureichende Aufklärung und zu einseitige Bildungskonzepte in ihrem Fachbereich zurückzuführen.[3]

Eine der wirksamsten Maßnahmen im Datenschutz könnte auch durch ein neues Bewusstsein für Reduktion von technisch Machbarem hergestellt werden. Verantwortung ergibt sich aus der Einsicht, dass es keine umfassende Sicherheit geben kann und Vorsicht immer noch besser als Nachsicht ist. Diese ethische Dimension, die den Zusammenhang zwischen Verantwortung und Macht betont, fehlt in der Ausbildung vieler Spezialisten und Fachkräfte. 

Hieraus ergibt sich die Frage und gleichzeitige Forderung: Wie können zukünftige Bildungskonzepte aussehen und wie können diese schnellstmöglich umgesetzt werden? Der Dialog mit der Politik ist hier verstärkt gefordert. Bildungskonzepte für den Datenschutz müssen zukünftig - um wirksam zu greifen - in die Grundausbildung aller Menschen integriert werden.

 

Ethische Forschung im Projekt KoFFI

Der Experten-Round-Table sollte wichtige Impulse für die ethische Forschung im Projekt KoFFI geben. Als ein zentraler Punkt in der Diskussion hat sich eine deutlich wahrnehmbare Vagheit in der Benutzung des Begriffes Vertrauen gezeigt. Die wissenschaftliche Arbeit muss sich demnach der Aufgabe zuwenden, hier für mehr begriffliche Klarheit und für eine Übersetzbarkeit in Designsprache zu sorgen.

Das Institut für Digitale Ethik wird deshalb im Projekt KoFFI zukünftig, mit Hilfe von empirischen Methoden und Ansätzen aus der experimentellen Philosophie und der narrativen Ethik, versuchen, ein schärferes Bild vom Begriff Vertrauen in der Mensch-Maschine-Interaktion zu zeichnen. Ein transdisziplinärer Vertrauensbegriff ist die Grundlage für die Gestaltung von HMI-Schnittstellen im Bereich des automatisierten und autonomen Fahrens, unabhängig davon, ob es nun Fragen des Datenschutzes, der Sicherheit oder des allgemeinen Fahrverhaltens betrifft.  

Ein neuer Ansatz der narrativen Ethik wird hierfür entwickelt, der auch für zukünftige Projekte zeigen soll, welche Funktionen Narrative in der Wissenschaft haben. Die experimentelle Philosophie öffnet den Fachbereich Ethik wiederum für empirische Methoden. Die Fragestellungen der experimentellen Philosophie basieren auf kurzen Denkexperimenten und haben somit von Haus aus schon eine narrative Form. Insgesamt soll die Narrationsforschung für die Ethik fruchtbar gemacht werden, um die Vielschichtigkeit von einzelnen Begriffen besser ausleuchten und analysieren zu können. Ziel ist es, in eine Designsprache übersetzbare Elemente vom Themenkomplex Vertrauen in der Mensch-Maschine-Interaktion herauszukristallisieren zu können. Nur durch klare Begriffsstrukturen und daraus ableitbare, deutlich formulierbare Forderungen kann Ethik erfolgreich in eine neue Technologie implementiert werden.

 

 

Teilnehmerliste zum Experten-Round-Table an der Hochschule der Medien in Stuttgart:

Veranstaltungsleitung:

Prof. Dr. Petra Grimm

Institut für Digitale Ethik

 

Prof. Dr. Tobias Keber

Institut für Digitale Ethik

Veranstaltungsorganisation:

Susanne Kuhnert M.A.

Institut für Digitale Ethik

TeilnehmerInnen:

Prof. Dr. Oliver Bendel

Fachhochschule Nordwestschweiz

 

Dr. Sven Bugiel

CISPA, Saarland University

 

Prof. Dr. Rafael Capurro

International Center for Information Ethics

 

Prof. Dr. Alexander Filipoviæ

Hochschule für Philosophie München

 

Dr. Susanne Hertfelder

Landesbeauftragter Datenschutz Baden-Württemberg

 

Jörn Hoffmann

Institut für Digitale Ethik

 

Prof. Walter Kriha

Hochschule der Medien

 

Steffen Maurer

Robert Bosch AG

 

Dr. Aleksandra Sowa

The European Magazine

 

Prof. Dr. Sebastian Steinhorst

TU München

 

Prof. Dr. Horst Wieker

htw saar

 

 

 

Das Forschungsprojekt KoFFI ist ein interdisziplinäres Verbundprojekt zum Thema des hochautomatisierten Fahrens. An der Hochschule der Medien ist das Institut für Digitale Ethik für die Forschung im Teilvorhaben ELSI (Ethische, rechtliche und soziale Implikationen) verantwortlich.
Das BMBF-Projekt hat das Förderkennzeichen:
FKZ 16SV7626 „KoFFI".

BMBF Technik zum Menschen bringen

https://www.technik-zum-menschen-bringen.de/projekte/koffi

 

Literaturverzeichnis

Bundesministerium für Verkehr und digitale Infrastruktur (2017): Ethik-Kommission Automatisiertes und Vernetztes Fahren. Bericht Juni 2017. Hg. v. BMVI Bundesministerium für Verkehr und digitale Infrastruktur. Online verfügbar unter https://www.bmvi.de/SharedDocs/DE/Anlage/Presse/084-dobrindt-bericht-der-ethik-kommission.pdf?__blob=publicationFile, zuletzt geprüft am 17.07.2017.

Hadar, Irit; Hasson, Tomer; Ayalon, Oshrat; Toch, Eran; Birnhack, Michael; Sherman, Sofia; Balissa, Arod (2017): Privacy by designers. Software developers' privacy mindset. In: Empir Software Eng 76 (7), S. 665. DOI: 10.1007/s10664-017-9517-1.

Kraftfahrt-Bundesamt (Hg.) (2017): Pressemitteilung Nr. 06/2017 - Der Fahrzeugbestand am 1. Januar 2017 - korrigierte Fassung. Online verfügbar unter https://www.kba.de/DE/Presse/Pressemitteilungen/2017/Fahrzeugbestand/pm6_fz_bestand_pm_komplett_korr.html?nn=1558882, zuletzt geprüft am 08.02.2018.

 

 


[1] Vgl. dazu: Kraftfahrt-Bundesamt 2017.

[2] Vgl. dazu auch den Bericht der Ethik-Kommission zum automatisierten und vernetzen Fahren: „Ausdruck der Autonomie des Menschen ist es, auch objektiv unvernünftige Entscheidungen wie eine aggressivere Fahrhaltung oder ein Überschreiten der Richtgeschwindigkeit zu treffen. Dabei würde es dem Leitbild des mündigen Bürgers widersprechen, würde der Staat weite Teile des Lebens zum vermeintlichen Wohle des Bürgers unentrinnbar durchnormieren und abweichendes Verhalten sozialtechnisch bereits im Ansatz unterbinden wollen. Solche absolut gesetzten Sicherheitszustände können trotz ihrer unbestreitbar guten Zwecke die Grundlage einer humanen, freiheitlichen Gesellschaft untergraben. Entsprechende Wirkungen können auch von scheinbar freiwilligen Gestaltungen ausgehen, wie vom Modell „pay-as-you-drive" durch private Versicherungsnehmer. Die Verminderung von Sicherheitsrisiken und die Begrenzung der Freiheit muss im demokratischen und grundrechtlichen Abwägungsprozess entschieden werden: Es besteht keine ethische Regel, die Sicherheit immer vor Freiheit setzt." Bundesministerium für Verkehr und digitale Infrastruktur 2017, S. 20.

[3] Vgl. dazu: Hadar et al. 2017.

 



Autoren

Name:
Prof. Dr. Petra Grimm  Elektronische Visitenkarte
Forschungsgebiet:
Jugendliche und Medien, Medien und Gewalt, Social Web und Privatheit
Funktion:
Professorin
Lehrgebiet:
Kommunikations- und Medientheorie, Medienethik, Medienethisches Projekt (META), Mediensoziologie, Medienwirkungsforschung, Mediensemiotik
Studiengang:
Medienwirtschaft (Bachelor, 7 Semester)
Fakultät:
Fakultät Electronic Media
Raum:
225, Nobelstraße 10 (Hörsaalbau)
Telefon:
0711 8923-2202
Homepage:
http://www.hdm-stuttgart.de/grimm
Petra Grimm

Name:
Susanne Kuhnert  Elektronische Visitenkarte
Forschungsgebiet:
Ethik in der Mensch-Maschine-Interaktion
Funktion:
Projektmitarbeiterin
Studiengang:
Medienwirtschaft (Bachelor, 7 Semester)
Fakultät:
Fakultät Electronic Media
Raum:
P01, Nobelstraße 10 (Pavillion)

Eingetragen von

Name:
Susanne Kuhnert  Elektronische Visitenkarte


Mehr zu diesem Autor
Sie haben eine Frage oder einen Kommentar zu diesem Beitrag?