Kürzlich erschrak eine Gruppe von Wissenschaftlerinnen und Wissenschaftlern darüber, wie einfach ihre zur Wirkstoffentdeckung entwickelte KI ‚umgepolt‘ werden konnte, um chemische Kampfstoffe zu entdecken. Anderswo werden KI-Systeme genutzt, um über Bewährungsfragen, Kreditwürdigkeit oder medizinische Diagnosen und Therapievorschläge zu entscheiden. Der Ukraine bot ein US-Unternehmen kürzlich Gesichtserkennungssoftware zur Identifikation toter Soldaten an. Keine Frage: KI hat es in die Anwendung geschafft — und kann jetzt auch für fragwürdige, ja skandalträchtige Zwecke ge- und missbraucht werden.
Aber welche Verantwortung tragen Entwicklerinnen und Entwickler und wie versetzen wir die Informatiker von morgen in die Lage, ihrer Verantwortung gerecht zu werden? Gefährdet KI in Entscheidungsprozessen gar die professionelle Verantwortung von Richtern, Ärzten und anderen Expertinnen und Experten? Werden wir zu willfährigen Erfüllungsgehilfen, zu Knöpfchendrückern und Computer-Hörigen? Wie können wir dies verhindern und was haben Fragen der Transparenz, Nachvollziehbarkeit und Erklärbarkeit damit zu tun? Mit diesen Fragen beschäftigt sich Kevin Baums Vortrag.
Philosoph und Informatiker Baum startete 2015 bis Professor Holger Hermanns die Vorlesung Ethics for Nerds, in der Studierenden informatiknaher Studiengänge genau solche Fragen nähergebracht werden. Er ist stellvertretender Vorsitzender der Kommission für die Ethik sicherheitsrelevanter Forschung der Universität des Saarlandes, in der Fragen von Dual-Use und Forschungsmissbrauch behandelt werden. Derzeit arbeitet er im von der Volkswagenstiftung geförderten Projekt Erklärbare Intelligente Systeme, in dem der Zusammenhang zwischen der Erklärbarkeit von KI und diversen gesellschaftlichen Anforderungen – darunter auch Fragen der Verantwortbarkeit – interdisziplinär erforscht werden.