Artificial Intelligence und Ethik – Ein Papiertiger setzt zum Sprung an

Note: This blogpost is also available in English

Spätestens seit der Gründung der „Partnership on AI“ im Jahr 2016 durch die Tech-Größen Amazon, DeepMind, Facebook, Google, IBM und Microsoft hat das Thema Ethik und Künstliche Intelligenz deutlich an Aufmerksamkeit gewonnen – auch wenn sich über die Motivation der Gründer trefflich spekulieren lässt. Die NGO „AlgorithmWatch“ hat bereits 2019 in einem Inventar um die 160 Richtlinien und Empfehlungen zu dem Thema aufgelistet. Mittlerweile dürften es einige mehr sein. Dabei sind die Herausgeber so vielfältig wie ihre Beweggründe und die Betrachtungsebenen. Regierungsorganisationen und Nicht-Regierungsorganisationen, Forschungseinrichtungen, Wirtschaftsverbände und Unternehmen arbeiten sich an dem Thema ab. Dabei variieren Qualität und Umfang deutlich. Vom plakativen One Pager bis zum viele hundert Seiten starken Dokument ist alles dabei. So umfasst der Leitfaden „Ethically Aligned Design“ des Institute of Electrical and Electronics Engineers (IEEE) knapp 300 Seiten.

So weit, so viel. Interesse und Aufmerksamkeit sind eindeutig vorhanden. Und es fehlt mittlerweile auch nicht mehr an guten Empfehlungen. Allerdings: Mehr als Empfehlungen oder selbstdefinierte Vorsätze der Wirtschaft gibt es bislang kaum. Laut „AlgorithmWatch“ sind nur acht der aufgelisteten 160 Dokumenten verbindlich. Macht man sich die sehr kurze Mühe und überprüft diese Angaben, stellt man rasch fest, dass selbst diese niedrige Zahl eher optimistisch ist. Denn eine echte Verbindlichkeit in dem Sinne, dass die Richtlinien auch tatsächlich zur Anwendung kommen, was sich zum Beispiel in entsprechenden Governance-Strukturen oder Prüfroutinen manifestieren würde – entfalten lediglich vier oder fünf Papiere. Wir haben also, wie so oft im wirtschaftlichen Kontext, kein Know-how-Defizit. Stattdessen haben wir ein Problem mit der Umsetzung. Die Gründe dafür liegen irgendwo zwischen Unwillen, Naivität und mangelnder Umsetzungskompetenz.

Ethik als positive Kraft etablieren

Vor diesem Hintergrund sollten wir unsere Idee von Ethik noch einmal neu justieren: weg von Ethik als einem moralisierenden und hinderlichen Faktor hin zu Ethik als einer positiv wirkenden Kraft. Damit das gelingt, müssen zunächst die verschiedenen Vorbehalte gegenüber AI ernst genommen werden, um ihnen dann mit Aufklärung, Transparenz und Trainings zu begegnen. Es liegt in unserer „ethischen“ Verantwortung, das Potenzial von AI deutlich zu machen und dann auch konsequent zu nutzen. So wird zum Beispiel kaum ein anderer Hebel so stark zur Erreichung der 17 Sustainable Development Goals beitragen und einen so starken Einfluss auf das Leben der „Friday For Future“-Generation haben wie Künstliche Intelligenz.

Aufklärung und Transparenz bedeutet, sowohl die positiven Aspekte darzustellen als auch die tatsächlich vorhandenen Risiken zu identifizieren und wirksame Gegenmaßnahmen zu etablieren. Problematische Auswirkungen der AI können dabei einzelne Menschen, Gruppen oder auch ganze Gesellschaften betreffen.

AI-Risiken erkennen und ausräumen

So ist zum Beispiel Social Scoring, auch im Zusammenspiel mit Facial Recognition, für die meisten Demokratien – noch – undenkbar. In China ist es längst Realität. Auf den ersten Blick weniger drastisch, dafür aber umso mehr selbstverständlicher Teil unser aller Leben ist die manipulative Kraft von Social Media. Algorithmen bestimmen, was uns gezeigt wird, was wir deshalb für die Realität halten, was wir glauben und hoffen, lieben und hassen – und nicht zuletzt kaufen. So entstehen Realitätsverzerrungen und nebeneinander bestehende Blasen ohne jegliche Schnittmenge. Der Konstruktivismus im Sinne von Platons Höhlengleichnis lässt grüßen. Und spätestens, wenn Propaganda-Bots unsere politische Willensbildung beeinflussen und sich auf unsere Wahlentscheidungen auswirken, wird AI zu einer ernst zu nehmenden Gefahr für demokratische Systeme.

Auch für den Einzelnen kann der Einsatz von Künstlicher Intelligenz weitreichende und direkt spürbare Konsequenzen haben. So kann ein AI-gesteuerter Bewerbungsprozess ein frühzeitiges Ende finden, wenn im Algorithmus oder in den Daten ein vorhandener Bias zu einer diskriminierenden Auswahl führt. Es gibt mittlerweile einige Beispiele dafür, wie die Recruiting-AI systematisch weiße Männer bevorzugte. Ist diese Hürde genommen, wartet als nächstes vielleicht eine Stimmanalyse-Software, die im Interview der Bewerberin oder dem Bewerber die psychische Disposition diagnostiziert oder die sexuelle Orientierung ableitet.

Auch AI-basierte Crime Prediction à la „Minority Report“ ist längst Realität und zeichnet sich in zahlreichen Beispielen durch eine Bias-bedingte Diskriminierung bestimmter Minderheiten aus. Dabei werden Entwickler oft genug von ihren eigenen Kreationen überrascht. So ging es beispielsweise Facebook-Mitarbeiter*innen, die sich zwei Chatbots gegenseitig trainieren ließen. Der Versuch musste abgebrochen werden, da die Bots zu der Auffassung gelangt waren, dass Englisch nicht besonders effektiv sei, und deshalb kurzerhand eine eigene für die Entwickler nicht mehr verständliche Sprache zur weiteren Kommunikation erfunden hatten. Eine Aufzählung solcher Beispiele ließe sich beliebig lang fortführen. Es mangelt daher gewiss nicht am Wissen um die Probleme. Aber es mangelt an der entschlossenen Umsetzung möglicher Lösungen.

„Trustworthy“, „Beneficial“ und „Binding“

Um dem zu entgehen, setzen wir bei jedem AI-Ethik-Projekt drei grundsätzliche Anker: „Trustworthy“, „Beneficial“ und „Binding“. Sind die beiden ersten Eckpfeiler mittlerweile in vielen Initiativen gute Praxis, sucht man die „Verbindlichkeit“ bisher fast immer vergebens. Diese explizit zu berücksichtigen, ist das wesentliche Element, bei dem sich unser systemagnostischer Ansatz von den anderen unterscheidet.

Folgende Grafik illustriert noch einmal unser grundsätzliches Vorgehensmodell in Ethik-AI-Projekten:

Auf Basis einer „maßgeschneiderten“ Ableitung der notwendigen Attribute definieren wir unter anderem die erforderlichen Rollen und Governance-Strukturen für das spätere operationale Vorgehen. Die Einführung begleiten wir mit spezifischen Change-Management-Maßnahmen. Ferner haben wir den definierten Attributen konkrete Kriterien zugeordnet, deren Erfüllungsgrad bei jedem AI-Projekt im Rahmen eines toolgestützten Prüfprozesses bewertet wird.

Ein Bespiel hierfür: „Trustworthy“ bedingt unter anderem das Attribut „Fairness“. Dabei bedeutet fair auch immer diskriminierungsfrei. Im ersten Schritt des Prüfprozesses bewerten wir das Risiko der jeweiligen AI-Anwendung. So ist das Risiko für eine Diskriminierung bei einem lernenden System im Produktionsumfeld zum Beispiel nicht besonders hoch. Bei einem Bewerbungsprozess aber eben schon. Entsprechend werden die Kriterien im Weiteren gemäß ihrer Risikoeinstufung gewichtet. Im Fall von Diskriminierungen geht es meistens um einen Bias. Sich diesen bewusst zu machen und dann aktiv zu vermeiden, ist hier entscheidend. Um dies zu erreichen, werden die relevanten Kriterien untersucht: War das Entwicklerteam divers genug aufgestellt, um damit die verschiedenen Perspektiven zu repräsentieren? Wurde das Bias-Problem bei der Entwicklung der Modelle und Algorithmen berücksichtigt? Ist die Quelle der historischen Daten bekannt und wurde sichergestellt, dass diese keinen Bias abbilden? Sind Prüfroutinen für den laufenden Betrieb vorhanden, um zum Beispiel Model Drifts oder Data Drifts zu erkennen? Sind die Governance-Strukturen in der Lage, schnell Probleme zu erkennen und diese auch zu lösen? Die Antworten auf solche Fragen werden dokumentiert, falls notwendig werden entsprechende Maßnahmen definiert.

Mit diesem Vorgehen operationalisieren wir die notwendige Verbindlichkeit. Denn im Unterschied zu fast allen formulierten Richtlinien beschreiben wir nicht nur das „Was“, sondern sorgen auch für das „Wie“.

Und Sie bewegt sich doch

Während die letzten Zeilen dieses Beitrages entstanden, kam die Meldung, dass die EU nun ein verbindliches Regelwerk in Kraft setzen wird. Damit folgt sie konsequent ihrer Linie Digitalisierung unter die Maxime „Trust“ zu stellen und sich damit klar von den Digitalgrößen USA und China abzugrenzen. Eine gute Strategie. Auch wenn es jetzt sicherlich nicht an gut gemeinten Ratschlägen, was man alles hätte besser machen können, fehlen wird, so ist dies ein sehr guter und wichtiger Schritt mit Vorbildfunktion. Im nächsten erscheinenden Blogbeitrag werden wir uns mit dem EU-Regelwerk näher auseinandersetzen und die hieraus entstehenden Konsequenzen aufzeigen. Das ein Verstoß teuer werden kann, steht bereits fest.   

Fazit

Artificial Intelligence hat enormes Potenzial – auch, um eine nachhaltige Entwicklung zu forcieren. Damit bestehende Vorbehalte gegen AI abnehmen, kommt es darauf an, ihre Trade-offs aktiv zu managen. Dafür sind praktische Herangehensweisen erforderlich, die über die Formulierung von Richtlinien hinausgehen. Diese müssen einen verbindlichen Rahmen schaffen und so Vertrauen erzeugen. Der Papiertiger AI-Ethik muss endlich zum Sprung ansetzten. Wenn er das macht, kann AI ihr volles Potenzial zum Wohle von Unternehmen, ihren Stakeholdern sowie Gesellschaft und Umwelt entfalten. Die EU scheint das verstanden zu haben.

Infos zum Blogpost

Veröffentlicht am: 30.04.2021
Autoren: Marcus Schüler

Mehr zum Autor


Marcus Schüler
Associated Partner bei MHP

Ein “Better Tomorrow” geht nicht ohne...:
den Willen Verantwortung über das notwendige Maß hinaus zu übernehmen und die Erkenntnis, dass es keine einfachen Kausalketten gibt, sondern wir in Systemen leben und auch so denken müssen. Etwas weniger „ich“, dafür etwas mehr „wir“; etwas weniger „jetzt“, dafür etwas mehr „morgen“, etwas weniger Hedonismus, dafür etwas mehr Stoizismus und dann könnte das auch mit dem besseren Morgen funktionieren.

Mein Herz schlägt schneller für…:
Home Sweet Home

Vernetzen bei: LinkedIn / XING

In sozialen Netzwerken teilen


zurück zu allen Blogposts