Das gilt es bei der menschlichen Komponente von AI zu beachten
Forscher gehen davon aus, dass AI künftig menschenähnliche kognitive Fertigkeiten haben wird, oder sogar bessere. Die Frage ist nicht „ob“, sondern „wann“. Worauf Sie daher achten sollten, wenn Sie die Einführung von AI planen, darüber haben wir mit DI Christof Wolf-Brenner von der Know-Center GmbH gesprochen.
Schon heute lassen sich dank AI schnellere Ergebnisse und auch neue Erkenntnisse erzielen. Die AI lernt dabei einerseits autonom – also ohne andauernde Supervision – und andererseits adaptiv: Je nachdem, was wir ihr zeigen, wird sie andere Dinge finden und lernen.
Was durchaus positiv klingt, kann jedoch auch negative Auswirkungen haben. Ein bekanntes Beispiel dafür ist der sogenannte AMS-Algorithmus, der Arbeitssuchende in drei Klassen einteilt: in hohe, mittlere und niedrige Chancen für eine Festanstellung innerhalb der nächsten sechs Monate. Kritiker werfen diesem System unter anderem vor, bestehende gesellschaftliche Missstände „einzubetonieren“.
Das bedeutet, dass die AI Entscheidungen auf einer weltanschaulichen Grundlage trifft, die als bereits überwunden gilt. Damit berührt AI ethische Fragen, die – wenn sie nicht angemessen beachtet werden – schnell zu Problemen bis hin zu öffentlicher Kritik führen können.
Die derzeit größten technischen Herausforderungen
Der Themenkomplex AI und Ethik findet aktuell vor allem in folgenden drei Bereichen Niederschlag.
- Bias: Das sind, vereinfacht gesagt, in Algorithmen gegossene Vorurteile und Ressentiments. Die Folgen sind etwa, dass ein AI-System bei gleicher Qualifikation für offene Stellen nur Männer oder nur Menschen mit heller Haut vorschlägt.
- Fehlende Transparenz: Es gibt Situationen, in denen sich nicht feststellen lässt, wie Algorithmen bei bestimmten Daten-Inputs zu bestimmten Outputs kommen. Um dieses Problem in den Griff zu bekommen, arbeiten Forscher*innen am Thema „Explainable AI“.
- Datenschutz: Dieser ist ein Gut, aber auch ein Recht, das es gerade im Zusammenhang mit AI zu schützen gilt. Helfen sollen hier technische Lösungen wie Anonymisierung oder Regulierungsansätze.
AI in der Praxis angehen und umsetzen
So lassen sich ethisch bedenkliche Ergebnisse verhindern
Um das Risiko zu minimieren, dass eine AI-Lösung moralisch unerwünschte Ergebnisse liefert, können Sie drei einfache Ansätze verfolgen.
- Aufklärung betreiben: Es braucht ein Bewusstsein und Verständnis für diese Problematik. Das ebnet auch den Weg für einen strategischen Ansatz, wenn es um den Einsatz von AI geht. Außerdem verhindert es, dass AI erst blind implementiert wird und dann später Feuer gelöscht werden müssen.
- Standpunkt beziehen: Es muss eine vom Management getragene Erklärung geben, wie Ihr Unternehmen zu Ethik und AI steht und was die Grundbedingungen abseits von Gesetzen sind, zu denen es sich verpflichtet fühlt.
- Prozesse aufsetzen: Es sind Abläufe zur systematischen, regelmäßigen Überprüfung des Risikopotenzials der AI-Anwendungen notwendig. Diese reichen von der Konzeption über die Planung und Entwicklung bis hin zur Nutzung.
Sind die Grundlagen in Sachen AI und Ethik geschaffen, geht es an die konkrete Planung. Hier steht die Abstimmung mit der Unternehmensstrategie ganz oben. Die entscheidende Frage lautet: Wie passt AI in unsere Organisation und wie kann sie bei der Erreichung unserer Ziele helfen?
Die Planung umfasst nicht nur technische Aspekte: Gleich wichtig sind sowohl der unternehmerische als auch der menschliche Aspekt. Letzterer thematisiert die Auswirkungen von AI-Entscheidungen auf die Nutzer*innen.
In einem weiteren Schritt braucht es eine gute Roadmap. In der Praxis hat sich gezeigt, dass Unternehmen idealerweise mit Quick-Wins beginnen sollten – und zwar dort, wo es genügend Daten in ausreichender Qualität gibt und Menschen aus diesen Daten ohne großen Aufwand bereits nützliche Schlüsse ziehen konnten.
Last but not least sind in der Umsetzung kompetente Partner nötig, die dafür sorgen, dass AI-Projekte nicht nur technisch-organisatorisch, sondern auch hinsichtlich ethischer Fragen erfolgreich ablaufen.
Fazit: AI ist mit Vorsicht zu genießen
Es grüßen öffentliche Kritik und Glaubwürdigkeitsverlust
Wer mit datengetriebener AI arbeitet, beispielsweise um produzierte Ware in „OK“ und „Ausschuss“ zu klassifizieren, stellt damit immer einen sehr starken Generalisierungsanspruch. Denn die Grundaussage hierbei lautet, dass sich auf Basis beobachteter Beispiele eine akkurate Aussage über zukünftige Ereignisse treffen lässt. Das bedeutet zwar, dass sich AI-Lösungen gut skalieren lassen. Gleichzeitig werden aber auch Fehler und ethisch bedenkliche Ergebnisse mit skaliert.
Daraus ergibt sich, dass AI-Projekte sehr gut geplant werden müssen. Das Einbetten von AI in die bestehende Organisation bedeutet einen ernstzunehmenden und langfristigen Change-Prozess, der nicht nur technische Aspekte umfasst, sondern auch so manche unternehmerische Grundüberzeugung in Frage stellt.
Unternehmen, die das Thema nicht mit der nötigen Vorsicht angehen, laufen Gefahr, über öffentliche Kritik und nachhaltigen Glaubwürdigkeitsverlust ihre ‚License to operate‘ zu verlieren. Mehrwert definiert sich heute für Kunden nicht mehr ausschließlich durch Funktionalität, sondern zunehmend auch über ethische Aspekte und die Berücksichtigung gesellschaftlicher Erwartungen.