Erst kürzlich machte das Thema der KI-Regulierung Schlagzeilen, als die Europäischen Kommission Pläne zu einem weitreichenden Regulierungsrahmen in Europa vorstellte. Ziel ist es, neue globale Normen für Künstliche Intelligenz (KI) zu entwickeln, welche die Sicherheit der Daten und die Grundrechte von Menschen wie auch Unternehmen in Einklang bringen. Wie wichtig das Thema einer vertrauensvollen Künstlichen Intelligenz ist, zeigt eine Studie von Gartner: demnach werden bis zum Jahr 2025 30% der Verträge für die Nutzung von KI-Technologien und -Dienstleistungen spezielle Transparenz- und Rückverfolgungs-Bestimmungen enthalten, die darauf zielen, Compliance-Risiken zu minimieren und die ethische Nutzung von KI zu fördern.

Jede Künstliche Intelligenz ist grundsätzlich nur so gut, wie die Daten, auf denen sie basiert. Das bedeutet, dass Daten, je nach kulturellem Hintergrund oder sozialen Einstellungen der Programmierer, Verzerrungen aufweisen können – auch wenn diese gar nicht beabsichtigt sind. Daten sollten aber stets fair und repräsentativ für alle Menschen und Kulturen sein. Daher ist es notwendig, dass verantwortliche IT-Leiter und Unternehmenslenker frühzeitig diese Risiken erkennen, richtig einstufen und Vorkehrungen treffen, damit KI-Technologien ethisch unbedenklich sind.

#1 Risiken richtig einschätzen

Für viele Unternehmen wie auch Konsumenten stellt die Verwendung von KI-basierten Technologien mitunter noch ein großes Fragezeichen dar. Um Vorurteile abzubauen und Unkenntnissen vorzubeugen, hilft es, sich die verschiedenen Risikopotenziale von KI-basierter Technologie zu verdeutlichen. Der Entwurf der EU sieht beispielsweise eine Einstufung in vier verschiedene Kategorien vor: Untersagt werden sollen Technologien, die zu Diskriminierung oder strafrechtlich relevantem Verhalten führen. Darunter werden Methoden wie das Social Scoring oder Profiling, wie auch biometrische KI-Systeme, die auf Gesichtserkennung im öffentlichen Raum setzen, gefasst. Als hochriskante KI-Technologien werden jene eingestuft, die in kritischen Infrastrukturen, wie dem Verkehr, zum Einsatz kommen. Aber auch der Einsatz im Bildungs- oder Personalwesen oder bei der Prüfung der Kreditwürdigkeit für Darlehen fallen darunter – also in einem Umfeld, in denen hochsensible persönliche Daten verwendet werden. Begrenzte Risiko-Potenziale liegen hingegen bei der Verwendung von Chatbots oder Kundenservice-Systemen, sofern die Nutzer klar und transparent über deren Einsatz informiert werden. Geringes Risiko schließlich wird allen weiteren Anbietern von KI-Technologien zugesprochen – hier sollte aber der freiwillige Einsatz von einem verantwortungsvollen Umgang mit KI eine große Rolle spielen.

#2 Künstliche Intelligenz einfach erklärbar gestalten

Um Vertrauen in KI-Systeme zu schaffen, müssen diese für alle verständlich und nachvollziehbar sein – aus Sicht der Unternehmen sollte es daher ein Leichtes sein, KI „erklärbar“ zu machen. Das bedeutet, dass Anwender verstehen sollten, wie KI-Algorithmen funktionieren, welche Methoden zur Entscheidungsfindung eingesetzt werden und wie verlässlich die Daten sind, die zum Trainieren von KI-Algorithmen Verwendung finden. Erst dann kann Vertrauen in die Genauigkeit und Fairness der von KI-Systemen erzeugten Ergebnisse entstehen. Darunter kann auch grundlegende Aufklärungsarbeit verstanden werden: Anwender sollten verstehen, dass ein KI-System jeweils nur unter den Bedingungen, für die es ausgelegt wurde, arbeitet. Chatbots beispielsweise kommen bereits in vielen Unternehmen im Kundenservice zum Einsatz und sind leicht zu bedienen. Wie die technische Grundlage dahinter funktioniert und welche Daten gesammelt werden, ist allerdings für viele Mitarbeiter eine Unbekannte. Außerdem sollte ethische KI operationalisiert werden. Vor der kommerziellen Freigabe von KI-basierten Anwendungen empfiehlt es sich, Folgenabschätzungen zu KI-Voreingenommenheit durchzuführen, insbesondere wenn ihre Anwendungen sich negativ auf soziale, wirtschaftliche und private Rechte auswirken können.

#3 Die Menschen und Anwender mitnehmen

Unternehmen sollte daran gelegen sein, vertrauenswürdige KI in ihrem Unternehmen einzusetzen: Vertrauenswürdigkeit ist eine Voraussetzung dafür, dass Menschen und moderne Gesellschaften KI-Systeme entwickeln, flächendeckend einsetzen und nutzen können. Wenn KI-Systeme – und die Menschen dahinter – nicht nachweislich vertrauenswürdig sind, kann das unerwünschte Folgen haben und ihre Verbreitung behindern. Dies könnte die Realisierung der potenziell enormen sozialen und wirtschaftlichen Vorteile, die sie bringen können, verhindern. KI sollte daher immer mit einer menschlichen Komponente versehen werden, um potenziell schädliche Auswirkungen von KI zu beurteilen und zu beheben. Abhilfe lässt sich beispielsweise schaffen, indem Anwender in den Prozess einbezogen werden und einen Einblick erhalten, welche Daten am Anfang erfasst werden und wie der Ablauf bis hin zum Output der Daten ist. Auch wenn dies für viele IT-Verantwortliche ein selbstverständliches Thema ist, bestehen bei Anwendern nach wie vor Berührungsängste. Durch gezielte Schulungen und Trainings lassen sich diese abbauen. Darüber hinaus stellen Schulungen eine Gelegenheit dar, unter Anleitung die ersten Schritte zu machen. No-Code-/Low-Code-Lösungen können dabei ein wertvolles Mittel sein, da sie wenig vorhandene IT-Kenntnisse voraussetzen und Mitarbeitern auf diese Weise ein Grundverständnis vermitteln.

Die Zukunft ist eine vertrauensvolle KI

Obwohl die vorgeschlagene EU-KI-Verordnung noch weit von der Ratifizierung entfernt ist und im EU-Parlament und im Rat heftig diskutiert werden wird, sind die daraus entstehenden Folgen bereits absehbar. Die vorgeschlagene Verordnung könnte ein Vorbild für andere Rechtsordnungen sein: die Pläne der EU umfassen die Einführung von globalen KI-Standards in enger Zusammenarbeit mit internationalen Partnern. Ein einheitlicher Standard in Bezug auf die KI-Regulierung wäre ein wünschenswertes Ziel, da die KI-Einführung mit nachgewiesenem gesellschaftlichem Nutzen und wirtschaftlichen Vorteilen immer schneller voranschreitet. Diese Vorteile müssen jedoch durch eine vernünftige Regulierung ausgeglichen werden, die Innovationen fördert und gleichzeitig die grundlegenden Menschenrechte der Verbraucher schützt.

Sie haben eine Meinung zu diesem Thema oder wollen sich selbst als Experte einbringen? Nur zu!

Nutzen Sie unser Portal aktiv um Aufmerksamkeit für Ihr Unternehmen und Ihre Dienstleistung zu schaffen. Sie positionieren sich als Experte, geben Ihr Fachwissen weiter und können per Interview oder Fachartikel auf aktuelle Trends und Themen hinweisen und einen direkten Zugang zu 10000 Lesern Ihrer Zielgruppe erreichen.

Schicken Sie uns eine kurze Mail an info@der-prozessmanager.de und teilen Sie uns Ihre Idee zum Artikel mit.

Andere Leser haben sich zusätzlich folgende Artikel angesehen: