Unsere Leseempfehlung des Monats aus dem Bigdata-Insider Magazin untersucht vier Grundpfeiler, die einen verantwortungsvollen Umgang mit KI auszeichnen. Der Artikel bezieht sich dabei auf ein Paper des Softwareunternehmens Pegasystems.

Künstliche Intelligenz hat die Art und Weise verändert, wie wir Technologie nutzen. Sie begegnet uns mittlerweile täglich. Auch Unternehmen erkennen verstärkt, dass der Einsatz von KI Prozesse erleichtert und optimiert. Doch ungeachtet der Vorteile, muss gleichzeitig über einen verantwortungsvollen Einsatz von KI-basierten Lösungen nachgedacht werden. Denn es gibt auch eine moralische Verpflichtung, Künstliche Intelligenz kontinuierlich zum Wohle der Allgemeinheit zu verbessern.

 

Eigene Werte und Vorgaben als Richtlinien für KI

Fast jedes Unternehmen pflegt eigene Werte und ethische Vorgaben, an die sich Mitarbeiter halten. Wenn Unternehmen ethische Standards für Mitarbeiter vorgeben, warum dann nicht auch für die Technologien? Unabhängig davon, ob ein Unternehmen KI-basierte Lösungen entwickelt oder nutzt, ist es zu einem verantwortungsvollen Einsatz von KI verpflichtet. Tools und verschiedene Daten sind notwendig, damit die Künstliche Intelligenz lernt und Verzerrungen minimiert.

Um KI verantwortungsvoll zu nutzen, sollen Pegasystems zufolge nachfolgende vier zentrale Grundpfeiler berücksichtigt werden:

1. Fairness

Ein KI-Algorithmus passt sich an, indem er aus Erfahrungen lernt. Wie diese Anpassung aussieht, hängt jedoch von der Vielfalt der Informationen ab, die die KI verarbeitet. Eines der häufigsten Probleme von KI-basierten Entscheidungen ist die Verzerrung. In einer weltweiten Pegasystems-Umfrage von 2019 zeigten sich 54 % der Befragten überzeugt, dass eine KI immer eine Verzerrung aufweist. KI-Algorithmen treffen Entscheidungen basierend auf allen Daten, die ihnen zur Verfügung stehen. Der Aufbau einer fairen KI erfordert daher gezielte Anstrengungen, um solche Ungerechtigkeiten frühzeitig zu vermeiden. Selbst mit den besten Absichten können Daten, die mit geschützten Variablen wie Geschlecht oder Alter korrelieren, Probleme verursachen. Vorurteile aufgrund von Faktoren wie Alter, ethnische Zugehörigkeit oder Geschlecht schleichen sich unbeabsichtigt in KI-Modelle ein und verzerren Ergebnisse. Damit eine KI nach den Regeln der Fairness funktioniert, müssen Unternehmen Daten, Modelle und Strategien auf eine für alle Gruppen ausgewogene Weise verwenden.

2. Transparenz

Nach Vorschriften wie der Datenschutz-Grundverordnung der EU müssen Unternehmen ihre Entscheidungen begründen können. Jedoch kann dies problematisch sein, da nicht alle KI-Algorithmen mit der gleichen Sorgfalt und Transparenz erstellt werden. Große Transparenz führt jedoch dazu, dass Kunden besser verstehen, wie eine Künstliche Intelligenz zu ihrem Vorteil arbeitet. Kann das Unternehmen außerdem gewährleisten, dass es seine Algorithmen sicher verwendet, schafft dies zusätzlich Vertrauen. Damit eine KI transparent ist, muss sie zunächst erklärbar sein. Benutzer und Entwickler müssen also Entscheidungen der KI nachvollziehen können. Auch sollten die Entscheidungen und Methoden einer KI transparent offengelegt und erklärt werden können. Sind diese Voraussetzungen erfüllt, helfen sie im Zweifelsfall dabei gewisse Entscheidungen zu begründen.

3. Empathie

Da Künstliche Intelligenz Daten sammelt und analysiert, kann sie Unternehmen helfen, anhand der Daten eines individuellen Kunden empathischer zu reagieren. Beispielsweise kann ein Mobilfunkanbieter einem Kunden, der Gefahr läuft, sein Datenkontingent zu überziehen, frühzeitig einen besseren Tarif vorschlagen. KI unterstützt beim Erkennen, was genau der Kunde in seinem einzigartigen Kontext benötigt. Statt eine Maschine durch die Programmierung mit Emotionen zu „füttern“, wird die KI allumfassender und berücksichtigt neben den Kundendaten auch gesellschaftliche Normen, Regeln und Richtlinien. Eine der Möglichkeiten, wie eine KI sicherstellt, dass Unternehmen das Richtige tun, besteht darin, die Auswahl der Botschaften empathischer zu gestalten. Die KI muss nicht nur verstehen, was für einen Kunden relevant ist, sondern auch, was für ihn im jeweiligen Kontext passend ist. Es liegt in der Verantwortung des KI-Entwicklers, diese Regeln zu definieren und Leitlinien für die dazulernende KI vorzugeben.

4. Verantwortung

Der verantwortungsvolle Einsatz von KI ist oft eine freiwillige Entscheidung des Unternehmens. Unternehmen müssen wissen, welche Informationen angezeigt oder als unangemessen empfunden werden könnten. Eine verantwortungsvolle KI beginnt daher mit eigenen internen ethischen Vorgaben. Nur auf dieser Grundlage sollte Künstliche Intelligenz integriert werden. Da eine KI permanent lernt ist es wichtig, Regeln und Leitlinien festzulegen, die sich nicht so leicht beeinflussen lassen und diese regelmäßigen Kontrollen zu unterziehen.

Verantwortungsvoller KI-Einsatz stärkt Vertrauen

Bevor Unternehmen über den Einsatz von KI nachdenken, ist es entscheidend, sich gründlich mit den obengenannten Grundpfeilern auseinander zu setzen. Es ist ratsam, die Trainingsdaten der KI zu regulieren und die Auswirkungen von Strategien vor dem Einsatz in der Praxis zu bewerten. Auch sollten KI-Entwickler die KI regelmäßig auf potentielle Verzerrungen kontrollieren. Unternehmen, denen ein verantwortungsvoller Umgang mit Daten und eine ausreichende Transparenz wichtig ist, werden damit dauerhaft Vertrauen aufbauen. Dies führt auch dazu, KI in einem positiveren Licht darzustellen, die Akzeptanz zu fördern und Innovationen voranzutreiben. Denn als innovativer Vorreiter setzt das Unternehmen Standards, nach denen alle zukünftigen KI-Technologien entwickelt, genutzt und beurteilt werden.

Den gesamten Artikel können Sie hier nachlesen. Sie denken auch über KI in Ihrem Unternehmen nach? Nehmen Sie Kontakt zu uns auf!