ANZEIGE

ANZEIGE

Ethische Aspekte sind entscheidend, um das transformative Potenzial von KI auszuschöpfen


Das Bewusstsein für ethische Fragestellungen beim Einsatz von Künstlicher Intelligenz (KI) ist in Unternehmen und Verwaltungen gestiegen. Dennoch fällt die diesjährige Erfolgsbilanz gemischt aus, da nur in Teilbereichen Verbesserungen erzielt wurden. Ein Grund: Nur 53 Prozent der Organisationen verfügen über eine Führungskraft, die für ethische und vertrauenswürdige KI-Systeme verantwortlich ist. Zugleich sind im Vergleich zum Vorjahr mit 62 statt 76 Prozent weniger Verbraucher der Ansicht, dass Unternehmen vollständig transparent offenlegen, wie persönliche Daten verwendet werden.

Zu diesen Erkenntnissen kommt die Capgemini-Studie AI and the ethical Conundrum: How Organizations can build ethically robust AI Systems and gain Trust. Für die Studie befragte das Capgemini Research Institute insgesamt 2.900 Konsumenten in sechs Ländern sowie knapp 900 Führungskräfte in zehn Ländern, jeweils einschließlich Deutschland. Die Ergebnisse wurden zudem mit verschiedenen Studien des Vorjahres verglichen.

Unternehmen handeln bei ethischen Fragestellungen noch nicht ausreichend

Organisationen sehen zunehmend den Handlungsbedarf hinsichtlich ethischer KI-Systeme: 45 Prozent haben 2020 eine KI-Charta definiert (2019: 5 Prozent) und zwei Drittel (65 Prozent) der Führungskräfte sind sich bewusst, dass KI-Systeme potenziell zu diskriminierenden Entscheidungen führen können. 58 Prozent geben zudem an, ihre Mitarbeiter über die möglichen Auswirkungen der KI-Nutzung aufgeklärt zu haben.

Dennoch meinen nur 40 Prozent der KI-Entwickler sowie 27 Prozent der KI-Anwender aus Marketing und Vertrieb nachvollziehen zu können, wie Entscheidungen durch KI getroffen werden. Auf Seiten der Verbraucher erwarten hingegen 71 Prozent, dass Unternehmen solche Entscheidungen genau herleiten können. Weiterhin setzen 66 Prozent voraus, dass KI-Modelle fair und vorurteilsfrei agieren und Interaktionen transparent ablaufen.

Künstliche Intelligenz: Ethische Fragestellungen zunehmend im Fokus (Quelle: Capgemini)

COVID-19 wirkt sich negativ auf die Transparenz von KI-Verfahren aus

Die Studie untersucht KI-Systeme anhand der vier ethischen Dimensionen Erklärbarkeit, Fairness, Überprüfbarkeit und Transparenz und kommt zu dem Ergebnis, dass sich 2020 ausschließlich die Erklärbarkeit verbessert hat: Demnach können mit 64 Prozent doppelt so viele Organisationen wie 2019 die Funktionsweise ihrer KI-Systeme in einfacher Sprache erklären. Eine Überprüfung der Datensätze und KI-Systeme zwecks einer fairen Gleichbehandlung aller Gruppen nehmen 65 Prozent (2019: 66 Prozent) vor. Ebenfalls um einen Prozentpunkt auf 45 Prozent sank die Zahl der Unternehmen, die unabhängige Audits bei ihren KI-Systemen gemäß der Überprüfbarkeit ethischer Aspekte durchführen.

Am stärksten ging die Anzahl an Unternehmen zurück, die KI-Anwender transparent über die möglichen Auswirkungen von KI-Entscheidungen informieren; ihr Anteil sank von 73 auf 59 Prozent (Deutschland: von 63 auf 52 Prozent). Dies spiegelt sich auch im gesunkenen Vertrauen der Verbraucher, von denen 62 Prozent (2019: 76 Prozent) den Unternehmen attestieren, transparent zu agieren.

Als mögliche Ursachen hierfür nennt die Studie die gestiegene Komplexität von KI-Anwendungen, den Versuch, Geschäftspraktiken zu schützen sowie die Auswirkungen auf den Algorithmus durch die Corona-Pandemie. Demnach haben ein verändertes Konsumentenverhalten, der Mangel an historischen Daten für vergleichbare Situationen sowie die geänderte Gewichtung von Sicherheitsaspekten und weiterer Kriterien dazu geführt, dass Systeme neu gestaltet und an die neue Normalität angepasst werden mussten.

KI-Systeme verzeichnen 2020 allein in der ethischen Dimension Erklärbarkeit Fortschritte (Quelle: Capgemini)

Negative Erfahrungen mitund staatliche Regulierungen schaffen Handlungsdruck

Die Studie zeigt, dass Datensätze mitunter tatsächlich soziale und kulturelle Vorurteile (Bias) aufweisen, wobei sich 65 Prozent der Führungskräfte des Problems diskriminierender Verzerrungen bewusst sind. Einer rechtlichen Prüfung wurden bereits 60 Prozent der Unternehmen (Deutschland: 54 Prozent) unterzogen. Insgesamt 22 Prozent (Deutschland: 21 Prozent) der Unternehmen wurden in den vergangenen drei Jahren von Kunden damit konfrontiert, dass sie KI-basierte Entscheidungen anzweifeln, beziehungsweise die Entscheidungsfindung nachvollziehen wollen.

Hierin liegt ein Erfolgsrisiko, da 45 Prozent der Kunden negative Erfahrungen mit Freunden und Verwandten teilen und sie dazu anhalten würden, nicht mit den entsprechenden Unternehmen in Kontakt zu treten. Jeweils 39 Prozent würden bei fragwürdigen Entscheidungen eine Erklärung verlangen, beziehungsweise auch höhere Kosten in Kauf nehmen, um zu einem menschlichen Ansprechpartner zu wechseln. Über ein Viertel der Verbraucher (27 Prozent) würde den Kontakt zur entsprechenden Organisation abbrechen.

Rechenschaft für Führungskräfte in ethischen Belangen etablieren

Unternehmen sollten gemäß der Studie eine verantwortliche Führungskraft, etwa einen Chief Ethics Officer, etablieren, um ethisch robuste KI-Systeme sicherzustellen, heißt es in der Studie. Momentan ist diese Funktion in 53 Prozent der Unternehmen vorhanden. Über einen Ombudsmann oder eine Hotline, an die sich Kunden und Mitarbeiter bezüglich ethischer Fragen zu KI-Systemen wenden können, verfügt ebenfalls nur jedes zweite Unternehmen. Zudem sollten auch Führungskräfte der Geschäfts- wie Technologieebenen gewährleisten können, dass in ihrem Bereich eingesetzte KI-Anwendungen ethische Ergebnisse liefern.

Zusammenfassend hebt die Studie sieben zentrale Maßnahmen hervor, die für den Aufbau eines ethisch robusten KI-Systems entscheidend sind und auf einem belastbaren Fundament aus Führung, Steuerung (Governance) und internen Prozessen basieren müssen. Organisationen sollten demnach...

  • ...den beabsichtigen Zweck des KI-Systems präzise beschreiben können und die potenzielle Gesamtwirkung ermitteln.
  • ...KI aktiv zum Nutzen von Gesellschaft und Umwelt einsetzen.
  • ...die Prinzipien von Vielfalt und Inklusion im gesamten Lebenszyklus der KI-Systeme verankern.
  • ...die Transparenz mit Hilfe geeigneter Technologie-Werkzeuge optimieren.
  • ...sicherstellen, dass KI-Erfahrungen auf den Menschen ausgerichtet sind und KI-Systeme unter menschlicher Aufsicht stehen.
  • ...gewährleisten, dass KI-Systeme technisch robust sind.
  • ...die Privatsphäre schützen, indem Nutzern die Kontrolle über ihre KI-Interaktionen gegeben wird.

Künstliche Intelligenz: Unternehmen handeln bei ethischen Fragestellungen noch nicht gemäß ihres Problembewusstseins (Quelle: obs/Capgemini)

Methodik

Für die Studie führte Capgemini von April bis Mai 2020 eine weltweite Umfrage unter Verbrauchern und Führungskräften durch. Dazu wurden 2.900 Verbraucher in sechs Ländern (China, Deutschland, Frankreich, Großbritannien, den Niederlanden und den USA) sowie 884 Führungskräfte in zehn Ländern (zusätzlich Indien, Italien, Schweden und Spanien) befragt. Die Ergebnisse wurden zudem mit den Ergebnissen verschiedener Studien aus dem Zeitraum von April bis Juni 2019 verglichen, an denen 5.000 Verbraucher und 722 Führungskräfte, darunter KI-Entwickler, Datenwissenschaftler, Vertriebs- und Marketingteams, teilgenommen haben. Weiterhin führte Capgemini von August bis September 2020 Tiefeninterviews mit einer Reihe von Führungskräften, Wissenschaftlern und Fachleuten aus dem Bereich 'Ethik und KI' durch.

Weitere Artikel zum Thema KI

  1. KI-Anwendungen werden zunehmend zum Mainstream
  2. Mehrheit der Unternehmen hat Digitalstrategie, Investitionen oft nicht zielgerichtet
  3. Unternehmen sind mit dem Erkennen und Verhindern von Cyberangriffen oft überfordert
  4. Künstliche Intelligenz: Firmen zeigen sich offen
  5. Künstliche Intelligenz: TU München kooperiert mit Facebook
  6. Künstliche Intelligenz: Unternehmen unterschätzen Bedeutung



zurück

vg 02.10.2020