KI & Menschenrechte: Die Vodafone Perspektive

KI & Menschenrechte: Die Vodafone Perspektive
Der Report von Access Now bietet eine Übersicht über die aktuelle KI Debatte in Europa.
KI & Menschenrechte: Die Vodafone Perspektive
Der Report von Access Now bietet eine Übersicht über die aktuelle KI Debatte in Europa.

Matthew Allison, Senior Public Policy Manager bei Vodafone, beschreibt Vodafones Perspektive zu KI und Menschenrechten im Hinblick auf den Bericht von Access Now über den Umgang Europas mit KI.

Vodafone nimmt seine Verpflichtung gegenüber den Menschenrechten ernst. Deshalb haben wir nicht nur unsere jährliche Menschenrechtserklärung veröffentlicht und im vergangenen Jahr das Vodafone AI Framework geschaffen, sondern auch gemeinsam mit Access Now eine Reihe von Multistakeholder-Roundtables organisiert, die zwischen Oktober 2019 und 2020 in der gesamten EU virtuell stattfanden. Die Roundtables brachten lokale Expert:innen für KI, Daten und Menschenrechte zusammen, um den Ansatz der EU zur KI-Regulierung zu diskutieren, der auf den zugrundeliegenden Konzepten einer ethischen und vertrauenswürdigen KI basiert. Wir hörten eine Reihe von Ansichten darüber, ob dieser Ansatz ausreicht, um die Grundrechte der EU-Bürger:innen zu garantieren und sicherzustellen, dass diese Rechte nicht durch die Entwicklung und Einführung von KI-Lösungen gefährdet werden. Dies wurde von Access Now in ihrem jüngsten Bericht über KI und Menschenrechte treffend zusammengefasst.

Unser Ausgangspunkt ist, dass jede Regulierung von KI auf einer konkreten Risikobewertung beruhen muss. Vodafone unterstützt die Schlussfolgerungen der hochrangigen Expertengruppe für KI, die eine risikobasierte, auf Innovation ausgerichtete Politik anstrebt, die durch einen starken ethischen Rahmen gestützt wird, um die Notwendigkeit einer schwerfälligen Regulierung zu vermeiden. Viele Anwendungen von KI (wie z.B. die Fehlererkennung in unseren Netzen) haben keine direkten Auswirkungen auf den/die einzelne/n Nutzer/in, sodass keine zusätzliche Regulierung erforderlich ist. Insbesondere würden wir die Notwendigkeit einer Lückenanalyse gegenüber bestehenden Gesetzen unterstreichen, die neue Transparenz-/Erklärungsanforderungen oder neue Haftungspflichten auferlegen. So gibt es zum Beispiel bereits Datenschutzbestimmungen, die eine Erläuterung der Verwendung personenbezogener Daten vorschreiben und in den EU-Ländern gibt es bereits Antidiskriminierungsgesetze, die eine direkte Diskriminierung von Gruppen aufgrund bestimmter Merkmale ausdrücklich verbieten.

Aber Regulierung allein reicht nicht aus. Wir müssen auch eine Kultur der Verantwortung bei der Entwicklung von KI-Lösungen fördern und standardisierte, wiederholbare Prozesse schaffen, um potenziell schädliche Ergebnisse für die Bürger:innen zu antizipieren und auszumerzen.

KI und Ethik

Ein Unternehmen wie das unsere muss täglich hunderte, wenn nicht tausende von ethischen Dilemmas im Geschäftsverlauf lösen. Wie wird sich der Einsatz innovativer neuer Technologien auf Kund:innen und Mitarbeiter:innen auswirken? Wird es wesentliche Auswirkungen auf ihr Wohlergehen, auf ihre Grundrechte und Freiheiten geben?

Besonders akut sind diese Probleme im Bereich der KI, wo wir einem nicht-menschlichen Agenten ein gewisses Maß an Autonomie bei der Entscheidungsfindung überlassen. In der Praxis ist der Grad der tatsächlichen Autonomie von KI heute noch sehr gering, aber er wird in Zukunft wahrscheinlich zunehmen, wenn algorithmische Entscheidungssysteme immer ausgefeilter und in Geschäftsprozesse eingebettet werden. Dies wirft das Problem der „Blackbox“ auf: Wie kann sichergestellt werden, dass komplexe KI-Systeme transparent und verständlich sind und einer angemessenen menschlichen Aufsicht unterliegen, ohne sie gleichzeitig unbrauchbar zu machen.

Hier kommen Ethikrichtlinien und Prüfgremien ins Spiel. Indem wir die Arten von ethischen Dilemmas, mit denen Unternehmen konfrontiert werden, extrapolieren und standardisieren und eine Reihe von gemeinsamen Antworten und Best Practices kodifizieren, können wir dazu beitragen, die Entwicklung dieser neuen Technologie so zu lenken, dass das Risiko minimiert wird, dass die „Black Box/der mutierte Algorithmus“ jemals die Kontrolle übernimmt und Entscheidungen trifft, die unseren Kund:innen oder der Gesellschaft insgesamt schaden.

Wir freuen uns darauf, in den kommenden Monaten mit allen Stakeholdern zusammenzuarbeiten, wenn die Europäische Kommission ihren Legislativvorschlag zu KI vorbereitet, um einen regulatorischen Rahmen zu schaffen, der Anreize für die Entwicklung vertrauenswürdiger KI schafft und sich an den Werten und Grundrechten der EU orientiert.

Alle Publikationen