Politik

Awareness für Compliance-Risiken durch künstliche Intelligenz

Awareness für Compliance-Risiken durch künstliche Intelligenz

Empfehlungen von Transparency International

Wien (OTS) 6.11.2023: Künstliche Intelligenz (KI)[1] wird zunehmend in unserem wirtschaftlichen und sozialen Leben eingesetzt. KI wird als positive Technologie für die Entwicklung von politischer und sozialer Ordnung qualifiziert. Sie kann aber auch negative Auswirkungen entfalten. KI-Systeme können sowohl im privaten als auch im öffentlichen Sektor zu negativen Folgen führen, die auf fehlerhaften Algorithmen oder unverantwortliche Implementierung zurückzuführen sind.

Dr. Alexander Picker, Vorstandsvorsitzender TI-Austria: „Neben unbeabsichtigten Auswirkungen existieren Fälle, in denen KI wie eine Waffe eingesetzt wird und somit auch ein zusätzliches Compliance-Risiko darstellt.“

Analog zur weiten Definition von Korruption („Missbrauch anvertrauter Macht zum privaten Vorteil“) definiert TI in einem aktuellen Bericht Korruption mittels KI folgendermaßen: „Missbräuchliche Verwendung von KI-Systemen durch Machthaber: innen zum privaten Vorteil“.[2]

Daniel Eriksson, Geschäftsführer von Transparency International und Co-Autor des TI-Berichts: „Um KI-Systeme widerstandsfähiger gegen Compliance-Risiken zu machen, sind neue Schutzmaßnahmen erforderlich. Die genannten Empfehlungen für Entscheidungsträger: innen, Programmierer: innen, Unternehmen und Organisationen sind ein Startpunkt.“

Beispiele für Compliance-Risiken durch KI:

1. Einsatz von manipulierter KI beim „Screening“ von Bewerber: innen

Beispiel: Der/die Verantwortliche (z.B. Programmierer: in, aber auch Geschäftsführer: in, HR-Leiter: in) setzt KI bei der Personalauswahl ein und legt dabei die Ziele des Systems fest. Das Risiko besteht darin, das KI-System zu korrumpieren, indem dieses so programmiert wird, dass es unrechtmäßig eine bestimmte Gruppe von Bewerbern zu bevorzugt (im Austausch für einen privaten Vorteil, wie z. B. Bestechungsgeld).

2. Missbräuchliche Verwendung von Überwachungssoftware

Als Beispiele für den Missbrauch von KI-basierten Tools, sind die Enthüllungen rund um die Pegasus-Akten zu nennen. Machthaber:innen haben bestehende KI-Systeme missbraucht, um ihre Macht – durch Überwachung, Bedrohung und Einschüchterung von politischen oder geschäftlichen Rivalen – zu stärken. Verwendungszweck der Software ist Terrorismusbekämpfung. Doch kann digitale Überwachungstechnologie auch für private Zwecke missbraucht werden. Die von Enthüllungsjournalist: innen gesammelten Beweise deuten darauf hin, dass Regierungen Überwachungssysteme einsetzten, um u.a. Journalist: innen und politische Gegner:innen auszuspionieren.

TI-Austria Empfehlungen:

1. Prüfung durch Auditoren: Die Prüfer bewerten das System auf potenzielle Schwachstellen für Missbrauch des Algorithmus und leiten die Erkenntnisse an die Verantwortlichen.

• 2. Eine umfassende Gesetzgebung (national & international) ist erforderlich, um den Missbrauch von KI-Technologien zu verhindern. Neue Rechtsakte der EU-Kommission legen nahe, dass Gesetzgeber:innen sich des potenziellen Missbrauchs von KI stärker bewusstwerden. (Vorschlag für EU-Verordnung)

3. Datentransparenz: Es fehlt an Ressourcen / Zuständigkeiten, um Algorithmen zu kontrollieren und Unzulänglichkeiten zu erkennen. „Daten- und Codetransparenz“ ist ein wichtiges Element, um Rechenschaftspflicht zu ermöglichen, und Entscheidungen welche ein KI-System beeinflussen, für Stakeholder:innen transparent zu machen. Dies führt dazu, dass Menschen und Unternehmen die KI-Systeme einsetzen, für Folgen, auch negative, verantwortlich gemacht werden können.

4. Ethik-Ausbildung

Programmierer: innen und ihre Vorgesetzten sind zu wichtigen Akteuren bei der Implementierung von KI-Systemen geworden. Im Gegensatz zu klassischen „Macht“-Berufen wie Politiker: innen und Polizist: innen, sind berufliche Verhaltenskodizes noch nicht „state of the art“. Ethikschulungen für Programmierer: innen sind ein wichtiges Element, um eine ethische und verantwortungsvolle Handhabe von KI zu gewährleisten. Dies kann durch Verhaltenskodizes oder Compliance-Richtlinien realisiert werden.

Link zum TI-Bericht in englischer Sprache: The-Corruption-Risks-of-Artificial-Intelligence.pdf (transparency.org)


[1] Die Europäische Union (EU) definiert KI als „Systeme, die intelligentes Verhalten zeigen, indem sie ihre Umgebung analysieren und – mit einem gewissen Maß an Autonomie – Maßnahmen zur Erreichung bestimmter Ziele ergreifen.“

[2] The corruption risks of artificial intelligence (2022, Transparency International, Working paper)

Rückfragen & Kontakt:

Luca Mak LL.M.,
Geschäftsführer TI-Austria
Tel.: +43 (0)1 960 760
E-Mail: office@ti-austria.at

OTS-ORIGINALTEXT PRESSEAUSSENDUNG UNTER AUSSCHLIESSLICHER INHALTLICHER VERANTWORTUNG DES AUSSENDERS | TAC0001

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"