KI-Kompetenz: Pflichtschulung im Rahmen des EU AI-Act

KI-Kompetenz kann das Arbeitsleben erleichtern und auf vielen Gebieten Nutzen für die Menschen bringen. Sie birgt jedoch auch Gefahren, da sie auch für Manipulationen und Straftaten genutzt werden kann. Mit dem EU AI-Act hat die Europäische Union eine umfassende Verordnung zur Regulierung Künstlicher Intelligenz geschaffen. Verschiedene KI-Systeme wurden als hochriskant eingestuft. Die Menschen, die mit KI-Systemen oder an deren Entwicklung arbeiten, müssen über die notwendige Fachkompetenz verfügen. Es ist daher wichtig, dass die Mitarbeiter bei einer Pflichtschulung im Rahmen des EU AI-Act KI-Kompetenzen erwerben.

 

ki-kompetenz-kuenstliche-intelligenz

Künstliche Intelligenz kann im Arbeitsalltag für Verbesserungen sorgen.


Was ist der EU AI-Act und welches Ziel verfolgt er?

Der EU AI-Act wurde von den EU-Mitgliedsstaaten verabschiedet und ist das weltweit erste Gesetz zur Regulierung von Künstlicher Intelligenz bzw. KI-Kompetenz. Er schafft einen einheitlichen Rahmen für den Einsatz von Künstlicher Intelligenz innerhalb der EU und ist das erste umfassende Regelwerk für KI in der gesamten Welt. Der EU AI-Act enthält klare Regeln für Entwicklung, Nutzung und Betrieb von KI-Systemen. Er soll Sicherheit, Transparenz und Innovationen im Umgang mit KI fördern. Die wichtigsten Ziele bestehen darin, die Risiken durch KI zu minimieren und gleichzeitig Vertrauen in KI zu schaffen.

Die Europäische Union hat den AI-Act am 21. Mai 2024 verabschiedet. Er bildet für die EU ein starkes Fundament für die Regulierung von KI und soll Innovationen auf europäischer Ebene ermöglichen. Der AI-Act verfolgt einen risikobasierten Ansatz und stuft KI-Systeme in vier Risikogruppen ein.

Der AI-Act ist eine sektorübergreifende Verordnung und stellt sicher, dass die Künstliche Intelligenz, die mit den Bürgern der EU agiert, deren Sicherheit, Grundrechte und Gesundheit gewährleistet und KI im Einklang mit den europäischen Werten genutzt wird. Der AI-Act hat das Ziel, die Funktionsweise des europäischen Binnenmarktes zu verbessern. Er soll die Einführung von menschenzentrierter und vertrauenswürdiger KI fördern.


Einstufung von KI-Systemen in Risikogruppen

Der EU AI-Act stuft KI-Systeme in die folgenden vier Risikogruppen ein:

  • Minimales Risiko: Unter diese Gruppe fallen Spamfilter, automatisierte Übersetzungen und Textvorschläge. Unternehmen sollten ihren freiwilligen KI-Verhaltenskodex umsetzen.
  • Begrenztes Risiko: Hierzu zählen Systeme, die mit Personen interagieren, beispielsweise Chatbots. Nutzer müssen darüber informiert werden, dass die Inhalte künstlich erzeugt wurden und dass es sich um KI handelt. Unternehmen müssen ihren Transparenz- und Informationspflichten nachkommen.
  • Hohes Risiko: Der AI-Act enthält hauptsächlich Regelungen für den Umgang mit Hochrisiko-Systemen, bei denen Fehlfunktionen oder Missbrauch schwerwiegende Konsequenzen haben. Unter diese Gruppe fallen autonomes Fahren und KI-Systeme, die für Personalentscheidungen und Kreditvergaben genutzt werden.
  • Unannehmbares Risiko: Artikel 5 des AI-Act verbietet bestimmte KI-Praktiken, da ihr Risiko für Grundrechte, Sicherheit und Werte der EU zu hoch ist. Dazu zählen manipulativen Techniken, Systeme, die Schwächen von schutzbedürftigen Personen ausnutzen, Systeme zur Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen, zur Bewertung des sozialen Verhaltens, zur biometrischen Echtzeit-Fernidentifizierung und zur biometrischen Kategorisierung.

Hochriskante KI-Systeme gemäß AI-Act

Als hochriskant gelten KI-Systeme, die in sensiblen Bereichen eingesetzt werden können. Systeme gelten als hochriskant, wenn ihre Produktregulierung unter Anhang I oder Anhang II des EU AI-Act fällt. Im Anhang I sind KI-Systeme beschrieben, die als Sicherheitskomponenten von Produkten genutzt werden. In Anhang II sind acht Bereiche gelistet, in denen KI-Anwendungen als hochriskant für persönliche Grundrechte gelten:

  • biometrische Fernidentifizierungssysteme
  • KI-Systeme als Sicherheitsbauteile in der kritischen Infrastruktur
  • KI-Systeme zur Bewertung von Eignung, Zugangsberechtigungen und Lernergebnissen bei der Bildung von Personen
  • KI-Systeme, die Entscheidungen für die Einstellung, Arbeitsverhältnisse oder Erteilung von Berufserlaubnissen beeinflussen
  • Zugang und Teilhabe an grundlegenden privaten und öffentlichen Diensten
  • KI-Systeme beim Einsatz im europäischen und nationalen Recht zur zulässigen Strafverfolgung
  • KI-Systeme zur Nutzung bei Migration, Asyl und Grenzkontrollen
  • KI-Systeme zur Unterstützung von Justizbehörden

Die Rolle des Menschen im Umgang mit KI und die Bedeutung von Artikel 4 des KI-Acts

Der Mensch nutzt KI-Systeme oder ist mit deren Entwicklung beschäftigt. Menschen, die mit solchen Systemen arbeiten oder an deren Entwicklung beteiligt sind, haben eine hohe Verantwortung.

Artikel 4 des AI-Act beschäftigt sich mit den Fachkompetenzen der Menschen, die mit KI arbeiten. Unternehmen, die mit der Nutzung oder Entwicklung von KI-Systemen beschäftigt sind, müssen dafür sorgen, dass die Mitarbeiter über die entsprechenden Kompetenzen verfügen. Nur so können die Risiken minimiert und KI effektiv genutzt werden.

Menschen, die mit KI beschäftigt sind, müssen gemäß Artikel 4 über KI-Kompetenzen in drei zentralen Bereichen verfügen:

  • technisches Know-how mit Verständnis für die Funktionsweise von KI
  • regulatorisches Wissen mit Kenntnissen über die gesetzlichen Vorgaben und die ethischen Prinzipien beim Umgang mit KI
  • Anwendungsspezifische Kenntnisse mit der Fähigkeit zum sicheren und effektiven Einsatz von KI

Diese grundlegenden Kompetenzen sollten den Mitarbeitern im Rahmen einer KI-Schulung vermittelt werden.


Ab wann soll der EU AI-Act verbindlich gelten?

Der EU AI-Act ist bereits am 2. August 2024 verbindlich in Kraft getreten. Die ersten Bestimmungen wurden im Februar 2025 für Unternehmen verpflichtend. Weitere Regelungen werden innerhalb der kommenden Monate Pflicht. Das gesamte Gesetz, ausgenommen von bestimmten Hochrisiko-KI-Systemen, ist ab dem 1. August 2026 anwendbar. Die letzten Regelungen treten erst ab dem 1. August 2027 in Kraft. Sie gelten für Hochrisiko-KI-Systeme als Sicherheitskomponenten.


Zielgruppen, die innerhalb eines Unternehmens geschult werden sollen

In Unternehmen sollten die folgenden Zielgruppen gemäß EU AI-Act für den Umgang mit KI-Systemen geschult werden:

  • Führungskräfte und Entscheider, die mit der Entwicklung von KI-Strategien und der Bewertung der Auswirkungen auf Geschäftsmodelle beschäftigt sind
  • Mitarbeiter in Fachbereichen, die mit KI-Tools arbeiten und bei denen Verständnis für Funktionsweise, Chancen und Grenzen erforderlich ist
  • Datenschutz- und Compliance-Beauftragte, die mit der rechtlichen und ethischen Bewertung von KI-Anwendungen beschäftigt sind
  • Projektleiter, Innovationsverantwortliche und Change-Manager, die KI-Projekte vorantreiben
  • Personalverantwortliche, die KI-gestützte Systeme für Workforce-Planung, Talententwicklung und Recruiting nutzen
  • alle, die ihre KI-Kompetenzen ausbauen möchten, um sich auf eine KI-gestützte Arbeitswelt vorzubereiten

Welche Risiken bestehen, wenn keine KI-Schulung durchgeführt wird?

Werden keine KI-Schulungen in Unternehmen durchgeführt, können die Mitarbeiter nicht die erforderliche KI-Kompetenz für den Umgang mit KI erwerben. Das Risiko, dass KI-Systeme missbraucht oder fehlerhaft eingesetzt werden, ist hoch. Es kann zu Manipulationen kommen, wenn hochriskante Systeme genutzt werden. Unternehmen können finanzielle Mittel falsch einsetzen, was zu hohen Verlusten führt, wenn die Mitarbeiter nicht im Umgang mit KI geschult sind. Weiterhin besteht die Gefahr, dass frauenfeindliche, rassistische und andere schädliche Inhalte generiert werden. Unternehmen können damit ihren Ruf schädigen und Kunden verlieren. Es ist daher wichtig, dass sie Schulungen durchführen, bei denen den Mitarbeitern die notwendigen Kompetenzen vermittelt werden.


 

Bildquelle: depositphotos.com

 

 

Für dich vielleicht ebenfalls interessant …