AI Act: Die neuen Regulierungen unter der Lupe

Lesezeit: ca. 2 Minuten
Zwei Roboter stehen in einem blau beleuchtetem Raum und haben jeweils eine Gesetz-Waage in der Hand.

Der AI-Act tritt 2024 in Kraft. In der Verordnung geht es darum, einen rechtlichen Rahmen für den verantwortungsvollen Umgang mit künstlicher Intelligenz in der EU zu schaffen. Dafür werden KI-Systeme mit künstlicher Intelligenz nach vier verschiedenen Risikostufen bewertet. Je nach Stufe müssen sie entsprechende Anforderungen erfüllen oder werden sogar verboten.

In unserem ersten Blogbeitrag zum AI-Act haben wir die 9 wichtigsten Fragen in Kürze beantwortet. In diesem Beitrag möchten wir die Auswirkungen der neuen Vorschriften für den Einzelnen genauer beleuchten und diskutieren.

Einführung: Welche Regulierungen sieht die Verordnung vor?

Die Risikostufen bewerten das Risiko von Technologien mit künstlicher Intelligenz in inakzeptabel, hoch, begrenzt und minimal. Inakzeptabel sind laut Definition Systeme, die eine Gefahr für die Sicherheit und die Grundrechte der Menschen darstellen könnten. Darunter fallen Technologien zur Massenüberwachung und zur Bewertung von Personen aufgrund ihrer ethischen, sozialen oder demografischen Merkmale. Ihnen droht ein vollständiges Verbot.

Als hochriskant gelten Systeme für die kritische Infrastruktur und solche, die die Sicherheit von Menschen gefährden könnten. Sie müssen eine strenge Zertifizierung durchlaufen und unterliegen umfangreichen Transparenz- und Dokumentationspflichten. Des Weiteren sieht die Verordnung vor, dass nationale Behörden mit Durchsetzungsbefugnissen ausgestattet werden, um die Einhaltung der Bestimmungen zu überwachen und Verstöße zu ahnden.

KI-Anwendungen mit einem begrenzten Risiko, wie z. B. Chatbots, sind ebenfalls dazu verpflichtet, ihre Funktionsweise transparent bereitstellen. Außerdem wird ein Verhaltenskodex empfohlen. Lediglich KI-Systeme mit einem minimalen Risiko, wie z. B. Spamfilter und Suchalgorithmen sind von den meisten Vorschriften des AI Acts befreit.

Eine Roboterhand tippt auf ein virtuelles Symbol, das ein Gehirn zeigt. Drumherum bilden sich neuronale Netze.

Diskussion

Die Einführung des Artificial Intelligence Acts markiert einen bedeutenden Punkt für die Zukunft von Anwendungen mit künstlicher Intelligenz in der EU. Angesichts der immer schneller voranschreitenden Entwicklung von KI-Technologien sowie deren Ausbreitung auf verschiedene Branchen ist es ein wichtiger Schritt, klare Regeln zu definieren, um eine Gefährdung der Sicherheit und Menschenrechte zu verhindern. Allerdings wirft die Verordnung noch einige Fragen auf.

1. Was ist mit bestehenden Zertifizierungen?

Unternehmen, die bereits in eine Zertifizierung ihrer künstlichen Intelligenz investiert haben, stehen vor der Frage, inwieweit diese für den AI Act anwendbar ist. Des Weiteren bleibt offen, welche Auswirkung eine Änderung am System auf die Zertifizierung hat. Muss sie dann erneut durchlaufen werden? Können Unternehmen, insbesondere Startups, diesen zeit- und kostenintensiven Prozess überhaupt bewältigen?

2. Wie erfolgt die Gruppierung in die Risikostufen?

Die Einteilung in die Risikostufen soll durch die Unternehmen selbst erfolgen. Noch ist nicht ersichtlich, welche Kriterien dabei beachten werden müssen und welche Hilfestellung Anbietende erhalten. Des Weiteren stellen sich die Fragen, wer die Einteilung kontrolliert und welche Folgen es hat, wenn Unternehmen ihre Systeme falsch bewerten.

Beispiel 1: Anwendungen im Gesundheitsbereich

Die Hände einer älteren Persn umfassen die Hand eines Roboters.

Die technologische Weiterentwicklung im Gesundheitswesen ist unerlässlich, um den steigenden Bedarf an medizinischen Dienstleistungen sowie den Fachkräftemangel zu bewältigen. Jedoch gehören Anwendungen im Gesundheitsbereich zur kritischen Infrastruktur und gelten demnach als Hochrisiko-Systeme. Mit den umfangreichen Prüf- und Zertifizierungsprozessen stehen Startups vor neuen Herausforderungen. Schon heute ist aufgrund von strengen Zertifizierungsmaßnahmen und der Unsicherheit, was auf die Unternehmen zukommen könnte, ein Rückgang an Startups im medizinischen Bereich zu betrachten.

Beispiel 2: Anwendungen in der Lebensmittelindustrie

Dank einer Bildverarbeitungslösung werden Nüsse von ihren Schalenresten getrennt.

Bildverarbeitung und künstliche Intelligenz können zeitintensive manuelle Qualitätskontrollen in der Lebensmittelindustrie automatisieren. Anwendungen reichen von der Überprüfung der Lebensmittelreinheit, z. B. bei Nussmischungen, bis zur Begutachtung von Schweineorganen auf Krankheiten. Dies nicht nur kosteneffizient, sondern entlastet auch das Personal von mühsamen und repetitiven Aufgaben. Gleichzeitig gewährleistet es die Einhaltung der drei zentralen Gütekriterien: Objektivität, Zuverlässigkeit und Validität.

Im Zuge des AI Acts könnten solche Automatisierungen erheblich eingeschränkt werden. Der Einsatz von künstlicher Intelligenz würde auf eine unterstützende Rolle beschränkt werden. Es ist wichtig zu beachten, dass Menschen bei Qualitätsprüfungen deutlich fehleranfälliger sind als KI-Systeme. Letztere können eine Genauigkeit von 99 % erreichen, während menschliche Beurteilungen subjektiv sowie tagesformabhängig sind.

Beispiel 3: Autonomes Fahren

Auf einer Straße befinden sich autonom fahrende Autos. Ein grüner Pfeil markiert den Weg.

Autonomes Fahren ist ebenfalls als Hochrisiko-System einzustufen, da es die Sicherheit von Menschen gefährden könnte – allerdings aber auch erheblich verbessern. Menschliche Fehler sind die häufigste Ursache für Verkehrsunfälle. Fortschrittliche Sensoren und intelligente Systeme können frühzeitig Gefahrensituationen erkennen und flexibel auf unvorhergesehene Ereignisse, wie Personen auf der Straße, reagieren.

Alle drei Beispiele zeigen, dass eine konkrete Betrachtung der Anwendungsfälle vor ihrer Einstufung eine bedeutsame Rolle spielt. Es ist wichtig, einen ausgewogenen Ansatz zu finden, der die Sicherheit und Qualität von KI-Systemen gewährleistet, ohne Innovation und technologischen Fortschritt einzuschränken.

4. Was bedeuten die Regulierungen für die internationale Wettbewerbsfähigkeit?

Der AI Act könnte durch strenge Regulierungen und kostenintensive Prozesse die Innovationskraft in Europa beeinträchtigen. Infolgedessen könnten internationale Wettbewerber einen Forschungsvorsprung erlangen, was Auswirkungen auf die internationale Wettbewerbsfähigkeit und die Wirtschaftskraft innerhalb Europas haben könnte.

Fazit

Der AI Act strebt zweifellos einen sicherheitsorientierten rechtlichen Rahmen für KI innerhalb Europa an. Jedoch ist es wichtig, nicht nur die potenziellen Risiken, sondern auch die Stärken von Systemen mit künstlicher Intelligenz zu betrachten. Die Technologien bieten das Potential, Prozesse zu automatisieren, Qualitätssicherungen zu verbessern, dem Personalmangel zu begegnen und die Wirtschaft zu fördern. Es ist entscheidend, KI effektiv zu regulieren, ohne die Innovationskraft Europas zu beeinträchtigen. Dafür könnten neue Ansätze, wie eine gezielte Betrachtung konkreter Anwendungsfälle, erforderlich sein.