Dezember 25

Europa Regulierung Künstlicher Intelligenz

0  Kommentare

  • Home
  • Blog
  • Europa Regulierung Künstlicher Intelligenz

Warum erfolgt eine Regulierung von Künstliche Intelligenz (KI)?

Die zu erwartenden Effekte der Anwendung künstlicher Intelligenz in nahezu sämtlichen Aspekten des Lebens sind gewaltig. Während sie bedeutende Möglichkeiten für Unternehmen bietet, birgt sie ebenso Risiken für die Anwender. Vor diesen Gefahren warnt sogar Sam Altman, der Schöpfer des Sprachmodells ChatGPT. Einige Forscher bedenken die Möglichkeit, dass künstliche Intelligenz zu einer Gefahr für die Menschheit werden könnte, insbesondere wenn sie aggressiv agiert, ohne von Menschen überwacht zu werden. Daher hat es sich die EU zum Ziel gesetzt, als erster großer Wirtschaftsraum weltweit, eine ausgiebige KI-Regelung zu entwerfen. Die EU verfolgt das Ziel einer nachvollziehbaren, transparenten, fairen, sicheren und umweltfreundlichen künstlichen Intelligenz, wie aus dem Gesetzesentwurf der Europäischen Kommission hervorgeht. EU-Industriekommissar Thierry Breton legte nach der Einigung auf den Entwurf im Rahmen der Trilog-Verhandlungen mit Vertretern des Europäischen Parlaments und der EU-Staaten Wert darauf, dass die Entwicklungschancen für europäische KI-Startups nicht eingeschränkt werden sollen.

Regulierungen Künstlicher Intelligenz
Beitragslink: https://www.funnels.agency/regulierung-kuenstliche-intelligenz

Was genau wird reguliert?

Die Europäische Union hat eine technologieunabhängige Definition für Künstliche Intelligenz entwickelt, die so gestaltet ist, dass sie auch zukünftige Fortschritte einschließt. Dies ermöglicht die Anwendung der Gesetzgebung auf nachfolgende Generationen von KI. Spezifische Vorschriften für einzelne KI-Anwendungen sollen anschließend durch unkomplizierte Verordnungen umgesetzt werden können.

Welche KI-Anwendungen werden reguliert?

KI-Produkte werden in vier Risikostufen unterteilt: Inakzeptables Risiko, hohes Risiko, generative KI und niedriges Risiko.

Verbotene KI Systeme

Systeme, die Personen zu einer Verhaltensmodification bewegen, sind nicht hinnehmbar, beispielsweise Spielzeuge, die Kinder zu riskanten Handlungen anstiften. Eingeschlossen sind ebenso ferngesteuerte Systeme zur biometrischen Erfassung, die Gesichter live identifizieren können. KI-Anwendungen, die Personen aufgrund spezifischer Charakteristika wie Geschlecht, Hautfarbe, sozialem Verhalten oder Abstammung klassifizieren, sollen untersagt werden. Ausnahmeregelungen könnten jedoch für militärische Zwecke, Nachrichtendienste und Strafverfolgungsbehörden bestehen.

Nur KI mit Zulassung

KI-Systeme, die ein erhebliches Risikopotenzial aufweisen, unterliegen vor ihrer Freigabe auf dem Markt einer sorgfältigen Überprüfung, um negative Auswirkungen auf die Grundrechte zu vermeiden. Zu diesen risikobehafteten Technologien zählen beispielsweise autonomes Fahren, Geräte im medizinischen Bereich, die Energieversorgung, das Luftverkehrswesen oder auch Spielzeuge. Darunter fallen jedoch auch Überwachungstechniken an Grenzen, Überwachung der Migration, polizeiliche Arbeit, Personalmanagement in Unternehmen oder die Erfassung biometrischer Informationen in Identitätsdokumenten. Auch Tools, die dazu dienen, die Interpretation und Implementierung des europäischen KI-Rechts zu unterstützen, werden als hochgradig riskant angesehen und sollen einer Regulierung unterzogen werden.

KI System-Transparenz gefordert

Systeme, die neue Inhalte erschaffen, indem sie riesige Mengen an Daten verarbeiten – wie beispielsweise die generative KI ChatGPT von der Microsoft-Tochter OpenAI –, werden von EU-Gesetzgebern als Risiko mittleren Grades eingestuft. Es soll zur Pflicht werden, dass die Entwickler offenlegen, nach welchen Prinzipien die KI funktioniert und wie verhindert wird, dass sie illegale Inhalte produziert. Zudem muss transparent gemacht werden, wie die KI trainiert wurde und ob urheberrechtlich geschützte Daten zum Einsatz kamen. Inhalte, die z.B. mittels ChatGPT kreiert wurden, müssen als solche klar erkennbar sein.

„Nur“ geringe Auflagen für KI Service-Programme

Nach den neuesten EU-Richtlinien wird die Nutzung von Software, die Videos, Audios oder Bilder verändert oder neu erstellt, als gering gefährlich eingestuft. Das schließt die sogenannten „Deep Fakes“ ein, die auf zahlreichen sozialen Plattformen bereits weit verbreitet sind. Auch Kundenservice-Programme fallen in diese Risikokategorie. Hier gelten lediglich einfache Transparenzvorschriften. Die Benutzer müssen darauf hingewiesen werden, dass sie mit einer KI-Technologie interagieren und nicht mit einer realen Person. Anschließend können die Nutzer selbst entscheiden, ob sie die KI-Anwendung weiterhin verwenden möchten oder nicht.

Wann kommt das neue Gesetz für Künstliche Intelligenz?

Nach drei intensiven Verhandlungstagen ist zwischen den drei Schlüsselinstitutionen der EU – der Kommission, dem Parlament und dem Rat der Minister – eine grundsätzliche Einigung über einen Gesetzesentwurf zustande gekommen, welcher allerdings noch nicht alle erforderlichen technischen Details beinhaltet. Dieser Entwurf muss nun noch formell durch das Europäische Parlament und den Rat, der die 27 Mitgliedstaaten repräsentiert, angenommen werden. Die Zustimmung soll bis zum Ende der Legislaturperiode des Parlaments im April 2024 erfolgen. Anschließend haben die Mitgliedstaaten zwei Jahre Zeit, um das Gesetz über Künstliche Intelligenz in nationales Recht zu überführen. Der christdemokratische Europaparlamentarier Axel Voss hob bereits vor Beginn des Prozesses hervor, dass angesichts der rasanten Entwicklung der Künstlichen Intelligenz die Gefahr bestehe, dass die EU-Vorschriften veraltet sein könnten, sobald sie in Kraft treten.

ChatGPT bietet jetzt kostenpflichtige Programme an, die Kunden gemäß ihren spezifischen Wünschen und Anweisungen anpassen können. Laut Untersuchungen der BBC verwenden Entwickler diese KI-„Toolkits“, um betrügerische E-Mails für Hacker oder Personen mit kriminellen Zielen zu erstellen.

„Es ist entscheidend, dass das, was beschlossen worden ist, auch tatsächlich funktioniert. Die Vorschläge des Gesetzes zur Künstlichen Intelligenz sind nur dann realisierbar, wenn es Rechtssicherheit, vereinheitlichte Standards, eindeutige Richtlinien und konsequente Durchsetzung gibt“, äußerte der EU-Parlamentarier Axel Voss letzte Nacht in Brüssel.

Typisch für Europa – Erst mal einschränken, dann nachdenken!

Der Industrieverband für Computer und Kommunikation in Europa (CCIA) äußerte heute Morgen Bedenken, dass der Kompromissentwurf der EU lediglich eine unzureichende Lösung darstellt und die Gefahr birgt, verschiedene Bereiche der Künstlichen Intelligenz zu streng zu regulieren. „Dem Entwurf des KI-Gesetzes mangelt es an Weitsicht und dem Eifer, den europäische Start-ups und Firmen zurzeit an den Tag legen. Es besteht sogar das Risiko, dass die europäischen Spitzenunternehmen, welche die EU so dringend benötigt, verdrängt werden könnten“, so Boniface de Champris von der CCIA.

Verbraucherschutzvertreter der Europäischen Verbraucherorganisation „BEUC“ haben auch ihre Kritik am vorgeschlagenen Gesetz geäußert. Ihrer Meinung nach ist es zu nachsichtig, da es den Firmen zu viel Selbstkontrolle zugesteht und nicht genügend Richtlinien für virtuelle Assistenten, Spielwaren oder auch generative KI-Systeme wie ChatGPT festlegt, wie es in einer ersten Beurteilung heißt.

Wie machen es andere Länder?

Die Vereinigten Staaten, das Vereinigte Königreich und 20 andere Länder haben Empfehlungen und Bestimmungen zum Datenschutz für Entwickler von künstlicher Intelligenz (KI) veröffentlicht, die jedoch nicht rechtlich verpflichtend sind. Es wird erwartet, dass große Technologieunternehmen, die an KI forschen, eigenständige Selbstkontrollen durchführen. In den USA soll ein „Sicherheitsinstitut“ die Gefahren, die von KI-Anwendungen ausgehen, evaluieren. Präsident Joe Biden hat KI-Firmen dazu aufgerufen, ihre Sicherheitsprüfungen offenzulegen, falls die nationale Sicherheit, öffentliche Gesundheit oder weitere Sicherheitsaspekte bedroht sein sollten. In China wird der Einsatz von KI für Privatpersonen und Geschäftsleute stark beschränkt, da die kommunistische Führung befürchtet, dass sie lernfähige Systeme nicht so einfach kontrollieren kann wie das Internet bisher. Beispielsweise ist ChatGPT in China nicht verfügbar. Die Verwendung von Gesichtserkennungstechnologie wird allerdings im Auftrag der Regierung schon weitreichend genutzt.


Ebenfalls interessant:

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}
>