Der Einsatz von KI wird immer häufiger und deshalb schlägt die EU neue und strengere Regeln vor. Die EU hat beschlossen, mit der Veröffentlichung ihres ersten Regulierungsvorschlags einen Schritt nach vorne zu machen, mit strengeren Regeln zur Regulierung des Einsatzes von KI.
In den Regelungsentwürfen wird beschrieben, wie Unternehmen und Regierungen in allen Mitgliedstaaten diese Technologie nutzen können, wobei Grenzen für den Einsatz von KI bei einer Vielzahl von Aktivitäten festgelegt werden, von autonomen Autos über Einstellungsentscheidungen, Bankkredite, Auswahl von Schulgebühren bis hin zur Prüfungskennzeichnung. und sogar seine Verwendung durch Strafverfolgungs- und Justizsysteme und andere Bereiche, die die Sicherheit oder die Grundrechte der Menschen gefährden.
Die EU zeigt ihre Herangehensweise an die KI mit den neuen Regelvorschlägen
Die EU-Kommission konzentriert sich auf Anwendungen von KI mit hohem Risiko und bietet Garantien für die Sicherheit des Einzelnen, seine Rechte und Interessen, ohne Unternehmen, die Produkte und Dienstleistungen auf KI-Basis auf den Markt bringen möchten, größere Hindernisse aufzuerlegen.
Der Vorschlag wird unter einem risikobasierten Ansatz für bestimmte KI-Anwendungen vorgestellt, der den potenziellen Auswirkungen auf die Menschen entspricht. Dabei werden bis zu vier verschiedene Ebenen kategorisiert, von denen nur militärische Anwendungen ausgeschlossen sind.
Ausgehend von dem minimalen Risiko finden wir banale Verwendungen wie Freizeit und künstliche Intelligenz, die beispielsweise in einigen Spielzeugen oder Videospielen enthalten sind, oder Anwendungen für die Erstellung von Musik oder die Bildbearbeitung, für die in der Verordnung die Anwendung von nicht festgelegt ist jede restriktive Maßnahme.
Maßnahmen, die mit einem „begrenzten Risiko“ beginnen, einschließlich geschlossener KI-Systeme, mit denen Benutzer Kontakt aufnehmen können, wie z. B. Chatbots, die jetzt ein Mindestmaß an Transparenz einhalten müssen, und die jederzeit als nicht menschlicher Kontakt gewarnt werden .
Ein zweiter Punkt des „hohen Risikos“ sind Systeme, die sich nachteilig auf die Sicherheit der Menschen oder ihre Grundrechte auswirken und in kritischen Infrastrukturen eingesetzt werden, die sich auf Gesundheit, Bildung, Personalbeschaffungssysteme, öffentliche Dienste, Gesetzgebung oder Justiz auswirken können.
Es gibt eine Kategorie namens “inakzeptabel”
Darüber hinaus werden biometrische Fernidentifizierungssysteme als risikoreich eingestuft, und für sie gelten neue, strengere Anforderungen. Obwohl die EU-Kommission nicht beschlossen hat, sie direkt zu verbieten, legt sie fest, dass die Gesichtserkennung für die Verwendung in öffentlichen und lebenden Bereichen verboten ist. Obwohl es einige Ausnahmen geben wird, wie die Suche nach abhängigen oder vermissten Personen, die Verhinderung einer bestimmten und unmittelbar bevorstehenden terroristischen Bedrohung oder die Identifizierung eines Täters oder Verdächtigen eines schweren Verbrechens.
Auf höchster Ebene finden wir den Abschnitt „Inakzeptables Risiko“, der diejenigen Verwendungen umfasst, die als Bedrohung für die „soziale Bewertung durch Regierungen, die Ausbeutung von Schwachstellen von Kindern, den Einsatz unterschwelliger Techniken und – vorbehaltlich enger Ausnahmen – angesehen werden. Live-biometrische Fernidentifizierungssysteme in öffentlich zugänglichen Räumen, die für Strafverfolgungszwecke verwendet werden. “
Schließlich wurde erneut die Notwendigkeit menschlicher Interaktion und Kontrolle hervorgehoben, da künstliche Intelligenz niemals Menschen ersetzen oder von ihrer Verantwortung entbinden darf.
Die EU-Kommission hat diese neue Verordnung jedoch noch nicht gebilligt. Dieser Prozess könnte die Umsetzung dieser Maßnahmen um mehr als ein Jahr verlängern. Obwohl bereits klargestellt wurde, dass, obwohl im Moment nur bestimmte Anwendungen der künstlichen Intelligenz reguliert werden, diese Vorschriften einen „Innovationsspielraum“ haben werden, der bereits in die Regulierung anderer neuer heißer Themen wie Robotik oder 3D-Drucker einfließt.