Letzte Woche hat die Europäische Kommission neue Regeln vorgestellt, um den ordnungsgemäßen Einsatz von KI sicherzustellen. In den Vorschriften, die sich noch im Entwurf befinden, sind bestimmte Kategorien von KI unter Strafe hoher Geldstrafen eingeschränkt oder sogar verboten.
Die EG befand sich in einer schwierigen Situation. Einerseits will es die Position Europas im Bereich der KI stärken, insbesondere angesichts des technologischen Rückstands hinter den USA und China. Andererseits wollen sie die ethischen Grenzen und die Sicherheit ihrer Bürger schützen. Europa hat sich für eine zuverlässige („vertrauenswürdige“) KI entschieden. In einem früheren Blog-Beitrag haben wir bereits die sieben Aspekte einer zuverlässigen KI beschrieben [Link-Blog Jan Balje]. Jetzt gibt es also harte Regeln und sogar Geldstrafen.
Die neu veröffentlichten Regeln verfolgen einen risikobasierten Ansatz mit vier Kategorien:
- Inakzeptables Risiko: KI-Systeme, die das menschliche Verhalten manipulieren, um den freien Willen der Benutzer zu umgehen (z. B. sprachgestütztes Spielzeug, das Minderjährige zu gefährlichem Verhalten anregt), und Systeme, die eine „soziale Bewertung“ durch Regierungen ermöglichen. Diese Formen der KI werden verboten.
- Hohes Risiko: KI-Systeme, die das Leben und die Gesundheit der Bürger gefährden können (kritische Infrastruktur), die den Zugang zu Bildung oder Karriere bestimmen oder die bei der Einstellung und Auswahl, Bewertung der Kreditwürdigkeit, Strafverfolgung usw. verwendet werden. Diese Formen der KI dürfen nur unter strengen Bedingungen verwendet werden.
- Begrenztes Risiko: KI-Systeme, mit denen Benutzer möglicherweise nicht interagieren können. Diese Systeme müssen transparent sein.
- Minimales Risiko: Die meisten KI-Systeme fallen in diese Kategorie. Die EU gibt hier nur Beispiele für Videospiele oder Spamfilter. Systeme in dieser Kategorie sind nicht reguliert.