Fina­le Fas­sung der KI-Verordnung

Unter­neh­men müs­sen KI-Strategie anpassen

Nach der lang erkämpf­ten poli­ti­schen Eini­gung der EU-Organe auf die KI-Verordnung am 8. Dezem­ber 2023 liegt inzwi­schen ein fina­ler Kom­pro­miss­text der KI-Verordnung vor (wir berich­te­ten zuletzt am 22. Juni 2023 und am 15. Febru­ar 2023). Die KI-Verordnung stellt einen risi­ko­ba­sier­ten Ansatz für die Regu­lie­rung von KI dar. Sie ent­hält die Defi­ni­ti­on von KI, die Beschrei­bung ver­bo­te­ner KI-Praktiken, Vor­ga­ben für Hochrisiko-KI sowie Gene­ral Pur­po­se KI-Modelle (GPAI).

Um auf der siche­ren Sei­te zu sein, soll­ten Unter­neh­men die neu­en gesetz­li­chen Anfor­de­run­gen der KI-Verordnung in ihre KI-Strategie aufnehmen.

Anwen­dungs­be­reich der KI-Verordnung

Wört­lich über­setzt, defi­niert Art. 3 Abs. 1 KI-Verordnung ein KI-System als “ein maschi­nen­ge­stütz­tes Sys­tem, das so kon­zi­piert ist, dass es in unter­schied­li­chem Maße auto­nom betrie­ben wer­den kann und nach sei­ner Inbe­trieb­nah­me anpas­sungs­fä­hig ist, und das für expli­zi­te oder impli­zi­te Zwe­cke aus den Ein­ga­ben, die es erhält, Ergeb­nis­se wie Vor­her­sa­gen, Inhal­te, Emp­feh­lun­gen oder Ent­schei­dun­gen ablei­tet, die die phy­si­sche oder vir­tu­el­le Umge­bung beein­flus­sen können.“ 

Die Defi­ni­ti­on ent­spricht inter­na­tio­na­len Stan­dards, ist aber immer noch sehr weit gehal­ten. Unter­neh­men soll­ten des­halb beach­ten, dass von ihnen ange­bo­te­ne Soft­ware oder maschi­nen­ge­stütz­te Sys­te­me im Zwei­fel unter die­se Defi­ni­ti­on fal­len kön­nen und die dif­fe­ren­zier­ten Anfor­de­run­gen der KI-Verordnung erfül­len müssen.

Die KI-Verordnung ist ver­pflich­tend für Unter­neh­men, die KI-Systeme oder GPAI-Modelle auf dem EU-Markt in Ver­kehr brin­gen, unab­hän­gig davon, wo sie nie­der­ge­las­sen oder ansäs­sig sind. Impor­teu­re, Händ­ler, Her­stel­ler, bevoll­mäch­tig­te Ver­tre­ter und betrof­fe­ne Per­so­nen in der EU sind eben­falls von der KI-Verordnung erfasst.

Ver­bo­te­ne KI-Praktiken

Die KI-Verordnung ver­bie­tet den Ein­satz von KI in einer Wei­se, die mit den Grund­rech­ten oder Grund­wer­ten der EU nicht ver­ein­bar ist. Fol­gen­de Ver­bo­te sind wegen ihrer wei­ten Defi­ni­ti­on von beson­de­rer Rele­vanz für Unternehmen:

  • Tech­ni­ken der unter­schwel­li­gen Beein­flus­sung oder der bewuss­te Ein­satz mani­pu­la­ti­ver Stra­te­gien zur Ver­hal­tens­ver­zer­rung, die einer Per­son oder einer Grup­pe von Per­so­nen erheb­li­chen Scha­den zufü­gen oder zufü­gen könnten;
  • KI-Systeme, die Schwä­chen aus­nut­zen, die mit dem Alter, einer Behin­de­rung oder einer bestimm­ten sozialen/wirtschaftlichen Situa­ti­on zusammenhängen;
  • Bio­me­tri­sche Kate­go­ri­sie­rungs­sys­te­me, die sen­si­ble Infor­ma­tio­nen wie Ras­se, poli­ti­sche Mei­nun­gen etc. ableiten;
  • Social Scoring;
  • KI-Systeme und ‑Diens­te, die Gesichts­er­ken­nungs­da­ten­ban­ken mit Gesichts­bil­dern aus dem Inter­net oder von Über­wa­chungs­ka­me­ras ver­wen­den, sowie KI-Systeme, die aus­schließ­lich zur Emo­ti­ons­ana­ly­se natür­li­cher Per­so­nen am Arbeits­platz oder in Bil­dungs­ein­rich­tun­gen ein­ge­setzt wer­den, außer zu medi­zi­ni­schen Zwe­cken oder aus Sicher­heits­grün­den (z. B. Über­wa­chung des Ermü­dungs­zu­stands eines Piloten).

Hochrisiko-KI-Systeme und aus­führ­li­che Risikobewertung

Der risi­ko­ba­sier­te Ansatz der KI-Verordnung, der bereits aus dem Ver­ord­nungs­vor­schlag bekannt ist, wird ins­be­son­de­re bei der Klas­si­fi­zie­rung von Hochrisiko-KI und den Pflich­ten im Zusam­men­hang mit Hochrisiko-KI deut­lich. Anbie­ter und Anwen­der von „risi­ko­ar­men“ KI-Systemen müs­sen hin­ge­gen nach Art. 4b KI-Verordnung nur ein „aus­rei­chen­des Maß an AI-Literacy“ (KI-Kenntnisse unter Berück­sich­ti­gung der Rech­te und Pflich­ten aus der KI-Verordnung sowie ein Bewusst­sein für die Chan­cen, Risi­ken und mög­li­chen Schä­den von KI) der Per­so­nen sicher­stel­len, die im Auf­trag die­ser Anbie­ter und Anwen­der mit dem Betrieb und der Nut­zung von KI-Systemen befasst sind, wäh­rend für Hochrisiko-KI die meis­ten Pflich­ten der KI-Verordnung gelten.

Die Ein­stu­fung von KI als Hochrisiko-KI erfolgt nach dem Grad der Erheb­lich­keit ihres Risi­kos für die Gesund­heit, die Sicher­heit und die Grund­rech­te der EU. Die in Anhang III der KI-Verordnung auf­ge­führ­ten KI-Systeme gel­ten auto­ma­tisch als Hochrisiko-KI-Systeme, z. B. bestimm­te kri­ti­sche Infra­struk­tu­ren wie Wasser‑, Gas- und Strom­ver­sor­gung oder medi­zi­ni­sche Gerä­te (sie­he auch unser Bei­trag „KI-basierte Medi­zin­pro­duk­te: MDR ver­sus KI-VO“).  Dar­über hin­aus gilt ein KI-System nach Art. 6 Abs. 1 KI-Verordnung als Hochrisiko-KI, wenn es als Sicher­heits­kom­po­nen­te in ein Pro­dukt inte­griert ist oder das KI-System selbst ein Pro­dukt ist, das unter den New Legis­la­ti­ve Frame­work (NLF) oder unter ande­re har­mo­ni­sier­te EU-Rechtsvorschriften fällt, die in Anhang II der KI-Verordnung auf­ge­führt sind, und für das Pro­dukt mit der KI-Sicherheitskomponente oder das KI-System selbst vor dem Inver­kehr­brin­gen eine Kon­for­mi­täts­be­wer­tung durch einen Drit­ten erfor­der­lich ist. Umfasst sind hier­von u. a. Rechts­vor­schrif­ten über Maschi­nen, Spiel­zeu­ge, Schiffs­aus­rüs­tung, Kraft­fahr­zeu­ge, ATEX, Druck­ge­rä­te und Medi­zin­pro­duk­te (wie MDR und IVDR).

Es gibt jedoch Aus­nah­men. KI-Systeme kön­nen im Umkehr­schluss als Nicht-Hochrisiko-KI ein­ge­stuft wer­den, wenn sie kei­ne erheb­li­chen Risi­ken für die Gesund­heit, die Sicher­heit oder die EU-Grundrechte dar­stel­len (Art. 6 Abs. 2a KI-Verordnung).

Für Anbie­ter und Anwen­der von KI-Systemen mit hohem Risi­ko sind in die­sem Zusam­men­hang maß­geb­li­che Pflich­ten zu beach­ten und umzu­set­zen, wie bei­spiels­wei­se ein Risi­ko­ma­nage­ment, eine Grundrechte-Folgenabschätzung sowie ein der Grö­ße der Orga­ni­sa­ti­on des Anbie­ters ange­mes­se­nes Qua­li­täts­ma­nage­ment­sys­tem zur Gewähr­leis­tung der Kon­for­mi­tät und eine aus­rei­chen­de (tech­ni­sche) Doku­men­ta­ti­on. Auch wenn für Pro­duk­te, die unter die Har­mo­ni­sie­rungs­rechts­vor­schrif­ten fal­len, bereits Kon­for­mi­täts­be­wer­tun­gen durch­ge­führt wur­den, müs­sen Unter­neh­men hier ins­be­son­de­re die Produktsicherheits- und Qua­li­täts­an­for­de­run­gen im Zusam­men­hang mit der KI-Komponente in der durch­zu­füh­ren­den Risi­ko­ana­ly­se berück­sich­ti­gen. Beson­de­res Augen­merk ist bei den Pflich­ten für Hochrisiko-KI auf die neu hin­zu­ge­kom­me­ne EU-Grundrechte-Folgenabschätzung zu rich­ten. Die­se Anfor­de­rung wird jedoch vor­aus­sicht­lich durch Aus­fül­len eines Fra­ge­bo­gens zu erfül­len sein und nur Anbie­ter und Anwen­der von KI-Systemen betref­fen, die KI in Ein­rich­tun­gen des öffent­li­chen Rechts ein­set­zen, sowie pri­va­te Akteu­re, die öffent­li­che Dienst­leis­tun­gen erbrin­gen, und KI-Anwender, die Anbie­ter von Bank- und Ver­si­che­rungs­dienst­leis­tun­gen mit einer hohen Risi­ko­ein­stu­fung nach Anhang III Num­mer 5 Buch­sta­ben (b) und (ca) KI-Verordnung sind.

GPAI-Vorschriften

In dem vor­lie­gen­den Kom­pro­miss­text wird zwi­schen zwei ver­schie­de­nen Arten von GPAI unter­schie­den: „GPAI-Modelle“ und „GPAI-Modelle mit sys­te­mi­schem Risi­ko.“ Ein GPAI-Modell gilt (nach Art. 52a KI-Verordnung) dann als mit sys­te­mi­schem Risi­ko behaf­tet, wenn es nach tech­ni­scher Bewer­tung eine hohe Aus­wir­kungs­ka­pa­zi­tät („High Impact Capa­bi­li­ties“) auf­weist. Erfor­dert z. B. schon das Trai­ning der GPAI einen Rechen­auf­wand von mehr als 10^25 FLOPs, hat das GPAI-Modell eine hohe Aus­wir­kungs­ka­pa­zi­tät und ist ein GPAI-Modell mit sys­te­mi­schem Risi­ko (i.S.v. Art. 52a KI-Verordnung). Die Anbie­ter der ers­te­ren müs­sen ledig­lich eine gerin­ge­re Anzahl an „Min­dest­vor­schrif­ten“ wie Transparenz- und Doku­men­ta­ti­ons­pflich­ten ein­hal­ten. Die KI-Verordnung legt in Art. 52 Trans­pa­renz­pflich­ten für Anbie­ter von GPAI-Modellen und Anwen­der bestimm­ter KI-Systeme fest, die u. a. die Offen­le­gung der Inter­ak­ti­on mit KI-Systemen und die Kenn­zeich­nung der von KI-Systemen gene­rier­ten oder mani­pu­lier­ten Inhal­te vorsehen.

GPAI mit sys­te­mi­schem Risi­ko wird nach der KI-Verordnung zusätz­li­chen und stren­ge­ren Anfor­de­run­gen gemäß Art. 52d KI-Verordnung unter­lie­gen. Die Anbie­ter sol­cher leis­tungs­star­ken GPAI-Modelle mit sys­te­mi­schem Risi­ko wer­den u. a. ver­pflich­tet, sys­te­mi­sche Risi­ken zu bewer­ten und zu min­dern, schwer­wie­gen­de Vor­fäl­le zu mel­den, Tests und Model­leva­lu­ie­run­gen nach dem neu­es­ten Stand der Tech­nik durch­zu­füh­ren und Cyber­si­cher­heit zu gewähr­leis­ten. Zu den GPAI-Modellen mit sys­te­mi­schem Risi­ko könn­te bei­spiels­wei­se das GPT‑4 Modell von Ope­nAI gehören.

Nächs­te gesetz­ge­be­ri­sche Schritte

Es bleibt die Ver­ab­schie­dung der KI-Verordnung durch das EU-Parlament und eine Rats­for­ma­ti­on abzu­war­ten. Die­se ist für das ers­te Halb­jahr vor­ge­se­hen. Bei plan­mä­ßi­ger Ver­ab­schie­dung ist ein gestaf­fel­ter Beginn der Anwen­dung für ein­zel­ne Berei­che vor­ge­se­hen, z. B. für ver­bo­te­ne KI-Praktiken bereits nach sechs Mona­ten, für GPAI nach einem Jahr und für KI-Systeme mit hohem Risi­ko, die von Art. 6 Abs. 1 KI-Verordnung und den damit kor­re­spon­die­ren­den Rege­lun­gen erfasst sind, nach drei Jahren.

Fazit

Die Ver­ab­schie­dung der KI-Verordnung rückt immer näher. Unter­neh­men soll­ten bereits jetzt prü­fen, ob ihre Pro­duk­te mit inte­grier­ten KI-Komponenten als Hochrisiko-KI ein­zu­stu­fen sind, ob ihre GPAI-Modelle ein sys­te­mi­sches Risi­ko auf­wei­sen und ob sie poten­zi­ell ver­bo­te­ne KI-Praktiken anwen­den. Dar­über hin­aus ist zu beach­ten, dass vie­le kon­kre­te Ver­pflich­tun­gen noch von der Aus­ge­stal­tung der zahl­rei­chen Durch­füh­rungs­rechts­ak­te und des noch zu erlas­sen­den Sekun­där­rechts abhängen.

zurück

Bleiben Sie
up to date

Wir verwenden Ihre E-Mail-Adresse ausschließlich für den Versand unseres Newsletters. Sie können Ihre Einwilligung hierfür jederzeit mit Wirkung für die Zukunft widerrufen. Weitere Informationen entnehmen Sie bitte unserer Datenschutzerklärung.