Daten­schutz und die euro­päi­sche KI-Verordnung: neue recht­li­che Her­aus­for­de­run­gen für intel­li­gen­te Medizinprodukte?!

In unse­rer Bera­tungs­pra­xis begeg­nen uns immer wie­der Her­stel­ler oder Pro­duk­te, die den Vor­ga­ben der Daten­schutz­grund­ver­ord­nung (DSGVO) nicht ent­spre­chen. Häu­fig hören wir dann, dass die Ein­hal­tung der DSGVO für Her­stel­ler und Pro­duk­te nicht ver­pflich­tend sei. Für die Ein­hal­tung der DSGVO sei­en nur die­je­ni­gen ver­ant­wort­lich, die die Daten­ver­ar­bei­tung am Ende durch­füh­ren, indem sie über Zweck und Mit­tel der Ver­ar­bei­tung ent­schei­den. Doch die­se Annah­me greift, wie wir im Fol­gen­den erklä­ren, häu­fig zu kurz. Dar­über hin­aus hat die EU-Kommission Anfang Mai 2021 eine Ver­ord­nung für Künst­li­che Intel­li­genz (KI) vor­ge­schla­gen. Die­se soll einen beson­de­ren Schutz für die Bür­ger­rech­te und die Sicher­heit durch die Anwen­dung von KI schaf­fen und könn­te zusätz­li­che Ver­pflich­tun­gen für die Her­stel­ler von intel­li­gen­ten Medi­zin­pro­duk­ten mit sich bringen.

Daten­schutz­vor­ga­ben für Hersteller

Rich­tig ist: Her­stel­ler sind nicht per se an die Vor­ga­ben der DSGVO gebun­den. Die Ver­ord­nung adres­siert sie ledig­lich in dem Erwä­gungs­grund 78, wonach Her­stel­ler “ermu­tigt” wer­den, “das Recht auf Daten­schutz bei der Ent­wick­lung und Gestal­tung der Pro­duk­te, Diens­te und Anwen­dun­gen zu berück­sich­ti­gen und unter gebüh­ren­der Berück­sich­ti­gung des Stands der Tech­nik sicher­zu­stel­len”. Dass die DSGVO die Her­stel­ler nicht direkt ver­pflich­tet, liegt an dem Anwen­dungs­be­reich der DSGVO. Die­ser greift erst dann, wenn per­so­nen­be­zo­ge­ne Daten tat­säch­lich ver­ar­bei­tet wer­den. Das geschieht nicht durch den Her­stel­ler, son­dern erst durch den Betrei­ber der KI-Anwendung, also die ver­ant­wort­li­che Stel­le, die über Zweck und Mit­tel der Ver­ar­bei­tung letzt­end­lich ent­schei­det. Nichts­des­to­trotz soll­ten Her­stel­ler bereits in der Ent­wick­lung und Her­stel­lung die Daten­schutz­grund­sät­ze beach­ten, da die spä­te­ren Betrei­ber das Pro­dukt andern­falls erst gar nicht daten­schutz­kon­form ein­set­zen kön­nen. Die DSGVO gilt daher zumin­dest mit­tel­bar auch für die Hersteller.

Ver­ar­bei­tung von Gesundheitsdaten

Bei der Anwen­dung von intel­li­gen­ten Medi­zin­pro­duk­ten oder auch digi­ta­len Gesundheits-Apps (DiGA) ist es meist uner­läss­lich, eine Viel­zahl von meist sen­si­blen Gesund­heits­da­ten zu ver­ar­bei­ten. Dabei gibt es aber eini­ges zu beach­ten: “Zu den per­so­nen­be­zo­ge­nen Gesund­heits­da­ten soll­ten alle Daten zäh­len, die sich auf den Gesund­heits­zu­stand einer betrof­fe­nen Per­son bezie­hen und aus denen Infor­ma­tio­nen über den frü­he­ren, gegen­wär­ti­gen und künf­ti­gen kör­per­li­chen oder geis­ti­gen Gesund­heits­zu­stand der betrof­fe­nen Per­son her­vor­ge­hen.” (Erwä­gungs­grund 35 der DSGVO).

Wenn es um die Ver­ar­bei­tung die­ser Daten geht, soll das Daten­schutz­recht die betrof­fe­nen Per­so­nen, also jene, auf die sich die Daten bezie­hen, beson­ders schüt­zen. “Technisch-organisatorische Maß­nah­men zum Schutz der Inte­gri­tät und Ver­trau­lich­keit von Gesund­heits­da­ten sind nicht nur recht­lich gebo­ten, son­dern auch not­wen­dig, um eine miss­bräuch­li­che Ver­wen­dung von Daten zu ver­hin­dern und Feh­lern in der Ver­ar­bei­tung ent­ge­gen­zu­wir­ken”, so die Bre­mer Lan­des­be­auf­trag­te für Daten­schutz (3. Jah­res­be­richt 2020, S. 60).  Bei einer Ver­ar­bei­tung von per­so­nen­be­zo­ge­nen Daten mit­hil­fe einer KI-Anwendung ist inso­weit beson­de­re Vor­sicht gebo­ten, da die­se zu Ergeb­nis­sen kom­men kann, die zu Nach­tei­len für die betrof­fe­nen Per­so­nen füh­ren, ohne dass die Ver­ar­bei­tungs­schrit­te durch den Men­schen über­prüft wer­den können.

Daten­über­mitt­lun­gen in die USA

Ins­be­son­de­re für Her­stel­ler digi­ta­ler Gesund­heits­an­wen­dun­gen (DiGA) sind Daten­über­mitt­lun­gen in Dritt­staa­ten eine beson­de­re Her­aus­for­de­rung. Nach § 4 Abs. 3 der Digitale-Gesundheitsanwendungen-Verordnung (DiGAV) dür­fen per­so­nen­be­zo­ge­ne Daten näm­lich nur in Staa­ten außer­halb des euro­päi­schen Wirt­schafts­raums (EWR) über­mit­telt wer­den, wenn ein Ange­mes­sen­heits­be­schluss der EU-Kommission vor­liegt. Doch einen sol­chen gibt es für die USA seit der “Schrems II”-Entscheidung des EuGHs nicht mehr. Eine Über­mitt­lung ist seit­dem recht­lich problematisch.

Selbst die Fra­ge, ob eine DiGA trotz­dem in den App-Stores  von Goog­le und Apple ange­bo­ten wer­den kann, ist bis­her nicht geklärt. Lei­der brin­gen auch Bemü­hun­gen des Bun­des­in­sti­tuts für Arz­nei­mit­tel und Medi­zin­pro­duk­te durch Leit­fä­den und eige­ne Infor­ma­tio­nen (PDF) aus unse­rer Sicht kei­ne aus­rei­chen­de Rechts­si­cher­heit für die Daten­über­mitt­lung. Eine genaue Ein­schät­zung von uns zu des­sen Ver­öf­fent­li­chun­gen fin­den Sie hier. Gene­rell raten wir DiGA-Herstellern dazu, ihre Daten­flüs­se tat­säch­lich und recht­lich genau zu über­prü­fen und sich der erheb­li­chen daten­schutz­recht­li­chen Risi­ken bei der Nut­zung von außer­eu­ro­päi­schen Anbie­tern und deren Toch­ter­ge­sell­schaf­ten bewusst zu sein.

Neue Vor­ga­ben durch die kom­men­de KI-Verordnung?

Im April 2021 leg­te die EU-Kommission den welt­weit ers­ten Rechts­rah­men für KI vor. Die­ser bezweckt einen beson­de­ren Schutz für die Bür­ger­rech­te und die Sicher­heit durch die Anwen­dung von KI. Der Vor­schlag folgt dabei einem risi­ko­ba­sier­ten Ansatz, wonach eine KI-Anwendung je nach Risi­ko für die geschütz­ten Güter unter­schied­li­chen Vor­ga­ben unter­liegt. Je nach­dem wel­che Aus­wir­kun­gen auf den Men­schen befürch­tet wer­den und wel­che Gefah­ren dar­aus für hohe Rechts­gü­ter ent­ste­hen kön­nen. So ist ein KI-System, das “als kla­re Bedro­hung für die Sicher­heit, die Lebens­grund­la­gen und die Rech­te der Men­schen” gilt (unan­nehm­ba­res Risi­ko), ver­bo­ten. Die nächs­te Stu­fe erfasst die sog. “High-Risk-KI”. Dar­un­ter fal­len u.a. KI-Techniken, die als Sicher­heits­kom­po­nen­ten von Pro­duk­ten genutzt wer­den. Bei­spiel­haft nennt die Kom­mis­si­on hier eine KI-Anwendung für die robo­ter­as­sis­tier­te Chirurgie.

Her­stel­ler intel­li­gen­ter Medi­zin­pro­duk­te müs­sen sich mit den Pflich­ten also genau­er beschäf­ti­gen und das Risi­ko ihrer KI-Anwendung genau bestim­men. Für alle Her­stel­ler von KI-Anwendungen dürf­te – unab­hän­gig vom jewei­li­gen Risi­ko – die Trans­pa­renz­pflicht von Bedeu­tung sein, die auch ein wesent­li­cher Grund­ge­dan­ke der DSGVO ist. Wei­te­re Über­schnei­dun­gen zum Gesund­heits­da­ten­schutz und der DSGVO ent­ste­hen natür­lich dort, wo per­so­nen­be­zo­ge­ne (Gesundheits-) Daten mit­hil­fe der KI-Anwendung ver­ar­bei­tet wer­den. Was auf­grund der beson­de­ren daten­schutz­recht­li­chen Bedeu­tung von Gesund­heits­da­ten ein erhöh­tes Risi­ko dar­stel­len kann.Genauere Infor­ma­tio­nen zu der KI-Verordnung und wel­che wei­te­ren Pflich­ten vor­aus­sicht­lich auf die Her­stel­ler zukom­men, fin­den Sie hier in einem Bei­trag unse­rer Kol­le­gen Phil­ipp Reusch und Niklas Weidner.

Unse­re Emp­feh­lun­gen für Ihr wei­te­res Vorgehen

Wir emp­feh­len Her­stel­lern, sich mög­lichst früh­zei­tig sowohl mit den recht­li­chen Anfor­de­run­gen an ihr Unter­neh­men als auch an ihr Pro­dukt zu beschäf­ti­gen. Hier­bei soll­ten auch mit­tel­ba­re Anfor­de­run­gen, die sich ins­be­son­de­re aus der DSGVO erge­ben kön­nen, berück­sich­tigt wer­den. Wie streng die Auf­sichts­be­hör­den bei Ver­stö­ßen sind, ist noch nicht abseh­bar, es ist jedoch klar, dass die daten­schutz­recht­li­chen Anfor­de­run­gen ange­sichts des enor­men Durch­set­zungs­drucks aus den Auf­sichts­be­hör­den und der Sen­si­bi­li­tät von Gesund­heits­da­ten enorm an Bedeu­tung gewin­nen wer­den. Die fran­zö­si­sche Daten­schutz­auf­sichts­be­hör­de CNIL hat in die­sem Bereich für das Jahr 2021 bei­spiels­wei­se einen Arbeits­schwer­punkt ange­kün­digt und bereits ers­te Buß­gel­der ver­hängt. Um auf Über­prü­fun­gen durch Auf­sichts­be­hör­den vor­be­rei­tet zu sein und nega­ti­ve Kon­se­quen­zen von Ver­stö­ßen, wie z.B. Buß­gel­der, aber auch Unter­sa­gungs­ver­fü­gun­gen zu ver­mei­den, emp­feh­len wir die Imple­men­tie­rung eines Compliance-Management-Systems für die recht­li­chen Vor­ga­ben im Daten­schutz und bei Medizinprodukten.

zurück

Bleiben Sie
up to date

Wir verwenden Ihre E-Mail-Adresse ausschließlich für den Versand unseres Newsletters. Sie können Ihre Einwilligung hierfür jederzeit mit Wirkung für die Zukunft widerrufen. Weitere Informationen entnehmen Sie bitte unserer Datenschutzerklärung.