iRights.Lab, FRIAS und ETH Zürich ver­an­stal­ten Tagung zum Thema Neu­ro­tech­no­lo­gie und Gehirn­da­ten

Unsplash

Die Kon­fe­renz „Künst­li­che Intel­li­genz, Neu­ro­tech­no­lo­gie und Gehirn­da­ten“ fand am 11. und 12. April in Frei­burg statt. Dafür kamen rund 40 Wissenschaftler*innen aus ganz Deutsch­land, der Schweiz und den USA zusam­men.

Dabei ging es unter ande­rem um ethi­sche und recht­li­che Aspek­te des neu auf­kom­men­den Mark­tes von neu­ro­tech­no­lo­gi­schen Anwen­dun­gen für Verbraucher*innen, sowie um die Frage, was genau Gehirn­da­ten eigent­lich sind und wie recht­lich, poli­tisch und gesell­schaft­lich damit umge­gan­gen wer­den soll. Ver­an­stal­ter waren das Frei­burg Insti­tu­te for Advan­ced Stu­dies der Albert-Lud­wigs-Uni­ver­si­tät, das Health Ethics & Poli­cy Lab der ETH Zürich und das iRights.Lab. 

Den Höhe­punkt bil­de­te eine öffent­li­chen Podi­ums­dis­kus­si­on am Don­ners­tag­abend. Unter dem Titel „Von Smart­pho­nes, Fit­ness­tra­ckern bis Gehirn­da­ten: Her­aus­for­de­run­gen für Daten- und Ver­brau­cher­schutz“ dis­ku­tier­ten Prof. Niko­la Bil­ler-Andor­no, Bio­me­di­zi­ni­sche Ethik an der Uni­ver­si­tät Zürich, Prof. Ralf Jox, Neu­ro­lo­gie und Medi­zin­tech­nik am Uni­ver­si­täts­spi­tal Lau­sanne, Prof. Ors­olya Fried­rich, Phi­lo­so­phie und Medi­zi­nethik an der LMU Mün­chen und der FU Hagen, und Phil­ipp Otto, Direk­tor des iRights.Lab. Ein Aspekt der Dis­kus­si­on war die Frage nach der Auto­no­mie von Nutzer*innen, wenn durch die Ana­ly­se von Gehirn­da­ten bei­spiels­wei­se eine Dis­kre­panz zwi­schen der Eigen­wahr­neh­mung und dem ent­steht, was eine ent­spre­chen­de Daten­mes­sung über eine*n Betroffene*n aus­sagt. Hier könne es zu einer Beein­flus­sung von per­sön­li­chen Ent­schei­dun­gen oder zu einer Ver­än­de­rung bestimm­ter Ver­hal­tens­wei­sen kom­men. Außer­dem könne es erheb­li­che Aus­wir­kun­gen auf zwi­schen­mensch­li­che Inter­ak­tio­nen haben, wenn es nicht mehr mög­lich ist, den eige­nen men­ta­len Zustand, Gedan­ken und Emo­tio­nen vor den Mit­men­schen zu ver­ber­gen.

Phil­ipp Otto for­der­te, man müsse drin­gend gesell­schaft­li­che und poli­ti­sche Debat­ten über den Umgang mit die­sen sen­si­blen per­sön­li­chen Daten füh­ren. Es solle geklärt wer­den, wer wann und wie ent­schei­det, wie bestimm­te Daten klas­si­fi­ziert wer­den und wer diese Daten unter wel­chen Umstän­den nut­zen dürfe.

Fazit der Dis­kus­si­on war schließ­lich, dass durch die zuneh­men­de Ver­brei­tung medi­zi­ni­scher und para­me­di­zi­ni­scher Anwen­dun­gen und im Zusam­men­hang mit einer immer grö­ße­ren Menge per­sön­li­cher Daten sowohl die Not­wen­dig­keit des öffent­li­chen Dis­kur­ses über eine adäqua­te Regu­lie­rung steigt, als auch das Maß an Ver­ant­wor­tung von Poli­tik, Wirt­schaft, Wis­sen­schaft und der Nutzer*innen selbst. Letz­te­re müss­ten vor allem Zusam­men­hän­ge ver­ste­hen und beein­flus­sen kön­nen, wel­che Daten sie wem gegen­über preis­ge­ben möch­ten und wem nicht.

Neben der öffent­li­chen Podi­ums­dis­kus­si­on arbei­te­ten die Teil­neh­men­den an bei­den Tagungs­da­ten in drei ver­schie­de­nen Break-Out-Groups, die sich mit Fra­gen der Regu­lie­rung und des Daten­schut­zes, der Klas­si­fi­zie­rung und Defi­ni­ti­on von Gehirn­da­ten sowie mit men­schen­recht­li­chen Aspek­ten beschäf­tig­ten. Gelei­tet wur­den die Grup­pen von Dr. Mar­cel­lo Ienca, ETH Zürich, Dr. Phil­ipp Kell­mey­er, Uni­kli­nik Frei­burg, und Phil­ipp Otto, Direk­tor des iRights.Lab.

Die Kon­fe­renz bil­de­te den Auf­takt eines Pro­zes­ses, um zu einer brei­ten Debat­te über die ange­spro­che­nen The­men zu kom­men. Gemein­sam orga­ni­sie­ren wir nun wei­te­re Ver­an­stal­tun­gen, die das Ziel haben, den Umgang mit künst­li­cher Intel­li­genz und neu­ro­tech­no­lo­gi­schen Daten zu unter­su­chen und zu debat­tie­ren.

Die Ergeb­nis­se, die umfas­send doku­men­tiert sind, wer­den in wei­te­ren Arbeits­schrit­ten aus­ge­wer­tet und wei­ter­ent­wi­ckelt. Am Ende des Pro­zes­ses sol­len kon­kre­te Leit­li­ni­en ste­hen, die einen wich­ti­gen Bei­trag zum öffent­li­chen Dis­kurs dar­stel­len.