Phil­ipp Otto im Inter­view zu Her­aus­for­de­run­gen der Daten­er­he­bung und -ver­wer­tung

pixabay/Wokanapix, Lizenz: CC0

Unter­neh­men und Regie­run­gen, die immer mehr Daten ver­lan­gen und sam­meln. Dazu noch Nut­ze­rin­nen und Nut­zer, die frei­wil­lig per­sön­li­che Infor­ma­tio­nen preis­ge­ben. Die Medi­en­päd­ago­gik steht vor gro­ßen Her­aus­for­de­run­gen, über die Prof. Dr. Ange­la Till­mann mit Phil­ipp Otto, Grün­der und Exe­cu­ti­ve Direc­tor des iRights. Lab, gespro­chen hat.

Das Inter­view wurde zuerst ver­öf­fent­licht in „Soft­ware takes com­mand – Her­aus­for­de­run­gen der „Data­fi­zie­rung“ für die Medi­en­päd­ago­gik in Theo­rie und Pra­xis“, her­aus­ge­ge­ben von Sabi­ne Eder, Clau­dia Mikat und Ange­la Till­mann. Das Buch kann auf der Web­site des kopa­ed Ver­lags als Paper­back oder eBook gekauft wer­den.

Till­mann: Sie sind Her­aus­ge­ber der Infor­ma­ti­ons­platt­form iRights.info und Grün­der des Think Tank iRights.Lab. Was genau ist Ihr Arbeits­schwer­punkt und mit wel­chen Fra­gen kom­men Unter­neh­men oder Ein­rich­tun­gen auf Sie zu?

Otto: Mein Schwer­punkt ist die akti­ve und prag­ma­ti­sche Gestal­tung der digi­ta­len Zukunft. Dies bedeu­tet ganz kon­kret, dass Unter­neh­men – und ins­be­son­de­re auch die öffent­li­che Hand – mich beauf­tra­gen, ihnen zu hel­fen, die Aus­wir­kun­gen der Digi­ta­li­sie­rung in ihren viel­fäl­ti­gen Aus­prä­gun­gen zu meis­tern und sowohl Stra­te­gi­en zu ent­wi­ckeln und Ver­än­de­rungs­pro­zes­se zu beglei­ten als auch kon­kre­te Umset­zungs­pro­zes­se zu lei­ten. Grob gesagt, gehö­re ich zu denen, die sich darum küm­mern, dass Deutsch­land digi­tal gut auf­ge­stellt ist.

Till­mann: Das Forum der GMK – „Soft­ware takes com­mand“ – hat sich kri­tisch mit „Big Data (Ana­ly­tics)“ bzw. der zuneh­men­den Daten­samm­lung und -aus­wer­tung und den Fol­gen für die Gesell­schaft und das Indi­vi­du­um aus­ein­an­der­ge­setzt. Wo ste­hen wir Ihrer Ansicht nach in der Ent­wick­lung? Wie stark ist die Digi­ta­li­sie­rung von Gesell­schaft und All­tag tat­säch­lich vor­an­ge­schrit­ten?

Otto: Wir ste­hen ganz am Anfang. Heute den­ken wir noch, dass die Digi­ta­li­sie­rung sich in ein paar Apps oder neuen daten-basier­ten Anwen­dun­gen erschöpft. Ein biss­chen Kom­mu­ni­ka­ti­on hier, ein biss­chen pro­gram­mie­ren da. Wer genau hin­schaut sieht jedoch die Vor­bo­ten für eine Ver­än­de­rung unse­rer Gesell­schaft im umfas­sen­den Sinne. In weni­gen Jah­ren wird in unse­rem All­tag nichts mehr ohne den Aus­tausch von Daten funk­tio­nie­ren – kein Ver­wal­tungs­gang, kein Pro­duk­ti­ons­pro­zess, keine Bil­dung und keine Kom­mu­ni­ka­ti­on. Wir wer­den mit den Urfra­gen unse­rer Gesell­schaft und mit unse­rem Ver­ständ­nis, wie diese funk­tio­niert und gere­gelt ist, kon­fron­tiert. Wie funk­tio­niert eine digi­tal gepräg­te Demo­kra­tie? Es ist die Auf­ga­be unse­rer Genera­ti­on, das her­aus­zu­fin­den. Wir gehen dabei erste Schrit­te. Bis die­ser Pro­zess abge­schlos­sen ist, wird es jedoch noch Jahr­zehn­te dau­ern.

Till­mann: Wel­che The­men bestim­men den der­zei­ti­gen recht­li­chen Dis­kurs zu Big Data und Big Data Ana­ly­tics?

Otto: Wir müs­sen zunächst defi­nie­ren, wel­che Daten anfal­len und was mit die­sen Daten gemacht wer­den kann. Im Urhe­ber­recht spricht man von „unbe­kann­ten Nut­zungs­ar­ten“. Im Umgang mit Daten sind diese Fra­gen mul­ti­pli­ziert mit Fak­tor 100 unge­klärt. Und wir müs­sen dis­ku­tie­ren, wel­che ethi­schen Grund­sät­ze gel­ten und ob die Effi­zi­enz der Daten­nut­zung per se eine Blau­pau­se für deren Ein­satz ist. Flan­kie­rend muss das Rechts­sys­tem eine hoch­in­tel­li­gen­te Ant­wort auf die gesell­schaft­lich gewünsch­te Art und Weise fin­den, wie wir mit Daten umge­hen. Es wird nichts mehr ohne daten­ba­sier­te Nut­zung gehen. Heute gel­ten­de Kon­zep­te von Daten­schutz und Daten­spar­sam­keit defi­nie­ren wich­ti­ge Stan­dards, haben in der Zukunft aber wenig Gel­tung. Wir müs­sen die wich­ti­gen Grund­sät­ze in ein neues Sys­tem über­tra­gen. Bis­lang ist die Fach­welt damit über­for­dert und die Poli­tik erkennt die maxi­ma­le Rele­vanz noch nicht. Wahr­ge­nom­men wird nur das Wet­ter­leuch­ten, und es über­wiegt die Erkennt­nis, dass man eine bunte Folie vor das Fens­ter geklebt hat und die Welt da drau­ßen eigent­lich ganz anders aus­sieht.

Till­mann: Wo sehen Sie Regu­lie­rungs­be­darf im Zusam­men­hang mit dem Sam­meln und Aus­wer­ten von Daten?

Otto: Wir brau­chen eine glas­kla­re Defi­ni­ti­on für das, was erlaubt ist bzw. nicht erlaubt ist, und eine klare Infor­ma­ti­ons­po­li­tik gegen­über den Nut­ze­rin­nen und Nut­zern. Dabei ist es egal, ob es um staat­lich oder pri­vat erho­be­ne Daten geht. Nut­zer/-innen müs­sen in die Pro­zes­se so gut es geht ein­be­zo­gen wer­den. Sie müs­sen ein neues Bewusst­sein dar­über erlan­gen, wie sie ihre Daten ein­set­zen. Um das zu ermög­li­chen, brau­chen wir kura­tier­te Trans­pa­renz – eine Befä­hi­gung der Nut­zer/-innen, damit sie theo­re­tisch in der Lage sind, infor­mier­te Ent­schei­dun­gen tref­fen zu kön­nen. Rote Lini­en und defi­nier­te, offe­ne Stan­dards im Bereich maschi­nel­ler und künst­li­cher Intel­li­genz ste­hen dabei ganz oben auf der To-do-Liste.

Till­mann: Wie beur­tei­len Sie Initia­ti­ven wie Algo­rith­men Watch – eine nicht-kom­mer­zi­el­le Initia­ti­ve, die Exper­tin­nen und Exper­ten ver­schie­de­ner Kul­tu­ren und Dis­zi­pli­nen zusam­men­bringt, um sich mit der Ana­ly­se algo­rith­mi­scher Ent­schei­dungs­fin­dung und ihrer gesell­schaft­li­chen Aus­wir­kun­gen zu beschäf­ti­gen. (Das Ziel der Initia­ti­ve ist es, Aus­wir­kun­gen algo­rith­mi­scher Ent­schei­dungs­fin­dungs­pro­zes­se auf mensch­li­ches Ver­hal­ten auf­zu­zei­gen und auf ethi­sche Kon­flik­te hin­zu­wei­sen.)

Otto: Die Initia­ti­ve ist im Bereich des gesell­schaft­li­chen Akti­vis­mus anzu­sie­deln. Akti­vis­mus ist zumeist rich­tig und wich­tig, wenn man auf bestimm­te Ent­wick­lun­gen auf­merk­sam machen will. Des­we­gen begrü­ße ich die Initia­ti­ve. Gleich­zei­tig ist klar, dass die Initia­ti­ve keine poli­ti­sche Ent­schei­dungs­ge­walt hat und auch nicht haben soll­te. Das Pri­mat der par­la­men­ta­risch legi­ti­mier­ten Poli­tik, diese Fra­gen, die sich um Algo­rith­men dre­hen, zu gestal­ten, muss unan­tast­bar sein. Es wird ent­schei­dend sein, ob die Poli­tik und die gesell­schaft­li­chen Play­er es schaf­fen, diese Fra­gen zu debat­tie­ren und am Ende poli­ti­sche Lösun­gen zu fin­den. Hier ver­su­che ich, sowohl das Know-how zu trans­fe­rie­ren als auch die poli­ti­schen Dis­kus­si­ons- und Gestal­tungs­spiel­räu­me zu öff­nen.

Till­mann: Wie ist Ihre Mei­nung zum soge­nann­ten Recht auf Ver­ges­sen­wer­den – zum Urteil des EuGH, das Such­ma­schi­nen­be­trei­ber ver­pflich­tet, Links zu per­so­nen­be­zo­ge­nen Daten aus der Such­ergeb­nis­lis­te zu löschen?

Otto: Das Recht auf Ver­ges­sen­wer­den ist in sei­ner aktu­el­len, gericht­lich defi­nier­ten Kon­struk­ti­ons­wei­se eine Kata­stro­phe. Es führt dazu, dass unlieb­sa­me Bericht­erstat­tung aus der Sekun­där­quel­le – also der Such­ma­schi­ne – gelöscht wird, nicht aber in der Pri­mär­quel­le, zum Bei­spiel im Archiv der publi­zie­ren­den Zei­tung. Aus mei­ner Sicht muss der Gesetz­ge­ber dafür sor­gen, dass es eine ein­deu­ti­ge Rege­lung gibt. Ent­we­der gibt es den Bedarf, einen Inhalt – bei­spiels­wei­se weil er falsch ist oder eine Per­son aus Reha­bi­li­täts­grün­den nach vie­len Jah­ren nicht mehr mit allen Facet­ten ihrer Ver­gan­gen­heit auf­find­bar sein soll – zu löschen, dann muss dies aber für alle Quel­len gel­ten. Oder der Inhalt soll nicht gelöscht wer­den, dann soll­ten aller­dings auch alle Sekun­där­quel­len auf die Ori­gi­nal­quel­len hin­wei­sen dür­fen. Zudem darf es nicht sein, dass in die­sem Fall Such­ma­schi­nen­an­bie­ter genö­tigt wer­den, über hun­dert­tau­sen­de Fälle unter Abwä­gung von ver­fas­sungs­recht­lich ver­brief­ten Rech­ten vie­ler Betei­lig­ter zu ent­schei­den, in man­chen Fäl­len ohne, dass die Betrof­fe­nen sich über­haupt vor­her zu Wort mel­den kön­nen. Hier herrscht Hand­lungs­be­darf. Das digi­tal ver­füg­ba­re Gedächt­nis – auch in Such­ma­schi­nen – gehört zu unse­rem gesell­schaft­li­chen Gedächt­nis.

Till­mann: Braucht Deutsch­land einen digi­ta­len Kodex? Eine digi­ta­le Ethik?

Otto: Ja zu bei­dem. Wir brau­chen eine gesell­schaft­li­che Debat­te dar­über, wel­che ethi­schen Para­me­ter wir digi­ta­len Ent­wick­lun­gen zugrun­de legen. Dies ist die DNA unse­rer Gesell­schaft und des­we­gen von enor­mem gesell­schaft­li­chen Inter­es­se. Ob eine digi­ta­le Ethik in Papie­ren oder Geset­zen kodi­fi­ziert oder ander­wei­tig mit­ge­dacht und imple­men­tiert wird, ist dabei fast schon nach­ran­gig. Sie muss jedoch ver­an­kert wer­den. Es reicht nicht, wenn sich in Deutsch­land zwan­zig Per­so­nen damit beschäf­ti­gen. Moder­ne Rege­lun­gen und neue Wege der Regu­lie­rung und des Umgangs mit offe­nen gesell­schaft­li­chen Fra­ge­stel­lun­gen sind eben­falls nötig. Wir haben des­we­gen das Modell eines Digi­ta­len Kodex für Deutsch­land ent­wi­ckelt. Das ist kein Schnell­schuss, son­dern ein dem Thema bzw. den The­men ange­pass­ter, hoch­kom­ple­xer und lang­wie­ri­ger Pro­zess, den wir im Auf­trag des Deut­schen Insti­tuts für Ver­trau­en und Sicher­heit im Inter­net (DIVSI) gestar­tet haben.

Till­mann: Die Digi­ta­li­sie­rung stellt auch die Medi­en­päd­ago­gik vor neue Auf­ga­ben. Wo lie­gen aus Ihrer Sicht die Risi­ken für jede/​n Einzelne/​n?

Otto: Das Risi­ko liegt zunächst in der man­geln­den Aus­bil­dung und Beschäf­ti­gung der Medi­en­päd­ago­gin­nen und -päd­ago­gen mit den The­men. Und das ist kein Vor­wurf. Die The­men sind sehr kom­plex und ver­än­de­rungs­af­fin. Hier den Über­blick zu behal­ten, gelingt nur Weni­gen. Die Ver­ant­wort­li­chen in medi­en­päd­ago­gi­schen Beru­fen und Ein­rich­tun­gen soll­ten ein umfas­sen­des, über­grei­fen­des und muti­ges Kon­zept ent­wi­ckeln, das die rele­van­ten Berei­che adäquat berück­sich­tigt. Wenn dies nicht geschieht und auch die ent­spre­chen­den Umset­zun­gen nicht gemacht wer­den, droht die Gefahr des inad­äqua­ten Auf­be­rei­tens von Infor­ma­tio­nen. Die „fal­schen“ Dinge wer­den gelehrt, die „fal­schen“ Schwer­punk­te gesetzt und das Ange­bot stimmt nicht mehr mit dem Bedarf über­ein.

Till­mann: Aus der Medi­en­päd­ago­gik meh­ren sich die Stim­men, dass wir den unbe­grenz­ten Mög­lich­kei­ten der Daten­ver­ar­bei­tung und -ver­wer­tung nicht mehr nur päd­ago­gisch begeg­nen kön­nen, son­dern es eine poli­ti­sche und gesell­schaft­li­che Ver­stän­di­gung braucht. Wie wür­den Sie die Situa­ti­on beur­tei­len?

Otto: Ich stim­me zu. Die Poli­tik muss die Rah­men­be­din­gun­gen schaf­fen und die ent­spre­chen­den Debat­ten vor­an­trei­ben – in den gro­ßen Lini­en, nicht in jedem Detail. Viel­fach wer­den erst Gerich­te aus­de­fi­nie­ren, wie wir mit wel­chen Berei­chen umge­hen kön­nen und dür­fen. Gesell­schaft­li­che Kräf­te müs­sen die Poli­tik hier antrei­ben, um den Ver­än­de­rungs­be­darf deut­lich zu machen. Allein päd­ago­gisch kann man poli­ti­sche Pro­ble­me nicht lösen. Hier geht es immer um die Ver­mitt­lung des Sta­tus quo. Alles ande­re würde die Medi­en­päd­ago­gik auch über­for­dern.

Till­mann: Was sind Ihrer Mei­nung nach die größ­ten Her­aus­for­de­run­gen, wenn es darum geht, Kin­der und Jugend­li­che zu einem kom­pe­ten­ten Umgang mit den digi­ta­len Medi­en zu befä­hi­gen?

Otto: Die größ­te Her­aus­for­de­rung ist die Kom­ple­xi­tät der tech­ni­schen Ent­wick­lun­gen auf der einen und die oft­mals unge­klär­te recht­li­che Situa­ti­on auf der ande­ren Seite. Zudem fehlt oft die Stra­te­gie, in wel­che Rich­tung bzw. mit wel­chem Schwer­punkt eine medi­en­päd­ago­gi­sche Erzie­hung erfolgt. Zudem sind viele Fel­der, Anwen­dun­gen und Ent­wick­lun­gen enorm viel­fäl­tig und fal­len in kein Schwarz-Weiß-Sche­ma. Die­ser Umstand macht es per se schon kom­pli­zier­ter. Das Inter­es­se bei Kin­dern und Jugend­li­chen ist gleich­zei­tig sehr hoch, da es nicht um eine zusätz­li­che Kom­pe­tenz geht, son­dern um die Art und Weise wie jede/​r Ein­zel­ne seinen/​ihren All­tag gestal­tet.

Till­mann: Was braucht es zukünf­tig an Wis­sen und Kön­nen oder auch ande­ren Vor­aus­set­zun­gen, damit Men­schen in der media­ti­sier­ten Gesell­schaft wei­ter­hin selbst­be­stimmt han­deln und ent­schei­den kön­nen?

Otto: Es braucht gute Geset­ze und klare Regeln. Es müs­sen Stell­ver­tre­ter der ein­zel­nen Nut­zer/-innen in die Lage ver­setzt wer­den, Dis­kri­mi­nie­run­gen und Fehl­ent­wick­lun­gen angrei­fen zu kön­nen. Die ein­zel­nen Nut­zer/-innen wer­den nie­mals fähig sein, alles zu über­bli­cken und alles ent­schei­den zu kön­nen. Dies gilt ins­be­son­de­re für Men­schen, die aus­bil­dungs­tech­nisch benach­tei­ligt oder ein­ge­schränkt sind. Die gesell­schaft­li­chen Ein­rich­tun­gen tra­gen hier eine hohe Ver­ant­wor­tung. Um diese wahr­neh­men zu kön­nen, müs­sen sie aber recht­lich dazu in die Lage ver­setzt wer­den.

Till­mann: Wel­che recht­li­chen Aspek­te um Big Data und Big Data Ana­ly­tics soll­te man Kin­dern und Jugend­li­chen ver­mit­teln?

Otto: Man soll­te Kin­dern und Jugend­li­chen ver­mit­teln, dass es wich­tig ist, ein per­sön­li­ches Warn­sys­tem zu ent­wi­ckeln, bei dem jedes Mal eine rote Lampe angeht, wenn Berei­che im Kon­text von Big Data berührt wer­den. Hier muss sich ein neues Bewusst­sein ent­wi­ckeln. Wenn Kin­der und Jugend­li­che wis­sen, dass es Kon­se­quen­zen hat, wenn sie irgend­wo Daten ein­ge­ben, um einen Dienst zu nut­zen, ist schon viel gewon­nen. Ziel muss die Aus­bil­dung eines poli­tisch-kri­ti­schen Bewusst­seins sein.

Till­mann: Immer mehr Men­schen beru­fen sich auf das Recht auf infor­ma­tio­nel­le Selbst­be­stim­mung. Was mei­nen Sie, ist ange­sichts der umfas­sen­den und per­ma­nen­ten Daten­samm­lung und -aus­wer­tung infor­ma­tio­nel­le Selbst­be­stim­mung über­haupt noch mög­lich? Wie kön­nen wir Ihrer Ansicht nach die Kon­trol­le über unse­re Daten behal­ten oder wie­der­erlan­gen?

Otto: Die infor­ma­tio­nel­le Selbst­be­stim­mung beinhal­tet eine Viel­zahl an rele­van­ten Wert­ent­schei­dun­gen. Nicht ohne Grund hat das Bun­des­ver­fas­sungs­ge­richt die­ses Prin­zip so hoch gehängt. Gleich­zei­tig sehen wir, dass es an allen Ecken und Enden ero­diert und mit der täg­li­chen Pra­xis oft­mals nur noch wenig zu tun hat. Um dies zu ändern, braucht es klare gesetz­lich kodi­fi­zier­te Regeln auf der einen und harte gesell­schaft­li­che Debat­ten zur Ent­wick­lung und Neu­de­fi­ni­ti­on bestehen­der Grund­sät­ze auf der ande­ren Seite. Wer denkt, dass seine infor­ma­tio­nel­le Selbst­be­stim­mung durch eine Hand­lung staat­li­cher oder pri­va­ter Stel­len gefähr­det oder tan­giert ist, der soll­te sich laut­stark zu Wort mel­den und eine Ant­wort ein­for­dern. Dies befeu­ert die nöti­gen gesell­schaft­li­chen Dis­kus­sio­nen zur infor­ma­tio­nel­len Selbst­be­stim­mung.

Till­mann: Die GMK als Dach­ver­band der Medi­en­päd­ago­gik in Deutsch­land möch­te eine gleich­be­rech­tig­te Teil­ha­be aller am gesell­schaft­li­chen Leben und an gesell­schaft­li­cher Kom­mu­ni­ka­ti­on errei­chen. Dabei fällt es zuneh­mend schwer, die Gren­zen von Betei­li­gung zu bestim­men. Wel­chen Rat wür­den Sie Kin­dern und Jugend­li­chen mit auf den Weg geben, die vor allem daran inter­es­siert sind, teil­zu­ha­ben und alle „ange­sag­ten“ Anwen­dun­gen zu nut­zen?

Otto: Ich würde ihnen sagen, dass sie keine Angst davor haben müs­sen, etwas zu nut­zen. Sie soll­ten sich aber des­sen bewusst sein, dass jedes Han­deln Fol­gen hat. Jede Daten­ein­ga­be führt zu einer Aus­wer­tung, jede Nut­zung zu einer Regis­trie­rung, jede Suche zu einem Pro­fil. In Kennt­nis die­ser Reich­wei­te soll­ten sie mit Verve die Anwen­dun­gen nut­zen, soll­ten ent­schei­den, was sie boy­kot­tie­ren und was nicht.

Till­mann: Wo sehen Sie Schnitt­men­gen zwi­schen Ihrem Arbeits­be­reich und der Medi­en­päd­ago­gik?

Otto: Es gibt viele Über­schnei­dun­gen. Ich bera­te auch medi­en­päd­ago­gi­sche Ein­rich­tun­gen, bin immer wie­der in Schu­len und Wei­ter­bil­dungs­ein­rich­tun­gen und dis­ku­tie­re mit den Nut­ze­rin­nen und Nut­zern. Selbst hoch­ran­gi­ge Mana­ger/-innen, Funk­ti­ons­trä­ger/-innen, Abge­ord­ne­te oder Minis­ter/-innen wis­sen im Regel­fall auch nicht mehr über die Medi­en­nut­zung und die damit ver­bun­de­nen Kon­flik­te als ein/​e 16-jäh­ri­ge/r Schü­ler/-in. Spricht man mit die­sen Leu­ten, so hat es immer auch einen medi­en­päd­ago­gi­schen Touch, da man sehr oft zunächst erklä­ren muss, wie etwas funk­tio­niert oder wo die Pro­ble­me und wo die Her­aus­for­de­run­gen lie­gen.

Till­mann: Was wür­den Sie sagen: Hinkt die Medi­en­päd­ago­gik der tech­ni­schen Ent­wick­lung hin­ter­her?

Otto: Ja, sie hinkt etwas hin­ter­her. Gleich­zei­tig muss sie natür­lich dafür sor­gen, dass sie die The­men und die gesell­schaft­li­chen Fra­gen in maxi­ma­ler Art und Weise the­ma­ti­siert und sich auch als Vor­rei­ter von Dis­kus­sio­nen und Debat­ten­kul­tur ver­steht. Geschieht dies nicht und ver­bleibt man in bei­na­he schon klas­si­schen Pro­blem- und Angst­sze­na­ri­en, dann hinkt die Medi­en­päd­ago­gik einen Schritt zu viel hin­ter­her.

Till­mann: Wie beur­tei­len Sie abschlie­ßend die zuneh­men­de Mensch-Maschi­ne-Kom­mu­ni­ka­ti­on? Was haben wir in den nächs­ten Jah­ren hier noch zu erwar­ten? Und wie kön­nen und soll­ten wir uns dar­auf sinn­voll vor­be­rei­ten?

Otto: Fort­schritt ist das, was Men­schen kön­nen. So war es bis­her. In Zukunft ist Fort­schritt auch das, was Maschi­nen mit Maschi­nen kön­nen. Das heißt, wir wer­den mit einer rasan­ten Ent­wick­lung maschi­nel­ler und künst­li­cher Intel­li­genz kon­fron­tiert, bei der wir am Rande ste­hen und schau­en müs­sen, dass wir z.B. die auto­ma­ti­sche Geschwin­dig­keits­re­du­zie­rung, die Kon­trol­le über die Ampeln und über den Stock, den wir kurz­fris­tig in die Spei­chen schie­ben kön­nen, behal­ten. Wir wer­den zum Zuschau­er, der um Gestal­tungs­ho­heit ringt. Es gibt Ent­wick­lun­gen, die wir noch nicht abschät­zen kön­nen. Hier muss in beson­de­rem Maße dar­auf geach­tet wer­den, wie man sol­che ket­ten­re­ak­ti­ons­ähn­li­chen Ent­wick­lun­gen steu­ern kann. Wir dür­fen keine Angst davor haben, wir müs­sen den Fort­schritt gestal­ten wol­len.

Till­mann: Herz­li­chen Dank für das Inter­view!