Ethik auf den ers­ten Blick: Das KI-Ethik-Label

Ein KI-Ethik-Label als Entscheidungshilfe für ethische KI-Systeme

Seit Jahren hilft das Energieeffizienzlabel Verbraucher*innen beim Kauf elektronischer Geräte. Das KI-Ethik-Label erfüllt nun diese Aufgabe für ethische KI-Systeme. 

Dass die soge­nann­te KI und algo­rith­mi­sche Sys­te­me „ethisch“ sein sol­len, dar­über sind sich alle einig. Wer­te­ka­ta­lo­ge für eine ethi­sche Gestal­tung exis­tie­ren bereits – ein Bei­spiel dafür sind die von der Ber­tels­mann Stif­tung in Koope­ra­ti­on mit dem iRights.Lab ent­wi­ckel­ten Algo.Rules.

Wie aber über­setzt man abs­trak­te Prin­zi­pi­en in die Pra­xis? Vor allem aber: Wie schafft man den Spa­gat zwi­schen der hohen Kom­ple­xi­tät des The­mas und Anwen­dungs­freund­lich­keit für tech­nisch weni­ger ver­sier­te Verbraucher*innen?

Die AI Ethics Impact Group, an der das iRights.Lab mit­wirkt, hat dazu nun ein KI-Ethik-Label ent­wor­fen. Es zeigt in einer kon­kre­ten, ein­fa­chen Dar­stel­lung, ähn­lich dem Ener­gie­ef­fi­zi­enz­la­bel, die ethi­sche Bewer­tung eines KI-Sys­tems. Es schafft Klar­heit auf den ers­ten Blick und redu­ziert die Kom­ple­xi­tät, ohne sie zu ver­lie­ren.

Für die Bewer­tung wird „Ethik“ mit sechs Wer­ten erfasst: Trans­pa­renz, Ver­ant­wort­lich­keit, Pri­vat­sphä­re, Gerech­tig­keit, Ver­läss­lich­keit und Nach­hal­tig­keit.

Mit­hil­fe des soge­nann­ten WKIO-Modells (Werte, Kri­te­ri­en, Indi­ka­to­ren und Obser­v­a­blen) wer­den diese abs­trak­ten Werte her­un­ter­ge­bro­chen und mess­bar gemacht. Für jeden Wert wird auf meh­re­ren Stu­fen gemes­sen, wie „trans­pa­rent“ oder „ver­läss­lich“ ein KI-Sys­tem ist.

Wie diese Mes­sung funk­tio­niert, erklärt Micha­el Punt­schuh, Poli­cy Advi­sor beim iRights.Lab:

Das Label bie­tet KI-ent­wi­ckeln­den Orga­ni­sa­tio­nen die Mög­lich­keit, die Qua­li­tät ihrer Pro­duk­te zu ermit­teln und nach außen zu kom­mu­ni­zie­ren.

Es redu­ziert zudem die Kom­ple­xi­tät für Verbraucher*innen, Indus­trie und Regu­lie­rungs­be­hör­den, da es eine bes­se­re Ver­gleich­bar­keit der auf dem Markt zur Ver­fü­gung ste­hen­den Pro­duk­te bie­tet. Außer­dem lie­fert es einen schnel­len Über­blick über die Frage, ob ein algo­rith­mi­sches Sys­tem die in einem kon­kre­ten Fall nöti­gen ethi­schen Anfor­de­run­gen erfüllt.

Wel­che diese nöti­gen Anfor­de­run­gen sind, hängt vom Anwen­dungs­kon­text ab. Um die­sen zu ermit­teln und zu bewer­ten, stellt das Arbeits­pa­pier die „Risi­ko-Matrix“ vor. Sie teilt Anwen­dungs­kon­tex­te von KI-Sys­te­men anhand von zwei Dimen­sio­nen ein: Inten­si­tät des poten­zi­el­len Scha­dens und Abhän­gig­keit der betrof­fe­nen Person(en) von der jewei­li­gen Ent­schei­dung. Sie legt je nach Risi­ko fünf Grup­pen fest. Sys­te­me mit einem höhe­ren Risi­ko sol­len dann auch höhe­re Anfor­de­run­gen erfül­len.

Beide Ele­men­te – das WKIO-Modell und die Risi­ko­ma­trix – wer­den in dem KI-Ethik-Label ver­eint.

Das Label wird im Rah­men des Arbeits­pa­piers „From Princi­ples to Prac­tice – An inter­di­sci­pli­na­ry frame­work to ope­ra­tio­na­li­se AI ethics“ vor­ge­stellt, das hier in eng­li­scher Spra­che her­un­ter­ge­la­den wer­den kann. Es setzt am Vor­schlag der EU-Kom­mis­si­on in ihrem Weiß­buch zu Künst­li­cher Intel­li­genz an, einen sol­chen Regu­lie­rungs­an­satz zu ver­wen­den.

Über die AI Ethics Impact Group (AIEIG):
Die AIEIG ist eine inter­dis­zi­pli­nä­re Grup­pe, die vom VDE Ver­band der Elek­tro­tech­nik Elek­tro­nik Infor­ma­ti­ons­tech­nik e.V. und der Ber­tels­mann Stif­tung initi­iert wurde und die den nun vor­ge­stell­ten Ansatz ent­wi­ckelt hat. An ihr wir­ken fol­gen­de wei­te­re Orga­ni­sa­tio­nen mit:

  • Think Tank iRights.Lab
  • TU Kai­sers­lau­tern
  • ITAS / KIT
  • TU Darm­stadt – Phi­lo­so­phie
  • IZEW Tübin­gen
  • Hoch­leis­tungs­re­chen­zen­trum Stutt­gart

Das Lab

Schüt­zen­stra­ße 8
D‑10117 Ber­lin

kontakt@irights-lab.de
Tele­fon: +49 30 40 36 77 230
Fax: +49 30 40 36 77 260