• Nutzen Sie diese Suche, um schnell und gezielt interessante Tipps, Hilfestellungen, Muster-Vorlagen, spannende Blogbeiträge zu verschiedenen Themen und aktuelle Veranstaltungen zu finden.

Anmelden
/Blog/Ethik der KI-Nutzung im Hochschulkontext

Ethik der KI-Nutzung im Hochschulkontext

KI-generiert. Gemeinfrei. Erstellt mit: ChatGPT. Orientiert an Pixelchen von Sarah Brockmann.

Start

Ob in der Lehre, der For­schung oder der Ver­wal­tung: KI-Sys­teme bie­ten Hoch­schu­len neue Chan­cen für Effi­zi­enz, Per­so­na­li­sie­rung und Inno­va­tion. Doch mit dem Fort­schritt kom­men auch drän­gende Fra­gen: Wie stel­len wir sicher, dass KI ver­ant­wor­tungs­voll ein­ge­setzt wird? Wel­che ethi­schen Gren­zen dür­fen nicht über­schrit­ten wer­den? Und wie kön­nen Hoch­schu­len einen reflek­tier­ten Umgang mit KI för­dern – bei Leh­ren­den wie bei Stu­die­ren­den? In die­sem Bei­trag wer­fen wir einen Blick auf zen­trale Her­aus­for­de­run­gen und zei­gen auf, wel­che ethi­schen Prin­zi­pien für den Ein­satz von KI an Hoch­schu­len ent­schei­dend sind.

Damit ver­bun­den sind auch tief­grei­fende ethi­sche Fra­ge­stel­lun­gen: Wie kön­nen Daten­schutz und Chan­cen­gleich­heit gewähr­leis­tet wer­den? Wel­che Ver­ant­wor­tung tra­gen Hoch­schu­len bei der Nut­zung und Ent­wick­lung von KI-Sys­te­men? Und wie kön­nen Stu­die­rende und Leh­rende für einen kri­ti­schen Umgang mit die­ser Tech­no­lo­gie sen­si­bi­li­siert wer­den? Die Aus­ein­an­der­set­zung mit ethi­schen Aspek­ten ist essen­zi­ell, um sicher­zu­stel­len, dass KI im Hoch­schul­kon­text ver­ant­wor­tungs­voll und im Ein­klang mit gesell­schaft­li­chen Wer­ten ein­ge­setzt wird.

Ethische Fallstricke bei der KI-Nutzung an Hochschulen

KI kann für Leh­rende und Stu­die­rende – gerade in der Form ein­fach ver­wend­ba­rer Tools, wie ChatGPT, LeChat oder Gemini – eine große Unter­stüt­zung sein. Doch dabei ist es wich­tig, acht­sam und reflek­tiert mit die­sen Sys­te­men umzu­ge­hen. Fol­gende Her­aus­for­de­run­gen soll­ten bei der Nut­zung von KI beson­ders beach­tet wer­den:

  • Die Ergeb­nisse, die KI-Sys­teme gene­rie­ren, basie­ren auf begrenz­ten Daten­sät­zen, die teil­weise auch nicht aktu­ell sein kön­nen. Wei­ter­hin kön­nen Daten­sätze Falsch­be­haup­tun­gen beinhal­ten oder teil­weise von gerin­ger fach­li­cher Qua­li­tät sein. Die zugrun­de­lie­gen­den Daten­sätze kön­nen zusätz­lich ver­steckte Wer­tun­gen, wie z.B. dis­kri­mi­nie­rende Vor­ur­teile ent­hal­ten. Für Leh­rende bedeu­tet das etwa, dass bei der Nut­zung von KI zur Erstel­lung von Prü­fungs­fra­gen oder zur Bewer­tung von Tex­ten eine kri­ti­sche Über­prü­fung not­wen­dig ist. Auch Stu­die­rende soll­ten KI-gene­rierte Inhalte – etwa bei der Lite­ra­tur­re­cher­che oder Tex­terstel­lung – nicht unge­prüft über­neh­men.
  • KI-Sys­teme kön­nen dar­über hin­aus „Hal­lu­zi­nie­ren“. Das heißt, dass KI-Sys­teme mit­un­ter schein­bare Zusam­men­hänge her­bei kon­stru­ie­ren und nicht-belegte oder nicht-beleg­bare Schluss­fol­ge­run­gen als belegt dar­stel­len. Gerade in wis­sen­schaft­li­chen Arbei­ten kann das zu erheb­li­chen Pro­ble­men füh­ren, wenn etwa Quel­len zitiert wer­den, die in Wirk­lich­keit gar nicht exis­tie­ren – eine Her­aus­for­de­rung, der sich Stu­die­rende, aber auch Betreu­ende und Prü­fende bewusst sein müs­sen. Diese Ver­zer­run­gen und Hal­lu­zi­na­tio­nen sind für Nut­zende meist nur schwer zu erken­nen, wenn KI-Anbie­ter die ver­wen­de­ten Trai­nings­da­ten­sätze und die Funk­ti­ons­weise der ein­ge­setz­ten Algo­rith­men des maschi­nel­len Ler­nens nicht trans­pa­rent machen.

Nut­zende soll­ten sich immer fra­gen, ob KI-Ergeb­nisse einer eige­nen Prü­fung stand­hal­ten und ob deren Wei­ter­ver­brei­tung die Chan­cen­gleich­heit und Würde aller Men­schen ach­tet!

  • Nut­zende bedie­nen KI-Tools nicht nur mit ihren Nut­zer­ein­ga­ben (soge­nann­ten „Prompts“). Diese Nut­zer­ein­ga­ben kön­nen auch als Trai­nings­da­ten für die KI wei­ter­ver­wen­det wer­den. Wenn Nut­zende ihre per­sön­li­chen Daten oder die per­sön­li­chen Daten ande­rer Per­so­nen ein­ge­ben, ver­stößt das gege­be­nen­falls nicht nur gegen den Daten­schutz. Gerade wenn KI-Sys­teme uner­kannt mit dis­kri­mi­nie­ren­den Vor­ur­tei­len gespeist sind, könn­ten diese auf per­sön­li­che Daten ange­wen­det und wei­ter­ver­brei­tet wer­den. Hoch­schu­len soll­ten nicht nur klare Richt­li­nien für den Umgang mit sen­si­blen Daten bei der KI-Nut­zung ent­wi­ckeln, son­dern auch Ver­fah­ren eta­blie­ren, mit denen Leh­rende und Stu­die­rende die Nut­zung eige­ner Mate­ria­lien – etwa Prompts, Vor­la­gen oder Auf­ga­ben­for­mate – durch andere for­mal frei­ge­ben kön­nen. Dafür kön­nen Vor­la­gen zur Nut­zungs­über­tra­gung bereit­ge­stellt wer­den, um z. B. Drit­ten zu erlau­ben, Inhalte in KI-Sys­te­men wei­ter­zu­ver­wen­den.


Nut­zende soll­ten sich immer fra­gen, ob eine Ein­gabe per­sön­li­cher Daten ihnen oder ande­ren scha­den könnte, ob die Daten nicht doch anony­mi­siert wer­den kön­nen oder ganz dar­auf ver­zich­tet wer­den kann!

  • Bei der Nut­zung von KI-Sys­te­men kann es pas­sie­ren, dass Nut­zende der KI Ent­schei­dun­gen über­tra­gen. Gerade wenn sol­che Ent­schei­dun­gen andere Per­so­nen betref­fen oder betref­fen könn­ten, besteht das Risiko, dass mit dem Ein­satz von KI in Ent­schei­dungs­pro­zes­sen, etwa bei Aus­wahl­ver­fah­ren, jene Per­so­nen objek­ti­fi­ziert wer­den. Das heißt, dass über ihren Kopf hin­weg ent­schie­den wird. Ent­schei­dun­gen soll­ten nicht gefällt wer­den, ohne das (mög­li­che) Betrof­fene in Ent­schei­dungs­fin­dung und Begrün­dun­gen mit ein­be­zo­gen wer­den, da sonst ihre Men­schen­würde mög­li­cher­weise ver­letzt wird.
  • Dar­über hin­aus ist beim Ein­satz von KI-Sys­te­men in Ent­schei­dun­gen nicht immer geklärt, wer die Ver­ant­wor­tung für jene Ent­schei­dun­gen trägt, sodass sich wei­tere Fra­gen der Haft­bar­keit erge­ben kön­nen. Hoch­schu­len sind hier beson­ders gefor­dert, klare Ver­ant­wort­lich­kei­ten zu defi­nie­ren – sowohl im Ver­wal­tungs- als auch im Lehr­be­trieb.


Nut­zende soll­ten sich fra­gen, ob sie KI-Sys­te­men abschlie­ßende Ent­schei­dun­gen über­las­sen soll­ten. Abschlie­ßende Ent­schei­dun­gen selbst zu tref­fen bedeu­tet Ver­ant­wor­tung für das eigene Han­deln, wel­ches andere Men­schen betref­fen kann, zu über­neh­men und andere in Ihrer Würde zu ach­ten!

5 Prinzipien im Umgang mit KI an Hochschulen

Die­sen und wei­te­ren Her­aus­for­de­run­gen im Umgang mit KI kön­nen Hoch­schu­len begeg­nen, indem Sie bin­dende Regeln im Umgang mit KI in der Hoch­schul­lehre ent­wi­ckeln und fest­le­gen. Aber auch Leh­rende und Stu­die­rende soll­ten eine eigene ethi­sche Aus­ein­an­der­set­zung mit KI anstre­ben. In der Ethik wer­den dazu Begrün­dun­gen für mora­lisch gutes Han­deln auf die Frage ‚Was soll ich tun?‘ ent­wi­ckelt. Dazu wer­den die Absich­ten für Hand­lun­gen, die Hand­lun­gen selbst, und ihre mög­li­chen Fol­gen, wie Nut­zen und Schä­den für einen selbst und andere, unter­sucht und abge­wo­gen.

Bei­spiel­haft sol­len hier fünf über­sicht­li­che Prin­zi­pien nach Flo­ridi, et al., 2019 für den Umgang mit KI vor­ge­stellt wer­den:

  1. Wohl­tä­tig­keit (bene­ficence): Der Ein­satz von KI sollte aus­schließ­lich in einer Weise erfol­gen, die mensch­li­ches Wohl för­dert, mensch­li­che Würde bewahrt und nach­hal­tig ist.
  2. Nicht­schä­di­gung (non-mal­e­ficence): Gerade, wenn Risi­ken nicht voll­stän­dig ver­mie­den wer­den kön­nen oder Unge­wiss­heit über das Ein­tre­ten mög­li­cher Risi­ken besteht, sollte auch ein Prin­zip der Scha­dens­ver­mei­dung und Scha­dens­be­gren­zung ver­folgt wer­den.
  3. Auto­no­mie (auto­nomy): Das Prin­zip der Auto­no­mie ruft Nut­zende auf die Über­tra­gung von Ent­schei­dungs- und Hand­lungs­ge­walt an KI und die Bewah­rung von eige­ner und frem­der Hand­lungs- und Ent­schei­dungs­frei­heit gegen­ein­an­der abzu­wä­gen. Dabei sind alle mög­li­chen Betei­lig­ten in diese Abwä­gung mit­ein­zu­be­zie­hen und der Wah­rung mensch­li­cher Hand­lungs- und Ent­schei­dungs­frei­heit und ihrer Würde beson­dere Prio­ri­tät ein­zu­räu­men.
  4. Gerech­tig­keit (jus­tice): Die Nut­zung von KI sollte der För­de­rung des Wohl­erge­hens jedes Men­schen, der Erhal­tung von Soli­da­ri­tät, und der Ver­mei­dung von Unge­rech­tig­kei­ten die­nen. Im Umgang mit KI sollte das mög­li­che Auf­tre­ten von Dis­kri­mi­nie­rung (z.B. in den bereit­ge­stell­ten Schluss­fol­ge­run­gen oder in den zugrun­de­lie­gen­den Daten­sät­zen, die eine KI ver­wen­det) berück­sich­tigt, aus­ge­gli­chen oder zumin­dest abge­dämpft wer­den.
  5. Erklär­bar­keit (expli­ca­bi­lity): Die Nut­zung von KI ver­pflich­tet — so weit wie mög­lich — die eige­nen Nut­zungs­ab­sich­ten ver­ständ­lich zu machen und sich der eige­nen Rechen­schafts­pflicht über die ent­ste­hen­den Nut­zungs­fol­gen anzu­neh­men. Dar­über hin­aus sind diese Aspekte auch trans­pa­rent zu machen, sodass Nut­zen, Risi­ken und Schä­den von allen Betei­lig­ten und gesamt­ge­sell­schaft­lich dis­ku­tiert wer­den kön­nen.


Und nun? Was soll im kon­kre­ten Fall getan wer­den?

Ethik kann (und sollte auch) keine star­ren Vor­ga­ben oder zu befol­gende Hand­lungs­an­wei­sun­gen geben. Statt­des­sen lebt ange­wandte Ethik von der eige­nen, ernst­haf­ten Aus­ein­an­der­set­zung mit neuen und bestehen­den Her­aus­for­de­run­gen und der offe­nen und trans­pa­ren­ten Aus­ein­an­der­set­zung mit unse­ren Absich­ten, unse­ren Hand­lun­gen, die dar­aus ent­sprin­gen, und den Fol­gen, die unser Han­deln für uns und andere hat. Wie eine tie­fere ethi­sche Aus­ein­an­der­set­zung aus­se­hen kann, wel­che Werk­zeuge der ange­wand­ten Ethik dazu zur Ver­fü­gung ste­hen und Hin­weise auf wei­ter­füh­rende Lite­ra­tur fin­den sich in die­sem Hand­out: PDF-Datei (276 kB), Docx-Datei (75 kB)

Literaturverzeichnis

Flo­ridi, Luciano and Cowls, Josh. 2019. A Uni­fied Fram­work of Five Prin­ci­ples for AI in Society. Har­ward Data Sci­ence Review. 2019, Vol. 1, 1, pp. 1–14. https://doi.org/10.1162/99608f92.8cd550d1

Offene Bildungsmaterialien findenOER finden