Damit verbunden sind auch tiefgreifende ethische Fragestellungen: Wie können Datenschutz und Chancengleichheit gewährleistet werden? Welche Verantwortung tragen Hochschulen bei der Nutzung und Entwicklung von KI-Systemen? Und wie können Studierende und Lehrende für einen kritischen Umgang mit dieser Technologie sensibilisiert werden? Die Auseinandersetzung mit ethischen Aspekten ist essenziell, um sicherzustellen, dass KI im Hochschulkontext verantwortungsvoll und im Einklang mit gesellschaftlichen Werten eingesetzt wird.
Ethische Fallstricke bei der KI-Nutzung an Hochschulen
KI kann für Lehrende und Studierende – gerade in der Form einfach verwendbarer Tools, wie ChatGPT, LeChat oder Gemini – eine große Unterstützung sein. Doch dabei ist es wichtig, achtsam und reflektiert mit diesen Systemen umzugehen. Folgende Herausforderungen sollten bei der Nutzung von KI besonders beachtet werden:
- Die Ergebnisse, die KI-Systeme generieren, basieren auf begrenzten Datensätzen, die teilweise auch nicht aktuell sein können. Weiterhin können Datensätze Falschbehauptungen beinhalten oder teilweise von geringer fachlicher Qualität sein. Die zugrundeliegenden Datensätze können zusätzlich versteckte Wertungen, wie z.B. diskriminierende Vorurteile enthalten. Für Lehrende bedeutet das etwa, dass bei der Nutzung von KI zur Erstellung von Prüfungsfragen oder zur Bewertung von Texten eine kritische Überprüfung notwendig ist. Auch Studierende sollten KI-generierte Inhalte – etwa bei der Literaturrecherche oder Texterstellung – nicht ungeprüft übernehmen.
- KI-Systeme können darüber hinaus „Halluzinieren“. Das heißt, dass KI-Systeme mitunter scheinbare Zusammenhänge herbei konstruieren und nicht-belegte oder nicht-belegbare Schlussfolgerungen als belegt darstellen. Gerade in wissenschaftlichen Arbeiten kann das zu erheblichen Problemen führen, wenn etwa Quellen zitiert werden, die in Wirklichkeit gar nicht existieren – eine Herausforderung, der sich Studierende, aber auch Betreuende und Prüfende bewusst sein müssen. Diese Verzerrungen und Halluzinationen sind für Nutzende meist nur schwer zu erkennen, wenn KI-Anbieter die verwendeten Trainingsdatensätze und die Funktionsweise der eingesetzten Algorithmen des maschinellen Lernens nicht transparent machen.
Nutzende sollten sich immer fragen, ob KI-Ergebnisse einer eigenen Prüfung standhalten und ob deren Weiterverbreitung die Chancengleichheit und Würde aller Menschen achtet!
- Nutzende bedienen KI-Tools nicht nur mit ihren Nutzereingaben (sogenannten „Prompts“). Diese Nutzereingaben können auch als Trainingsdaten für die KI weiterverwendet werden. Wenn Nutzende ihre persönlichen Daten oder die persönlichen Daten anderer Personen eingeben, verstößt das gegebenenfalls nicht nur gegen den Datenschutz. Gerade wenn KI-Systeme unerkannt mit diskriminierenden Vorurteilen gespeist sind, könnten diese auf persönliche Daten angewendet und weiterverbreitet werden. Hochschulen sollten nicht nur klare Richtlinien für den Umgang mit sensiblen Daten bei der KI-Nutzung entwickeln, sondern auch Verfahren etablieren, mit denen Lehrende und Studierende die Nutzung eigener Materialien – etwa Prompts, Vorlagen oder Aufgabenformate – durch andere formal freigeben können. Dafür können Vorlagen zur Nutzungsübertragung bereitgestellt werden, um z. B. Dritten zu erlauben, Inhalte in KI-Systemen weiterzuverwenden.
Nutzende sollten sich immer fragen, ob eine Eingabe persönlicher Daten ihnen oder anderen schaden könnte, ob die Daten nicht doch anonymisiert werden können oder ganz darauf verzichtet werden kann!
- Bei der Nutzung von KI-Systemen kann es passieren, dass Nutzende der KI Entscheidungen übertragen. Gerade wenn solche Entscheidungen andere Personen betreffen oder betreffen könnten, besteht das Risiko, dass mit dem Einsatz von KI in Entscheidungsprozessen, etwa bei Auswahlverfahren, jene Personen objektifiziert werden. Das heißt, dass über ihren Kopf hinweg entschieden wird. Entscheidungen sollten nicht gefällt werden, ohne das (mögliche) Betroffene in Entscheidungsfindung und Begründungen mit einbezogen werden, da sonst ihre Menschenwürde möglicherweise verletzt wird.
- Darüber hinaus ist beim Einsatz von KI-Systemen in Entscheidungen nicht immer geklärt, wer die Verantwortung für jene Entscheidungen trägt, sodass sich weitere Fragen der Haftbarkeit ergeben können. Hochschulen sind hier besonders gefordert, klare Verantwortlichkeiten zu definieren – sowohl im Verwaltungs- als auch im Lehrbetrieb.
Nutzende sollten sich fragen, ob sie KI-Systemen abschließende Entscheidungen überlassen sollten. Abschließende Entscheidungen selbst zu treffen bedeutet Verantwortung für das eigene Handeln, welches andere Menschen betreffen kann, zu übernehmen und andere in Ihrer Würde zu achten!
5 Prinzipien im Umgang mit KI an Hochschulen
Diesen und weiteren Herausforderungen im Umgang mit KI können Hochschulen begegnen, indem Sie bindende Regeln im Umgang mit KI in der Hochschullehre entwickeln und festlegen. Aber auch Lehrende und Studierende sollten eine eigene ethische Auseinandersetzung mit KI anstreben. In der Ethik werden dazu Begründungen für moralisch gutes Handeln auf die Frage ‚Was soll ich tun?‘ entwickelt. Dazu werden die Absichten für Handlungen, die Handlungen selbst, und ihre möglichen Folgen, wie Nutzen und Schäden für einen selbst und andere, untersucht und abgewogen.
Beispielhaft sollen hier fünf übersichtliche Prinzipien nach Floridi, et al., 2019 für den Umgang mit KI vorgestellt werden:
- Wohltätigkeit (beneficence): Der Einsatz von KI sollte ausschließlich in einer Weise erfolgen, die menschliches Wohl fördert, menschliche Würde bewahrt und nachhaltig ist.
- Nichtschädigung (non-maleficence): Gerade, wenn Risiken nicht vollständig vermieden werden können oder Ungewissheit über das Eintreten möglicher Risiken besteht, sollte auch ein Prinzip der Schadensvermeidung und Schadensbegrenzung verfolgt werden.
- Autonomie (autonomy): Das Prinzip der Autonomie ruft Nutzende auf die Übertragung von Entscheidungs- und Handlungsgewalt an KI und die Bewahrung von eigener und fremder Handlungs- und Entscheidungsfreiheit gegeneinander abzuwägen. Dabei sind alle möglichen Beteiligten in diese Abwägung miteinzubeziehen und der Wahrung menschlicher Handlungs- und Entscheidungsfreiheit und ihrer Würde besondere Priorität einzuräumen.
- Gerechtigkeit (justice): Die Nutzung von KI sollte der Förderung des Wohlergehens jedes Menschen, der Erhaltung von Solidarität, und der Vermeidung von Ungerechtigkeiten dienen. Im Umgang mit KI sollte das mögliche Auftreten von Diskriminierung (z.B. in den bereitgestellten Schlussfolgerungen oder in den zugrundeliegenden Datensätzen, die eine KI verwendet) berücksichtigt, ausgeglichen oder zumindest abgedämpft werden.
- Erklärbarkeit (explicability): Die Nutzung von KI verpflichtet — so weit wie möglich — die eigenen Nutzungsabsichten verständlich zu machen und sich der eigenen Rechenschaftspflicht über die entstehenden Nutzungsfolgen anzunehmen. Darüber hinaus sind diese Aspekte auch transparent zu machen, sodass Nutzen, Risiken und Schäden von allen Beteiligten und gesamtgesellschaftlich diskutiert werden können.
Und nun? Was soll im konkreten Fall getan werden?
Ethik kann (und sollte auch) keine starren Vorgaben oder zu befolgende Handlungsanweisungen geben. Stattdessen lebt angewandte Ethik von der eigenen, ernsthaften Auseinandersetzung mit neuen und bestehenden Herausforderungen und der offenen und transparenten Auseinandersetzung mit unseren Absichten, unseren Handlungen, die daraus entspringen, und den Folgen, die unser Handeln für uns und andere hat. Wie eine tiefere ethische Auseinandersetzung aussehen kann, welche Werkzeuge der angewandten Ethik dazu zur Verfügung stehen und Hinweise auf weiterführende Literatur finden sich in diesem Handout: PDF-Datei (276 kB), Docx-Datei (75 kB)
Literaturverzeichnis
Floridi, Luciano and Cowls, Josh. 2019. A Unified Framwork of Five Principles for AI in Society. Harward Data Science Review. 2019, Vol. 1, 1, pp. 1–14. https://doi.org/10.1162/99608f92.8cd550d1