Dystopische Disruption?
Education Support Center lädt zu Workshop »ChatGPT in der Hochschullehre«
Der erneut entbrannte Wettstreit der Tech-Giganten um das erfolgreichste KI-Sprachmodell wird derzeit vom US-amerikanischen Unternehmen OpenAI mit dem Chatbot ChatGPT angeführt; es dominiert zumindest die Schlagzeilen. KI-Sprachmodelle sind Computerprogramme, die in der Lage sind, natürliche Sprache in geschriebener oder gesprochener Form automatisiert zu verarbeiten. Aufsätze verfassen und Prüfungen absolvieren, scheinen für sie kein Problem darzustellen – also was genau bedeuten die KI-Sprachmodelle für die Hochschullehre und welche Herausforderungen und Risiken erwarten sie? Damit beschäftige sich die Veranstaltung des Education Competence Network (EdCoN) an der DHBW Villingen-Schwenningen.
Dass es sich mit dem Go-live von ChatGPT 2023 um eine wirklich disruptive Technologie handle, bezweifelt unter anderem Alexander Klein vom Academic Staff Development (ASD) der Universität Konstanz, verantwortlich für den Bereich »Instructional Design für digital unterstützte Lernszenarien« sowie Berater für Konzeption und Umsetzung von E-Learning-Formaten und virtuellen Lernräumen. Die Auseinandersetzung mit Sprachmodellen und der Feststellung der Urheberschaft eines Textes sei nicht neu, berichtet er in seinem Vortrag zu dem das EdCoN-Team Gäste, Professor*innen und Referent*innen eingeladen hatte. „Sprachmodelle folgen stochastischen Regeln und sind damit in der Lage – besser oder weniger gut – Worte stimmig aneinanderzureihen.“
Mensch oder Maschine?
Bereits in der zweiten Hälfte des 20. Jahrhunderts analysierten Forschende, wie zwischen erzeugten Inhalten von Mensch und Maschine unterschieden werden kann. Mit einem erfolgreich bestandenen Turing Test sollte Maschinen unterstellt werden, ein ähnlich gutes Denk- bzw. Intelligenzvermögen zu haben, wie Menschen. Dazu führt eine Versuchsperson mit zwei ihm oder ihr nicht bekannten und auch nicht seh- oder hörbaren Gesprächspartner*innen eine Unterhaltung am Bildschirm via Texteingabe. Einer der Gesprächspartner*innen ist eine Maschine, der oder die andere ein Mensch. Kann die Versuchsperson nach längerer Unterhaltung nicht unterscheiden, bei welchem Gesprächspartner es sich um den Menschen, respektive die Maschine handelt, so gilt der Test als bestanden.
Mit ELIZA, einem Sprachmodell von Joseph Weizenbaum entwickelt in den 1960er Jahre, wurde ein Programm vorgestellt, das verschiedene Gesprächspartner simulieren kann, darunter einen Psychotherapeuten. Hinterlegt ist ein strukturiertes Wörterbuch, mit dem die Worte des eingegebenen Satzes abgeglichen werden und daraufhin mit Synonymen oder Oberbegriffen geantwortet wird. Zugleich sind Phrasen und häufige Antworten hinterlegt, die abgerufen werden können und zur Fortsetzung der Unterhaltung auffordern. Weitere Programme folgten – wie auch die Auseinandersetzung mit der Bestimmung der Urheberschaft. Das Chinesische Zimmer, Transformer, Duplex und weitere, können angeführt werden.
Bedrohungspotential der KI-Sprachmodelle und ihre Rolle in der Hochschullandschaft
Düstere Aussichten, in denen Maschinen autonom die Ordnung der Welt aus den Angeln heben, bestärkt Klein ebenfalls nicht: „Wir können zwischen schwacher und starker KI unterscheiden. Schwache KI wird anwendungsspezifisch genutzt“, so Klein. Auch Sprachmodelle gehören hierzu: Sie sind mit Daten gespeist – im Falle von OpenAI könne man nicht genau feststellen, um welche Daten es sich letztlich handle, primär wohl aber um diejenigen, die urheberrechtlich nicht geschützt sind und übers World Wide Web frei zugänglich seien. Lizensierte und geschützte Daten bzw. Informationen, darunter auch wissenschaftliche Literatur, werde vermutlich aktuell nicht berücksichtigt.
Um starke KI, die autonom über die zugänglichen Datenmengen hinaus auftretende Probleme lösen oder neues Wissen bzw. Erkenntnisse hervorbringen kann und menschlichen Fähigkeiten übertrifft, handle es sich bei den aktuellen Sprachmodellen nicht.
Bei der Weiterentwicklung und der Beurteilung kommender neuer Angebote, seien Aspekte der ökonomischen Interessenslage der Hersteller, die Transparenz der verwendeten Daten, die Abhängigkeit eines Systems zu dessen Erschaffer als auch Bias – etwa kulturelle Verzerrungen aufgrund der Datenauswahl – zu beachten.
In der Hochschullandschaft werden, führt Klein weiter aus, KI basierte Programme im Bereich der Research-Assistant-Tools eingesetzt. Zu nennen sei u.a. Explainpaper, Reasearchrabbit oder elicit. Weiter werde für den schulischen und hochschuldidaktischen Einsatz an Programmen gearbeitet, die bei der Lehre und dem Lernen unterstützen sollen, so etwa der Pedagogical Conversational Tutor (Universität Hohenheim).
Urheberrechte und prüfungsrechtliche Aspekte
Bernd Juraschko, Justiziar und Leiter der Hochschulbibliothek, Kompetenzzentrum Urheberrecht an der DHBW Lörrach, reflektierte rechtliche Aspekte, die im Kontext KI und Hochschulen auftreten können. Juraschko skizzierte Gesetzesvorhaben zur Regulierung des Einsatzes von KI und hob hervor, dass sich der Gesetzgeber gemeinsam auf europäischer Ebene mit der Ausgestaltung der Vorhaben befasse.
Nach dem Urheberrecht, hier § 2 Abs. 2 UrhG, seien „persönliche, geistige Schöpfungen“ unter besonderen Schutz gestellt. Mittels KI erzeugte Texte oder Bilder fallen somit nicht darunter. Gleichwohl betreffe es allerdings zum Beispiel Seminar- oder Abschlussarbeiten – deren Text, Bilder oder Grafiken: „Die Quellen sind bei wissenschaftlichen Arbeiten stets anzugeben. Das bezieht sich auf fremde Texte, Ideen und Argumentationslinien, aber auch auf generierte Bilder oder Grafiken“, so Juraschko. Zum Veröffentlichungsrecht, hier § 12 UrhG, also dem Recht des Urhebers wann, wie und wo etwas veröffentlicht wird, müsse man bezugnehmend auf KI im Hinterkopf behalten, dass Daten häufig nicht urheberrechtsschutzfähig sind. Schnittmengen zu den beiden letztgenannten Aspekten treten u.a. beim Patentrecht auf. Inwieweit der Einsatz von KI die Schöpfungshöhe von Patenten beeinflusst, werde noch zu klären sein. Nach § 4 PatG, Art. 56 EPÜ weise eine Erfindung für den Patentschutz hinreichende Erfindungshöhe auf, wenn sie sich für den „Fachmann nicht in naheliegender Weise aus dem Stand der Technik ergibt“.
Konkret müsse man sich, so Juraschko, derzeit mit den Themen Prüfungsordnung samt abzugebender Versicherung, der Reflexion der Bewertung von Leistungen und dem Einsatz von KI zur Erstellung von Lehrinhalten nebst begleitender Lernhilfen, aber auch mit dem Einsatz von KI zur Überprüfung eingereichter Arbeiten befassen. „Gerade bei der Wahl der Prüfungsform,“ so Juraschko, „sind Möglichkeiten gegeben, mit denen Professor*innen erfassen können, inwiefern eine eigene Leistung erbracht wurde.“
KI-Kompetenzen fördern
Den dritten Impuls während der Veranstaltung gab Emily Rauch von der DHBW Karlsruhe und akademische Mitarbeiterin am KI-Campus, der Lernplattform für Künstliche Intelligenz. „Die Vision des KI-Campus ist eine KI-kompetente Gesellschaft. Im ersten Schritt möchten wir möglichst während der Projektlaufzeit 100.000 Personen zu KI weiterbilden“, so Rauch. Dazu bietet der KI-Campus ein breites Portfolio an, das sich von Micro-Formaten mit Videos, Podcasts, Quizzes und Games über Kurse, etwa Online-Kurse und Blended-Learning-Formate erstreckt und auch ganze Module & Micro Degrees, darunter Micro-Credentials, umfasst.
Angesprochen dürfen sich, wie Rauch mitteilt, alle Personengruppen fühlen: Studierende, Berufstätige und Interessierte können das Angebot nach dem Verständnis des lebenslangen Lernens nutzen. Aktuelle Schwerpunkte seien derzeit – auch mit Blick auf die Kooperationspartner – auf Data Literacy, Machine Learning, Medizin, Schule und Entrepreneurship gelegt worden. Das Team um Professor Dr. Ulf-Daniel Ehlers von der DHBW Karlsruhe beschäftige sich in einer aktuellen Studie mit KI-Future Skills. Rauch berichtet, dass dazu die grundlegende Literatur analysiert, qualitative Experteninterviews geführt und eine quantitative Online-Befragung durchgeführt werde. Ziel sei es, wichtige Kompetenzen für die Gesellschaft von morgen ausfindig zu machen und letztlich diese auch zu vermitteln. Ein KI- Future Skill-Kompass soll bei der eigenen Orientierung und Selbstreflexion vorhandener Skills in diesem Feld Orientierung bieten.
Weitere Informationen unter: https://next-education.org und https://ki-campus.org. Die Projektkoordination des KI-Campus hat der Stifterverband inne, finanziert wird das Angebot vom BMBF und Dieter Schwarz-Stiftung. Die Laufzeit ist von Oktober 2019 bis Dezember 2024.
Der Veranstaltungsnachmittag an der DHBW Villingen-Schwenningen wurde organisiert von Chrysanthi Melanou, wissenschaftliche Mitarbeiterin im EdCoN-Projekt und Technische Redakteurin im ESC, sowie Professor Dr. Marin Kimmig, Leiter des Studiengangs »Wirtschaftsinformatik« und des ESC.

Hochschulkommunikation DHBW Villingen-Schwenningen
- Hochschulkommunikation, Presse- und Öffentlichkeitsarbeit
- hochschulkommunikation.vs@dhbw.de
-
Telefon +49 7720 3906 - 511