INNOVATIV
Band 79: Janet Wagner Band 78: Philip Franklin Orr Band 77: Carina Dony Band 76:
Linda Freyberg
Sabine Wolf (Hrsg.)
Band 75: Denise Rudolph Band 74: Sophia Paplowski Band 73: Carmen Krause Band 72:
Katrin Toetzke
Dirk Wissen
Band 71: Rahel Zoller Band 70: Sabrina Lorenz Band 69: Jennifer Hale Band 68:
Linda Schünhoff
Benjamin Flämig
Band 67:
Wilfried Sühl-Strohmenger
Jan-Pieter Barbian
Band 66: Tina Schurig Band 65: Christine Niehoff Band 64: Eva May Band 63: Eva Bunge Band 62: Nathalie Hild Band 61: Martina Haller Band 60: Leonie Flachsmann Band 59: Susanne Göttker Band 58: Georg Ruppelt Band 57: Karin Holste-Flinspach Band 56: Rafael Ball Band 55: Bettina Schröder Band 54: Florian Hagen Band 53: Anthea Zöller Band 52: Ursula Georgy Band 51: Ursula Jaksch Band 50: Hermann Rösch (Hrsg) Band 49: Lisa Maria Geisler Band 48: Raphaela Schneider Band 47: Eike Kleiner
Bestellen Sie jetzt online!
15. Juni 2025
  WEITERE NEWS
Aktuelles aus
L
ibrary
Essentials

In der Ausgabe 3/2025 (Mai 2025) lesen Sie u.a.:

  • Die unheimliche Begegnung der
    KI-Art: Wie Menschen im Alltag mit Sprachmodellen umgehen
  • KI-Kompetenz als Kernaufgabe wissenschaftlicher
    Bibliotheken
  • Data Literacy: Datenkompetenz –
    von der Hochschule in den Job
  • Maschinelles Lernen im Auskunfts-
    und Informationsdienst:
    Analyse virtueller Chat-Anfragen
  • FAIRer Datenaustausch in der Wissenschaft: Warum der Weg noch steinig ist
  • Wissenschaftliches Publizieren im Umbruch: Teilen von Wissen und Prestige
  • Wie wirkt sich Open Science
    auf die Wirtschaft aus?
  • Wie vertrauenswürdig ist das Internet
    für Jugendliche im Zeitalter der KI?
  • Gefälschte Publikationen und
    institutionelle Retraction-Welle
  • Die Magie der Bücherschränke:
    eine Oase in der Bücherflut
  • Metrik-Sonifikation: Transformation
    von bibliometrischen Daten
    zur Vermittlung in Klangform
  • Gefährdung der Bibliotheksfinanzierung: die geplante Auflösung des IMLS und ihre Folgen
  • Nachhaltige Bibliotheken als
    Resilienz-Anker der Zukunft:
    ökologische Verantwortung,
    soziale Gerechtigkeit und
    strategische Partnerschaften
u.v.m.
  fachbuchjournal

KIT-Experte zu aktuellem Thema: „Die Gesellschaft muss
sich klarmachen, auf was sie sich mit ChatGPT einlässt.“

ChatGPT – ein Computermodell der Firma Open AI, das mithilfe Künstlicher Intelligenz auf die Verarbeitung sprachlicher Daten trainiert wurde – hat seit seiner Einführung im November 2022 weltweit für Aufmerksamkeit gesorgt. Im Auftrag des Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung hat das vom Karlsruher Institut für Technologie (KIT) betriebene Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) nun eine umfassende Einschätzung dieses technologischen Durchbruchs in der digitalen Sprachverarbeitung vorgelegt.

Es ist sinnvoll, jetzt eine breite Debatte darüber zu führen, wie wir mit KI-Systemen umgehen wollen“, betont Dr. Steffen Albrecht vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT, das auch das TAB betreibt. Albrecht ist Autor der jetzt veröffentlichten Studie ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen. „Die Gesellschaft“, so Albrecht, „muss sich klarmachen, auf was sie sich da einlässt und welche Regeln wir vereinbaren wollen. Das System birgt ebenso zahlreiche Chancen wie Risiken. Unsere Studie liefert ein Nebeneinander von Pro und Contra, das lässt sich im Moment noch nicht vermeiden. Für eine klare Bewertung ist es derzeit noch zu früh.“

Im Einzelnen beschreibt das rund 100-seitige Hintergrundpapier des TAB die Technik, auf der ChatGPT aufsetzt, ihre Möglichkeiten und Grenzen, die potenziellen Anwendungen des Chatbots sowie mögliche gesellschaftliche Auswirkungen. Das scheinbar grenzenlose Wissen der Dialog-KI und ihre verblüffende, blitzschnelle Eloquenz führt Soziologe Albrecht auf zwei technologische Durchbrüche zurück: „Diese neue Art künstlicher neuronaler Netzwerke, die sogenannten Transformermodelle, ermöglicht erstens eine besonders effiziente Umwandlung von Sprache in mathematische Parameter. Dadurch können zweitens die Komplexität dieser Computermodelle und die Menge der für ihr Training verwendeten Daten enorm vergrößert werden.“ So greift das ChatGPT zugrundeliegende Computermodell auf 175 Milliarden Parameter und auf ein Trainingsmaterial von 300 Milliarden Textbestandteilen zurück.

Für Chatbots derartiger Potenz ergeben sich laut Steffen Albrecht eine Reihe plausibler Einsatzmöglichkeiten: „Viele menschliche Tätigkeiten, die mit der Verarbeitung von Texten verbunden sind, lassen sich nun zumindest teilweise automatisieren. Weitere Perspektiven ergeben sich durch die multimodale Ausdehnung auf Bilder und Töne.“ Solche Entlastungs- beziehungsweise. Rationalisierungseffekte betreffen künftig nicht nur Bereiche wie Journalismus, Unternehmenskommunikation oder Dialoge mit Kundinnen und Kunden, sondern auch Tätigkeiten wie Programmierung und Rechtsberatung, die bisher nicht betroffen waren. „Da die KI-Systeme in natürlicher Sprache angesprochen werden können, könnten sie, wo erforderlich, zugleich als leicht bedienbare Schnittstelle für andere Computersysteme genutzt werden.“ Positive Effekte könnten sich Albrecht zufolge auch für die Inklusion behinderter Menschen ergeben: „Noch immer sind erst wenige Texte in leichte Sprache übersetzt, hier könnte künftig ChatGPT einen Beitrag leisten.“

Allem medialen Wirbel zum Trotz sollte die öffentliche Debatte über Computermodelle wie ChatGPT auch deren Grenzen und Risiken einbeziehen. „Der Output von Computermodellen kann nur so gut sein wie das, was sie an Input erhalten haben. Ein in den Trainingsdaten enthaltener Bias, also eine verzerrte Repräsentation bestimmter Kategorien, kann sich in den Antworten des Systems widerspiegeln und Diskriminierung verstärken“, sagt Albrecht. Zudem sind die vom System erzeugten Informationen häufig schlicht falsch: „Aufgrund der hohen sprachlichen Qualität und in Ermangelung von Belegen lässt sich die Korrektheit jedoch nur schwer überprüfen, wodurch das Vertrauen in die Verlässlichkeit von Informationen im Allgemeinen sinken kann. Eine verantwortliche Anwendung von ChatGPT sollte sich auf solche Gebiete beschränken, in denen die Nutzenden die Qualität der Ergebnisse beurteilen können beziehungsweise die faktische Richtigkeit weniger bedeutsam ist“, resümiert der Karlsruher Forscher. Daneben diskutiert die Studie konkrete Risiken wie eine Zunahme als solcher nicht erkennbarer computergenerierter Texte in privater und öffentlicher Kommunikation, effektivere Angriffe auf die Computersicherheit oder größere Mengen bewusst schädigend eingesetzter Texte, die das Vertrauen in den öffentlichen Diskurs beziehungsweise die demokratische Meinungsbildung untergraben.

Einen Schwerpunkt legt die Technikfolgen-Studie des TAB auf die Bereiche Bildung und Forschung.

Den Hoffnungen von Lehrkräften auf Entlastung von Routineaufgaben und auf eine Erweiterung didaktischer Möglichkeiten stehen dem Papier zufolge Befürchtungen eines Verlusts von Bildungskompetenzen, missbräuchlicher Verwendungen in Prüfungen sowie Datenschutzbedenken gegenüber. „Ich kann mir gut vorstellen“, so Steffen Albrecht, „dass Schulkinder und Studierende künftig nicht mehr nur einen fertigen Text abgeben, sondern dass sie sich schon viel früher mit ihren Lehrkräften darüber auch austauschen. Etwa über die Entwicklung einer Fragestellung, über die Suche nach Quellen oder den Aufbau einer Argumentation. Gerade im Umgang mit Quellen kann ein KI-System wie ChatGPT nur sehr bedingt helfen.“

In der Wissenschaft könnten Programme wie ChatGPT die Zahl der Betrugsfälle steigen lassen: „Schon heute herrscht ein hoher Druck, möglichst viel zu publizieren. Es ist also leicht vorstellbar, dass sich Forschende dazu verleiten lassen, ein KI-System ihre Studien schreiben zu lassen. Gleichzeitig deutet sich aber an, dass das System beim wissenschaftlichen Schreiben auch hilfreich sein könnte, zum Beispiel wenn es darum geht, die relevante Literatur zusammenzufassen oder in einer anderen als der Muttersprache zu publizieren“, stellt Albrecht fest.

Die Anwendungspotenziale und möglichen gesellschaftlichen Auswirkungen von Computermodellen wie ChatGPT sind auch Gegenstand einer öffentlichen Sitzung des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestages am heutigen 26. April 2023, bei der unter anderem Sachverständige befragt werden.

Weitere Informationen zur Studie bietet ein ausführliches Interview mit Steffen Albrecht auf https://www.helmholtz.de/newsroom/artikel/was-chatgpt-fuer-bildung-und-wissenschaft-bedeutet/

Weiterführende Informationen

Studie „ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen“ des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag auf der Publikationsplattform KITopen.