24. Januar 2025
  WEITERE NEWS
Aktuelles aus
L
ibrary
Essentials

In der Ausgabe 9/2024 (Dezember 2024) lesen Sie u.a.:

  • Wie Suchalgorithmen und KI unsere Wahrnehmung des Klimawandels beeinflussen
  • ChatGPT liefert häufig ungenaue Quellenangaben für Verlagsinhalte
  • Ein Jahrhundert LIS-Forschung:
    Entwicklung und Trends in der Bibliotheks- und Informationswissenschaft –
    eine szientometrische Analyse
  • Metadaten als Schlüssel für Vertrauensbildung in der Wissenschaft
  • Journal Impact Factors: Wie ChatGPT wissenschaftliche Zeitschriften beurteilt
  • KI-gestützte Literaturübersichten:
    Der nächste Schritt in der Forschungsautomatisierung
  • Gemeinsamer Fahrplan für Open Research Information: Ein Blick auf das Treffen
    an der Sorbonne in Paris
  • MINT-Expertise im Bibliothekswesen: Chancen für Open Science
  • Die Vergänglichkeit des Digitalen: Cyberangriffe auf Bibliotheken und Archive bedrohen unser kulturelles Erbe
  • Bibliotheken als Orte des Lernens
    und der Meinungsfreiheit: Eine Balance
    zwischen Ruhe und Diskurs
u.v.m.
  fachbuchjournal

Charité-Hirnforscher warnt vor Risiken durch KI:
„Wir sitzen in einer Pulverkammer“

Aus Christ & Welt Nr. 42

Der renommierte Berliner Psychologe und Hirnforscher John-Dylan Haynes fürchtet, dass Künstliche Intelligenz außer Kontrolle gerät. „Wir sitzen in Sachen KI gerade in einer Pulverkammer, spielen mit dem Feuer und verstehen gar nicht, wie gefährlich es ist, was wir tun“, sagt der Professor am Klinikum Charité im Interview mit der Beilage Christ & Welt in der aktuellen Ausgabe der Wochenzeitung DIE ZEIT.

„Computer müssen sich gar nicht ihrer selbst bewusst werden, damit sie für uns gefährlich werden.“ Schon jetzt seien Algorithmen im Einsatz, „deren Auswirkungen wir im Detail nicht mehr verstehen. Es gibt künstliche neuronale Netze, deren Dynamiken wir nicht nachvollziehen können.“ Haynes verweist auf ein Forschungsprojekt am Exzellenzcluster „Science of Intelligence“ in Berlin. Wenn komplizierte Algorithmen in vielen Bereichen des Alltags eingesetzt würden, könne das zu unvorhersagbaren Konsequenzen führen.

Haynes sieht es als problematisch an, dass einzelne Akteure auf dem Feld der KI über viele Firmen und Länder verteilt Algorithmen bauten. Wie einer mit dem anderen interagieren werde, könne niemand abschätzen. „Ich sehe Parallelen zum Vorlauf des Ersten Weltkriegs“, sagt der Wissenschaftler. Die einzelnen Akteure seien damals, wie der Historiker Christopher Clark es genannt habe, wie Schlafwandler in den Krieg getaumelt. Jede Partei habe ihre eigenen Entscheidungsroutinen und -gründe, aber wie alles zusammenwirken werde, habe keiner gesehen. „Ich befürchte leider, dass uns die Kontrolle entgleiten könnte.“ Der Mensch überschätze generell seine Fähigkeit, komplexe technische Systeme zu verstehen und ihr Verhalten korrekt vorherzusagen.