Spätestens mit dem Erfolg von ChatGPT sind große Sprachmodelle in unserem Alltag angekommen. Doch während die Nutzung dieser Systeme rasant zunimmt, bleibt ihre Funktionsweise für viele Menschen ein Rätsel. Dieses Unwissen öffnet Missverständnissen und Fehlinformationen Tür und Tor – insbesondere dann, wenn mediale oder populärwissenschaftliche Beiträge den Eindruck erwecken, Künstliche Intelligenz (KI) könne denken, halluzinieren oder gar fühlen. Der vermeintliche Durchbruch zur „künstlichen Superintelligenz“ scheint in solchen Erzählungen oft nur einen Schritt entfernt.
Informativer Abend über KI im anno 1578
Mit diesen und weiteren Mythen rund um Künstliche Intelligenz setzten sich inIT-Professor Dr. Volker Lohweg und Prof. Dr. Georg Halbeisen (Lehrgebiet Wirtschaftspsychologie am Fachbereich Wirtschaftswissenschaften der TH OWL) in der Veranstaltung „AI-Literacy: Wie leicht lassen wir uns täuschen?“ des anno 1578 am 30. Oktober 2025 auseinander. Ziel des Abends war es, ein realistisches Verständnis für die Funktionsweise großer Sprachmodelle zu schaffen und gleichzeitig auf die psychologischen Mechanismen hinzuweisen, die zu ihrer Fehlwahrnehmung beitragen.
Technische Grundlagen großer Sprachmodelle
In seinem Vortrag "Künstliche Intelligenz (KI, AI) – Wie wollen wir damit umgehen?" erläuterte Prof. Dr. Volker Lohweg die technischen Grundlagen großer Sprachmodelle und machte deutlich, dass deren scheinbar „intelligentes“ Verhalten auf komplexen, aber letztlich statistischen Berechnungen beruht.
„Wir dürfen ‚große Sprachmodelle‘, gemeinhin verkürzend als ‚die KI‘ bezeichnet, keinesfalls vermenschlichen. Derartige Modelle sind zwar hochkomplex, aber letztendlich mathematische Algorithmen. Sie ‚denken‘ und ‚fühlen‘ nicht. Diese Maschinerie wirkt auf Menschen ‚denkend‘, das ist jedoch ein Trugschluss. Wir sollten also nicht zu leichtgläubig damit umgehen“, betonte Prof. Lohweg eindrücklich.
Glaubwürdigkeit großer Sprachmodelle
Anschließend widmete sich Prof. Dr. Georg Halbeisen der Frage, warum der Output großer Sprachmodelle uns Menschen so glaubwürdig erscheint. Er führte aus, dass dies weniger an den Modellen selbst liegt, sondern an typischen menschlichen Wahrnehmungs- und Interpretationsmustern. Halbeisen zeigte anhand anschaulicher Beispiele, wie dem vermeintlich in Norwegen erfundenen Reißverschluss, wie leicht sich Menschen dadurch täuschen lassen – und wie wichtig es ist, sich dieser Mechanismen bewusst zu werden, um kritisch mit KI-generierten Inhalten umzugehen.
Lebhafter Austausch
Mit einem lebhaften Austausch zwischen Publikum und Referenten endete der Abend – und machte deutlich, dass Aufklärung über Künstliche Intelligenz längst kein Nischenthema mehr ist, sondern eine zentrale Kompetenz unserer digitalen Gegenwart.
Die Veranstaltung war Teil der KI-AkademieOWL, gefördert durch das Bundesministerium für Bildung, Forschung, Technologie und Raumfahrt, sowie des Transferprojekts TRiNNOVATION OWL, das im Rahmen der Bund-Länder-Initiative Innovative Hochschule ebenfalls vom Bundesministerium für Bildung, Forschung, Technologie und Raumfahrt unterstützt wird.
