vocatium Magazin / Studium / Studierst du noch oder nutzt du schon ChatGPT?

Studierst du noch oder nutzt du schon ChatGPT?

Umfragen zeigen steigende Nutzung von KI unter Studierenden

Was denkt eigentlich die KI? (KI-generiertes Symbolbild). Bild von Freepik. Was denkt eigentlich die KI? (KI-generiertes Symbolbild). Bild von Freepik.
Beitrag teilen
Studium

Künstliche Intelligenz ist längst im Studium angekommen – über 90 Prozent der Studierenden nutzen Tools wie ChatGPT oder DeepL. Doch was als praktische Hilfe beginnt, kann schnell zu einem Verlust grundlegender akademischer Fähigkeiten führen: Lesen, Recherchieren und kritisches Denken drohen zu verkümmern.

 

(ps) KI-Tools wie ChatGPT werden inzwischen von über 90 Prozent der Studierenden verwendet. In einer quantitativen Längsschnittstudie zur Nutzung von KI-Tools durch Studierende kamen Forscher*innen der Hochschule Darmstadt 2025 zu dem Ergebnis, dass „mittlerweile mehr als 90 % der befragten Studierenden“ KI-Tools wie ChatGPT oder DeepL fürs Studium nutzen. In der vorangegangenen Erhebung von 2023 lag dieser Wert noch bei 63 Prozent. Und auch aus anderen Ländern kommen ähnliche Zahlen: beispielsweise der österreichische „Student:innen-Report 2025“ dokumentiert eine KI-Nutzungsquote im Unialltag von 95 Prozent, und der britische „Student Generative AI Survey 2025“ kommt auf 92 Prozent.


Und wer soll es ihnen auch verdenken? Was KI alles kann und macht, darf man heute fast täglich in der Presse lesen – ironischerweise immer öfter geschrieben von der KI selbst: so stellte eine jüngst in den USA veröffentlichte Studie fest, dass „fast ein Viertel aller kommerziellen Pressemitteilungen“ inzwischen von Tools wie ChatGPT verfasst werden, Tendenz steigend. Und Journalisten stehen weit oben auf der Liste der Berufe, die durch KI bedroht sind. Aber auch in vielen anderen Bereichen kommt man an KI kaum mehr vorbei: von der Medizin bis zum KI-geschriebenen Kinderbuch (das einen Aufschrei in der Schweiz auslöste) – KI ist überall, alle nutzen es. In dieser Situation erscheint das Verbot der KI-Nutzung für Studierende kaum vermittelbar.


KI lässt zentrale Fähigkeiten verkümmern


Was Studierende aber heute an Zeit und Mühe sparen, bezahlen sie möglicherweise mit einem Verlust an grundlegenden Kompetenzen. Lehrende berichten zunehmend davon, dass Texte zwar formal korrekt und sprachlich einwandfrei abgegeben werden, aber inhaltlich oft oberflächlich bleiben. Wenn KI-Tools wie ChatGPT Textzusammenfassungen oder gleich ganze Hausarbeiten schreiben, Referate vorbereiten oder Recherchen erledigen, verlernen Studierende, selbst zu recherchieren, kritisch zu reflektieren und komplexe Argumentationsstrukturen aufzubauen.


Diese Beobachtungen spiegeln sich auch in den Erfahrungsberichten von Lehrenden wider – die Klagen der Professor*innen über ihre Studierenden werden jedenfalls in den letzten Jahren zunehmend lauter. Ganze Bücher für ein Seminar zu lesen werde von den Studierenden immer öfter als Zumutung wahrgenommen. Das Textverständnis nehme ab, und komplexe Fragestellungen insbesondere in den ersten Semestern seien kaum mehr möglich. Zeit Online berichtet von einer Allensbach-Studie, laut der lediglich 17 Prozent der Studierenden täglich lesen – 2002 seien es noch 43 Prozent gewesen. Das Problem: in Zeiten von KI haben viele Studierende das Gefühl, auch gar nicht mehr lesen zu müssen. Für die wesentlichen Fakten gibt es schließlich die KI.


Dies kann jedoch gravierende Konsequenzen haben, wie eine Studie von 2023 zeigt: „KI im Bildungswesen führt zur Entstehung von Faulheit beim Menschen“, heißt es da (Übersetzung aus dem Englischen von ps). So lasse sich beobachten, dass der Einsatz von KI den Menschen davon abhalte, sich Inhalte einzuprägen, analytische Denkfähigkeiten einzusetzen oder kognitive Fähigkeiten zu nutzen. Dies führe zu einem suchtähnlichen Verhalten, bei dem geistige Fähigkeiten nicht mehr genutzt würden und der Mensch träge werde. Zudem würden Lehrkräfte und Studierende, die KI-Technologien verwendeten, nach und nach das Interesse verlieren, Aufgaben selbstständig zu erledigen.
 

Auch das kritische Urteilsvermögen leidet: Eine Studie an der SBS Swiss Business School legt nahe, dass die zunehmende Nutzung von KI-Tools mit einer verminderten Fähigkeit zum kritischen Denken verbunden ist. Studienautor Prof. Michael Gerlich betont, dass jüngere Studienteilnehmer*innen im Vergleich zu den älteren Teilnehmenden bereits jetzt eine höhere Abhängigkeit von KI-Tools zeigen, die begleitet wird von einer geringeren kritischen Urteilskraft. Gerlich mahnt an, dass ein kritischer Umgang mit KI ebenso wie die gezielte Schulung kritischen Denkens für die Zukunft dringend angezeigt seien. 


KI ist kein Wissensmodell


Ein weiteres Problem: KI „weiß“ nichts. Sie generiert Antworten auf Basis von Mustern, Wahrscheinlichkeiten und Textstatistiken – nicht aufgrund von echtem Verständnis. Sie kann überzeugend klingen, aber irren, erfinden und Fakten verdrehen. Wer KI nutzt, ohne ihre Grenzen zu kennen, läuft Gefahr, fehlerhafte Inhalte weiterzugeben oder komplexe Themen zu stark zu vereinfachen. Gerade deshalb sind kritisches Denken, Quellenbewertung und methodische Kompetenz wichtiger denn je – Fähigkeiten, die wir uns ausgerechnet mit übermäßiger KI-Nutzung abtrainieren.


Was eine KI abliefert, mag für Schulhausaufgaben noch (meistens) funktionieren, wissenschaftliche Texte über KI generieren zu lassen ist aber nicht nur unlauter und faktisch ein Täuschungsversuch, sondern jenseits der Grenzen dessen, was KI-Tools produzieren können – was die Tools aber selber nicht wissen. Tatsächlich zeigt eine aktuelle Studie, dass sich die verschiedenen Chatbots regelmäßig selbst überschätzen – was im Spiegel zu einer süffisanten Beobachtung führte: „In mindestens einem Punkt ähneln sich Menschen und KI-Chatbots nachweislich: Sie überschätzen ihre Fähigkeit, Fragen korrekt zu beantworten.“


Das ist nicht nur allgemein ein Problem, weil die KI in einem geschliffen klingenden Text dann im Zweifel Falschinformationen präsentiert. Sondern spezifisch auch dann, wenn es um Quellen geht, die an einer Uni nun mal unverzichtbar sind. Diese halluzinieren KIs nicht selten herbei: sie haben dann den äußeren Anschein einer Quelle, sind aber frei erfunden. Denn die KI hat gelernt, wie ein wissenschaftlicher Text aussieht, wie Quellen eingesetzt werden – aber nicht im eigentlichen Sinne, was eine Quelle ist. So schreibt sie dann einen Text, der so aussieht wie ein wissenschaftlicher – bei dem Zitate und Quellen aber rein dekorativ sind, um eben das richtige Aussehen des Textes herzustellen. Es ist den Entwickler*innen offenbar noch nicht gelungen, ihren KIs zu vermitteln, dass Quellen auch real existieren müssen.


„Der Zugang zu diesen Tools ist heutzutage sehr einfach, das Wissen darüber, wie man sie richtig benutzen sollte, um die eigenen Kapazitäten zu verbessern, deutlich geringer“, betont Guido Neidhöfer vom Leibniz-Zentrum für europäische Wirtschaftsforschung gegenüber Welt.de. So bestehe die Gefahr, KI-Tools wie ChatGPT „fälschlicherweise als Wissensmodelle“ zu betrachten, was sie jedoch nicht seien. „Sie sind für die Vermittlung von Inhalten nur bedingt nützlich und unzuverlässig“, so Neidhöfer. Um das bemerken zu können, benötigt es jedoch bereits eine Menge Vorwissen, das man, es läßt sich ahnen, nur durch das Lesen von ganzen Büchern bekommt – Zumutung hin oder her.


Sinnvolle Einsatzmöglichkeiten von KI-Tools


Dennoch sind KI-Tools im wissenschaftlichen Betrieb durchaus nicht nur schlecht – wie Neidhöfer schon andeutet, kann man sie durchaus sinnvoll verwenden. Zum einen sind es brauchbare Assistenten zur Optimierung der eigenen Texterzeugnisse: ein Schuh wird draus, wenn man selbst einen Text erarbeitet, selbst Quellen findet und verwertet, selbst zu Ergebnissen kommt – und dann die KI anleitet, den Text zu optimieren. Angefangen bei einfachen Fragen wie: „Gibt es Wiederholungen?“ bis hin zu „Formuliere den gegebenen Text neu, damit er sich flüssiger liest“. Auch da müssen natürlich die Ergebnisse auf Verfälschungen geprüft werden, aber grundsätzlich sind dies Dinge, die eine KI heute schon gut leisten kann.


Weiterhin sind KI-Tools für Organisations- und Selbstorganisationsfragen sehr gut verwendbar. Etwa die Erstellung von Lernfahrplänen klappt sehr gut: man füttert die KI mit den Prüfungs- oder Abgabeterminen, beschreibt den Lernumfang, gibt fixe Termine im Kalender an und bittet um einen Stundenplan, an dem man sich in der Prüfungsphase orientieren kann – oder natürlich auch das ganze Semester über.


Ebenfalls recht brauchbar sind KIs, um Vorträge und Präsentationen zu optimieren. Hier gilt wie immer: will man sicher sein, dass die Inhalte auch stimmen und nicht frei erfunden sind, müssen sie vom Menschen geliefert werden – dann aber kann die KI sehr hilfreich sein. Doch es zeigen sich schnell Grenzen: eine Wirtschaftsinformatik-Professorin berichtet in der Süddeutschen Zeitung von einem Seminar, in dem Studierende einen Vortrag von ChatGPT erstellen lassen sollten, den sie dann halten und anschließend reflektieren sollten. Die Erfahrungen der Studierenden: erstmal Überraschung darüber, wie lange es dauert, ein wirklich vortragsreifes Ergebnis zu bekommen. Und dann Erkenntnisse wie: „zu viele Beispiele, zu wenig inhaltliche Tiefe“, kein roter Faden, und nicht immer seien die Formulierungen so elegant wie man es erwarten würde.


Auch im späteren Berufsleben relevant


Werden diese Probleme und Fallstricke nicht kritisch bedacht und KI-Inhalte geprüft, kann es nicht nur im Studium zu peinlichen Momenten führen, sondern auch später im Berufsleben: in den Medien und Social Media häufen sich die Anekdoten, die von den Konsequenzen ungeprüfter Chatbot-Texte berichten. Beispielsweise in den USA sind schon mehrfach Anwält*innen aufgeflogen, deren offenbar KI-generierten Anklage- oder Verteidigungsschriften Verweise auf Teils reihenweise fiktive Gerichtsurteile enthielten. Auch hier war Teil des Problems (nebst der bedenklichen Tatsache, dass sich Anwält*innen ihre komplexe Arbeit von unausgereifter KI abnehmen lassen wollen), dass die KI schönste Quellen mit Aktenzeichen und allem drum und dran halluziniert hatte – die, wie oben beschrieben, eben aussahen wie Quellen, aber keine waren.


Das ZDF führt das Beispiel der Entwicklerplattform Cursor an, deren Kundensupport-KI eigenmächtig beschlossen hatte, dass Kund*innen Cursor nur noch auf einem einzigen Gerät nutzen dürften – und noch bevor die Firma den Fehler aufklären konnte, hagelte es schon Beschwerden und Abo-Kündigungen. Natürlich machen auch Menschen Fehler, aber Beispiele wie diese zeigen deutlich: vorläufig jedenfalls braucht es den Menschen noch. Es braucht ein geschultes Auge, Fachwissen und gesunden Menschenverstand.


Im Beruf ebenso wie im Studium gilt: Letztlich ist der Umgang mit KI eine Frage der Haltung – und des Anspruchs, den man an die eigene Arbeit stellt.

 

 

Quellen:


Börsenblatt: „Kann Gen Z kein ganzes Buch mehr lesen?“, Jaqueline Weigl, 16.12.2024; online: www.boersenblatt.net/home/kann-gen-z-kein-ganzes-buch-mehr-lesen-355739

Deutschlandfunk: „Immer mehr KI-Texte bei Pressemitteilungen“, 06.10.2025; online: www.deutschlandfunk.de/immer-mehr-ki-texte-bei-pressemitteilungen-100.html

Higher Education Policy Institute: „Student Generative AI Survey 2025“ (= HEPI Policy Note 61), Josh Freeman, 26.02.2025; online: www.hepi.ac.uk/reports/student-generative-ai-survey-2025/

Hochschule Darmstadt: „Künstliche Intelligenz im Studium - Eine quantitative Längsschnittstudie zur Nutzung KI-basierter Tools durch Studierende“, Joerg von Garrel, Jana Mayer, 20.03.2025; online: opus4.kobv.de/opus4-h-da/frontdoor/index/index/docId/533

Hochschule Darmstadt: „Bundesweite Studie: Mehr als 90% der Studierenden nutzen KI-basierte Tools wie ChatGPT fürs Studium“, PM vom 21.03.2025; online: nachrichten.idw-online.de/2025/03/21/bundesweite-studie-mehr-als-90-der-studierenden-nutzen-ki-basierte-tools-wie-chatgpt-fuers-studium

LeadersNet Österreich: „Künstliche Intelligenz im Unialltag fast aller Studierenden angekommen“, Larissa Bilovits, 29.09.2025; online: www.leadersnet.at/news/93325,kuenstliche-intelligenz-im-unialltag-fast-aller-studierenden.html

LinkedIn: „Wenn KI uns das Denken abnimmt: Die schleichende Erosion des kritischen Denkens“, Gerhard G. Stockinger, 07.09.2025; online: de.linkedin.com/pulse/wenn-ki-uns-das-denken-abnimmt-die-schleichende-des-stockinger-159ef

Nature.com: „Impact of artificial intelligence on human loss in decision making, laziness and safety in education“, Sayed Fayaz Ahmad et al., 09.06.2023, in: Humanities and Social Sciences Communications volume 10, Article number: 311 (2023); online: www.nature.com/articles/s41599-023-01787-8

Reuters: „Lawyer who used flawed AI case citations says sanctions unwarranted in whistleblower case“, Sara Merken, 27.08.2024; online: www.reuters.com/legal/transactional/lawyer-who-used-flawed-ai-case-citations-says-sanctions-unwarranted-2024-08-27/

Reuters: „Lawyers in Walmart lawsuit admit AI 'hallucinated' case citations“, Sara Merken, 11.02.2025; online: www.reuters.com/legal/legalindustry/lawyers-walmart-lawsuit-admit-ai-hallucinated-case-citations-2025-02-10/

Spiegel: „Ein Viertel der Studierenden nutzt täglich künstliche Intelligenz“,  Markus Sutera, 12.06.2025; online: www.spiegel.de/start/ki-einsatz-im-studium-ein-viertel-der-studierenden-nutzt-taeglich-chatgpt-und-andere-ki-tools-a-113164dd-b860-44e9-b2f5-45cf12aca783

Spiegel: „KI-generiertes Kinderbuch löst Protest aus“, 10.07.2025; online: www.spiegel.de/kultur/literatur/schweiz-ki-generiertes-kinderbuch-sorgt-fuer-proteste-a-fe33e616-a24a-4898-816d-e17f311e67b3

Spiegel: „Chatbots tendieren zu Selbstüberschätzung“, 22.07.2025; online: www.spiegel.de/wissenschaft/technik/chatbots-tendieren-laut-studie-zu-selbstueberschaetzung-a-946d474d-a95f-441a-ab68-a7a1bba3000c

SSRN: „AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking“, Michael Gerlich, 03.01.2025; online: papers.ssrn.com/sol3/papers.cfm

Süddeutsche Zeitung: „Die Masterarbeit schreibt meine KI“, Max Ferstl, Elisa Schwarz, 03.10.2025; online (Bezahlinhalt): www.sueddeutsche.de/projekte/artikel/politik/uni-chatgpt-kuenstliche-intelligenz-pruefung-semesterbeginn-ulm-computer-e777912/

Welt: Schnelleres und einfacheres Studium? Der Chat-GPT-Irrtum der Studenten, Felix Seifert, 21.10.2024; online: www.welt.de/wirtschaft/karriere/bildung/article254038342/Uni-und-KI-Schnelleres-und-einfacheres-Studium-Der-Chat-GPT-Irrtum-der-Studenten.html

Zeit Online: „Ein Buch lesen? Ganz?!“, Anant Agarwala, Martin Spiewak, Zeit Nr. 18/2025; online (Bezahlinhalt): www.zeit.de/2025/18/lesekompetenz-lange-texte-universitaeten-lehre/komplettansicht

ZDF: „ChatGPT & Co erzählen immer mehr Unsinn“, Oliver Klein, 13.05.2025; online: www.zdfheute.de/panorama/kuenstliche-intelligenz-ki-chatgpt-sprachmodelle-halluzinationen-entwicklung-100.html

 

 

15.10.2025; zuletzt bearbeitet 28.10.2025