Warum mir ChatGPT langsam Angst macht…
…. obwohl oder weil ich es dauernd benutze. Der Effekt von generativer künstlicher Intelligenz auf die Arbeitswelt wird derzeit wie ein glitzerndes Einhorn durch die Welt getrieben: schneller, besser, effizienter! Und klar, da ist was dran. Sobald ChatGPT & Co. vollständig in unsere Office-Welt integriert sind, werden viele Aufgaben leichter von der Hand gehen. Ein Bericht ist in drei Prompts zusammengefasst, die E-Mail an den Chef elegant formuliert, der nächste Workshop grob skizziert – alles innerhalb von Minuten. Klingt nach Produktivitätsschub. Ist es aber nicht unbedingt. Um zu verstehen, warum diese Technologie auch einen gegenteiligen Effekt haben kann, hilft ein Blick zurück – in die Zeit, als der PC den Schreibtisch eroberte. Ich selbst hab das nicht mehr aktiv erlebt. In meiner Studien- und Arbeitswelt war der Rechner einfach da. Word, Excel, PowerPoint – Standardausrüstung. Aber davor? Da diktierte der Ingenieur seine Gedanken, die Schreibkraft stenografierte und tippte alles fein säuberlich ab – auf einer Schreibmaschine. Arbeitsteilung vom Feinsten. Dann kam der PC – und mit ihm die Idee, dass jetzt jeder selbst tippen kann. Praktisch, oder? Keine Sekretärin mehr nötig. Nur: Was wie ein Effizienzgewinn aussah, hatte seinen Preis. Denn plötzlich saßen Fachkräfte stundenlang an der Formatierung von Texten, der Auswahl der richtigen Schriftart („Comic Sans oder doch lieber Arial?“) oder dem Formulieren von Mails, statt an ihrer eigentlichen Arbeit zu tüfteln. Laut einer Studie von RescueTime aus 2018 checkt der durchschnittliche Wissensarbeiter alle sechs Minuten seine Mails oder Chatnachrichten. Kein Wunder, dass 40 % nicht mal 30 Minuten am Stück konzentriert arbeiten können. Willkommen in der Postproduktivität. Und jetzt? Jetzt droht uns dasselbe nochmal – nur viel subtiler. Die KI übernimmt Aufgaben, die wir früher als Training für den Kopf genutzt haben. Eine gute E-Mail formulieren? War früher eine Kunst, heute ein Prompt. Ein Buch zusammenfassen? Früher der Einstieg für junge Mitarbeitende, heute ein Knopfdruck. Klingt nach Fortschritt – ist aber ein Rückschritt, wenn man genauer hinschaut. Denn genau diese scheinbar „einfachen“ und „repetitiven“ Tätigkeiten sind es, die unsere Basiskompetenzen schulen: Klar schreiben, präzise denken, Informationen gewichten. Wer nie lernt, einen Text selbst auf den Punkt zu bringen, wird auch schwer beurteilen können, ob die Zusammenfassung von ChatGPT etwas taugt. Wir verlieren die Fähigkeit, Ergebnisse kompetent zu bewerten – und das macht uns abhängig. Das ist wie mit dem Navi im Auto: Super praktisch, wenn man mal irgendwo hinmuss. Aber wehe, das Ding fällt aus – dann steht man da wie Falschgeld, mitten in Rom, ohne Plan und mit leerem Akku. Unsere Fähigkeit, sich zu orientieren, degeneriert – einfach, weil sie nicht mehr gebraucht wird. Das gleiche passiert mit unseren kognitiven Basics. Die eigentliche Gefahr ist nicht, dass KI uns ersetzt. Die Gefahr ist, dass sie uns verlernen lässt. Und das beginnt ganz leise – dort, wo man denkt: „Ach, das muss ich doch nicht mehr selbst können.“ Doch wie soll man Erfahrung sammeln, wenn es keine einfachen Aufgaben mehr gibt, an denen man wachsen kann? Wie soll man Beurteilungskompetenz entwickeln, wenn man nie selbst die Mühe hatte, einen Text mühsam auf drei prägnante Sätze runterzubrechen? Das führt direkt in den guten alten Dunning-Kruger-Effekt: Wer wenig kann, merkt es nicht. Und wer viel kann, zweifelt ständig. Ein paar schlaue Prompts, ein halbgares Verständnis und zack – fühlt man sich wie ein Profi. Dass das KI-Ergebnis gut aussieht, bedeutet noch lange nicht, dass es auch gut ist. Um das zu erkennen, müsste man wissen, wie ein gutes Ergebnis aussieht – und das wiederum setzt voraus, dass man es selbst herstellen könnte. Oder wie es der Sozialpsychologe David Dunning einmal gesagt hat: „Wenn Sie inkompetent sind, sind die Fähigkeiten, die Sie brauchen, um eine korrekte Antwort zu geben, genau die Fähigkeiten, die Sie brauchen, um zu erkennen, was eine korrekte Antwort ist.“ Vielleicht brauchen wir also keine noch smartere KI, sondern einen Führerschein für den Umgang mit ihr – inklusive Praxisprüfung im Klartext-Formulieren, Argumente-Gewichten und Erkenntnisse-Zusammenfassen. Nicht, damit wir die Maschine besser steuern, sondern damit wir nicht selbst das Steuern verlernen.