Immer wieder wird diskutiert, was der Mensch noch für Fähigkeiten benötigt, wenn Künstliche Intelligenz immer mehr Aufgaben übernehmen kann. Meiner Ansicht nach ist das der falsche Denkansatz. Denn mindestens eine Fähigkeit ist im Umgang mit KI essentiell.
„Künstliche Intelligenz (KI) übernimmt doch immer mehr Aufgaben, was muss dann eigentlich noch der Mensch können?“ – oft wird mir diese Frage im Rahmen von Vorträgen und Workshops gestellt. Tatsächlich jedoch sind wir noch weit davon entfernt, dass KI immer mehr Aufgaben übernimmt.
Ja, sie hilft uns immer mehr, aber von autonomem Handeln sind wir noch weit entfernt. Deshalb halte ich die Frage, welche menschlichen Fähigkeiten überhaupt noch notwendig sind, für extrem relevant.
Denn wenn zwar der Einsatz von KI als Werkzeug stetig voranschreitet, aber der Mensch weiterhin der Auslöser und Verursacher bleibt, dann kommt es eben gerade weiterhin und hauptsächlich auf den Menschen an.
Umgang mit KI: Prompting als wichtigste Fähigkeit?
Aber welche Fähigkeit wird denn nun entscheidend sein? Viele werden wahrscheinlich sagen, dass es darauf ankommt, korrekte Prompts, also korrekte und zielführende Aufforderungen an eine KI zu stellen. Die erforderliche Fähigkeit wäre dann, entsprechende Prompts formulieren zu können. Meiner Ansicht nach ist das aber gar nicht so wichtig, auch wenn ich selbst in meinen Trainings und Vorträgen immer wieder davon spreche.
Ich glaube nämlich nicht, dass es im Zeitalter der KI hauptsächlich auf die Formulierung des „richtigen“ Prompts ankommt (dann könnte man ja schon diskutieren, was in dem Zusammenhang „richtig“ heißt). Vielmehr geht es doch um etwas anderes: Wir haben uns so daran gewöhnt, Maschinen zu füttern und auf Antworten zu warten, dass wir die eigentliche Königsdisziplin vergessen – nämlich die Fähigkeit, zu urteilen.
Urteilsfähigkeit als Fähigkeit aller Fähigkeiten
Urteilsfähigkeit unter Unsicherheit ist die Währung, die im KI-Zeitalter meiner Meinung nach alles schlägt. Während ChatGPT, Midjourney oder medizinische Diagnose-Algorithmen uns mit Antworten, Bildern und Wahrscheinlichkeiten überfluten, sind sie eines nicht: verantwortlich für das, was daraus wird.
Das letzte Wort – und die Verantwortung – liegen nämlich bei uns. Wer nicht urteilen kann, wer nicht erkennt, wann eine KI halluziniert, verzerrt oder am Thema vorbeischießt, wird zum Getriebenen in einer Welt, die eigentlich nie mehr Informationen, nie mehr Rechenleistung und nie mehr „smarte“ Tools hatte.
Und ja: Prompt-Engineering mag sich nach einer Superpower anhören, insbesondere wenn man sich die vielen Texte und Videos der KI-Influencer in den sozialen Medien ansieht. Dort sieht es immer so aus, als müsste man nur ein wenig „Zauberei“ beim Prompting betreiben, und schon macht die KI alles.
Aber Hand aufs Herz: die Qualität der Eingabe ist wertlos, wenn die Person dahinter nicht in der Lage ist, die Antwort einzuordnen. Es ist, als würde man ein Gourmetmenü bestellen, ohne zu wissen, ob der Burger, den man dann bekommt, nun Guormetessen oder Fastfood ist.
Umgang mit KI: Zwei weitere Fähigkeiten zur Unterstützung
Diese Urteilsfähigkeit fällt jedoch nicht vom Himmel. Sie lebt von zwei „Ermöglichern“, sogenannten „Enablern“, ohne die sie in der Praxis nicht funktioniert.
Zum einen wird noch Problemformulierung und Fragekunst benötigt. KI-Systeme sind fantastisch darin, uns genau das zu liefern, was wir gefragt haben – und gleichzeitig erbarmungslos darin, uns nicht das zu geben, was wir wirklich brauchen.
Wer nicht präzise denken kann, wer nicht versteht, wie man aus einer diffusen Ahnung eine klare Frage destilliert, ertrinkt in generischem Output. Die Frage ist nicht: „Was kann KI?“ Die Frage ist: „Was genau will ich, dass KI für mich löst – und warum?“
Ergänzend braucht es dann noch Daten- und Modellmündigkeit, neudeutsch „AI Literacy“. Es reicht nicht, zu wissen, dass KI „irgendwas mit Machine Learning“ macht. Wer im KI-Zeitalter bestehen will, muss verstehen, woher die Daten kommen, welche blinden Flecken ein Modell hat, wie Bias entsteht und warum ein 99 Prozent wahrscheinliches Ergebnis immer noch falsch sein kann.
Das ist keine Nerd-Nische oder eine Domäne, die schnell mal den Technikern überlassen wird. Meiner Meinung nach ist das vielmehr Überlebenswissen. AI-Literacy bedeutet somit nicht, selbst Modelle zu trainieren, sondern zu verstehen, wann man einem Modell trauen darf – und wann nicht.
Die gefährlichste Illusion von allen
Viele werden jetzt sagen: „Aber KI wird doch immer besser, in ein paar Jahren brauchen wir das alles nicht mehr.“ Das ist die gefährlichste Illusion von allen. Je besser KI wird, desto verführerischer wird es, ihre Ergebnisse ungeprüft zu übernehmen.
Das ist kein Zukunftsszenario, das ist jetzt schon Realität – vom Copywriter, der ChatGPT-Textbausteine blind in Kundenkampagnen übernimmt, über eine Ärztin, die eine KI-Diagnose nur noch abnickt, weil sie in 95 Prozent der Fälle stimmt (in den anderen 5 Prozent aber zu Katastrophen geführt haben, dies aber eben nicht in der KI-Antwort auftauchte, weil danach nicht gefragt wurde).
Bis hin zu Anwälten, die von ChatGPT zitierte Gerichtsurteile in ihre Schriftsätze übernehmen, ohne dass es diese Urteile jemals gab, sie sich aber “gut anhören“ und so zitiert sind, dass sie echten Urteilen ähneln.
Fazit: Die wichtigste Fähigkeit im Umgang mit KI
Urteilsfähigkeit unter Unsicherheit ist in meinen Augen nicht nur eine Kompetenz wie jede andere, sie ist meiner Meinung nach die Kernkompetenz, die es JETZT zu entwickeln beziehungsweise zu stärken gilt. Sie ist das, was den Menschen Relevanz behalten lässt, wenn alles andere automatisiert wird.
KI kann uns schneller, effizienter, vielleicht sogar kreativer machen – aber nur, wenn wir den Mut haben, nicht jede Ausgabe als Wahrheit zu schlucken. Im Zeitalter der KI gibt es Millionen generischer Aussagen und Antworten. Aber Denken als Grundlage von Urteilsfähigkeit, wird immer seltener.
Auch interessant: