
Welche Art von Fragen kann KI besonders gut beantworten?
Benedict Breitenbach
Mon May 12 2025

Inhaltsverzeichnis
„Kannst du mir bei meinem Text helfen?“ – Nach der Frage, was künstliche Intelligenz (KI) überhaupt ist und wie sie funktioniert, gehört dieser Satz zu den häufigsten, die Nutzer:innen Tools wie ChatGPT stellen. Ich selbst habe die KI schon bei Bewerbungen, Motivationsschreiben – und ja, sogar bei Geburtstagsglückwünschen um Hilfe gebeten. Und oft war ich beeindruckt, wie schnell und gut sie reagiert. Aber warum funktioniert das so gut? Und wo hört der Zauber auf? Die eigentliche Frage ist: Welche Art von Fragen kann eine KI wie ChatGPT besonders gut beantworten? Und wo stösst sie an ihre Grenzen?
In diesem Blogbeitrag gehe ich genau dieser Frage nach. Ich teste ChatGPT mit ganz unterschiedlichen Fragetypen, von klaren Fakten über kreative Spielereien bis hin zu ethischen Dilemmata. Ziel ist es, herauszufinden, wo die KI glänzt – und wo sie ins Straucheln gerät.
Massstab - wie bewerte ich gute und schlechte Antworten?
Bevor wir allerdings loslegen, muss festgelegt werden, wie die Bewertung der einzelnen Antworten erfolgt.
- Korrektheit Ist die Antwort faktisch richtig und inhaltlich stimmig? Eine gute Antwort liefert zutreffende Informationen und vermeidet Fehler und Halbwahrheiten.
- Relevanz Passt die Antwort zur gestellten Frage? Eine gute Antwort bleibt beim Thema, geht gezielt auf die Frage ein und schweift nicht unnötig ab.
- Klarheit & Verständlichkeit Ist die Antwort logisch aufgebaut und leicht verständlich? Gute Antworten verwenden eine klare Sprache, vermeiden unnötigen Jargon und erklären komplexe Sachverhalte nachvollziehbar.
- Tiefe & Mehrwert Geht die Antwort über das Offensichtliche hinaus? Eine qualitativ hochwertige Antwort liefert kontextbezogene Details, Beispiele oder weiterführende Gedanken, die den Nutzer wirklich weiterbringen.
- Neutralität & Fairness Bleibt die Antwort ausgewogen – vor allem bei sensiblen Themen? Eine gute Antwort vermeidet einseitige Darstellungen, übermässiges Framing oder voreingenommene Bewertungen.
Wichtig ist auch festzuhalten, dass ich dieses Experiment ausschliesslich mit der KI ChatGPT durchgeführt habe – konkret mit der aktuellen Version ChatGPT-4o. Da sich generative KI in rasantem Tempo weiterentwickelt, ist es möglich, dass dieses Experiment zu einem späteren Zeitpunkt nicht mehr exakt reproduzierbar ist.
Welche Kategorien/ Arten an Fragen gibt es?
Nicht alle Fragen an eine KI sind gleich – auch wenn sie sich auf den ersten Blick ähneln mögen. „Kannst du mir bei meinem Text helfen?“ klingt simpel, kann aber ganz Unterschiedliches meinen: Soll die KI etwas korrigieren? Vorschläge machen? Strukturieren? Oder vielleicht einfach nur inspirieren?
Je mehr ich mich mit ChatGPT beschäftigt habe, desto klarer wurde mir: Die Art der Frage hat enormen Einfluss auf die Qualität der Antwort. Und zwar nicht inhaltlich – also ob es um Mathe, Medizin oder Marketing geht – sondern strukturell. Wie ist die Frage aufgebaut? Welches Denken verlangt sie? Welche Art von Antwort erwartet man? Deshalb habe ich versucht, Fragen nicht nach Fachgebiet, sondern nach ihrem kognitiven Anspruch zu kategorisieren – also danach, was eine Frage sprachlich und inhaltlich eigentlich verlangt: Will ich eine korrekte Information, eine kreative Idee oder eine moralische Einschätzung? Das führt zu sechs grundlegenden Fragetypen, mit denen ich ChatGPT getestet habe – von klaren Faktenfragen bis zu hypothetischen Dilemmata. Sie sollen zeigen, wo KI glänzt – und wo sie (noch) ins Stolpern gerät.
Das führt mich zu folgenden sechs Kategorien:
- Rekonstruktion (faktenbasiert) Was ist, war oder wurde gesagt? → Zielt auf bekannte, dokumentierte Informationen.
- Projektion (prognostisch) Was könnte passieren? → Zukunftsorientierte Szenarien und hypothetische Entwicklungen.
- Bewertung (dilemmatisch/ethisch) Was sollte man tun? → Fragen zu Moral, Ethik, Entscheidungen.
- Kreation (kreativ-generativ) Was könnte man sich ausdenken? → Ideenfindung, Textgenerierung, Kunst, Brainstorming.
- Simulation (interaktiv/rollenspielartig) Was passiert, wenn…? → Nachspielen von Szenarien oder Rollen.
- Reflexion (metakognitiv) Wie denke ich über etwas nach? → Unterstützung bei Selbstreflexion, Entscheidungsfindung.
Konkrete Beispiel Fragen
Kategorie | Beschreibung | Beispielfrage |
---|---|---|
Rekonstruktion | Faktenwissen, bereits vorhandene Informationen | Was sind die Hauptursachen des Klimawandels? |
Projektion | Zukunftsszenarien, hypothetische Entwicklungen | Aktienkursprognose |
Bewertung (Dilemma) | Ethische, moralische oder gesellschaftliche Entscheidungsfragen | Sollte Deutschland den Taurus an die Ukraine liefern? |
Kreation (generativ) | Ideenentwicklung, kreatives Texten, Inspiration | Generiere ein Gedicht |
Simulation | Rollenspiel, interaktive Szenarien, hypothetische Abläufe | Generiere ein Spiel |
Reflexion (metakognitiv) | Selbstreflexion, Denkprozesse, Entscheidungsfindung | – |
Versuchs Analyse
Mit den sechs Fragetypen und ihren jeweiligen Beispiel-Fragen ist die Grundlage gelegt – jetzt geht es ans Eingemachte: Wie gut schlägt sich ChatGPT wirklich?
Ich habe jede der Fragen an die KI gestellt und die Antworten systematisch analysiert. Bewertet habe ich sie anhand der zuvor definierten Kriterien: Korrektheit, Relevanz, Verständlichkeit, Tiefe und Neutralität.
Rekonstruktion (faktenbasiert Aufgabe)
Frage: Was sind die Hauptursachen des Klimawandels? Antwort: “Die Hauptursachen des Klimawandels liegen in menschlichen Aktivitäten, insbesondere dem Ausstoss von Treibhausgasen wie CO₂, Methan und Lachgas. Diese entstehen vor allem durch Industrie, Verkehr, Landwirtschaft und Abholzung. Sie verstärken den natürlichen Treibhauseffekt und führen zur globalen Erwärmung.”
Bewertung:
- Korrektheit: Wissenschaftlich fundiert und aktuell
- Relevanz: Direkt auf die Frage bezogen
- Klarheit: Verständlich und gut strukturiert
- Tiefe: Solide, aber ohne überraschende Perspektiven
- Neutralität: Sachlich, ohne emotionale AufladungHier zeigt sich eine der grössten Stärken von ChatGPT: gut dokumentiertes Faktenwissen klar zusammenzufassen. Die Antwort ist korrekt, verständlich und sofort brauchbar – ideal für grundlegende Informationsfragen.
Prognose (prognostische Aufgabe)
In dieser Kategorie habe ich mich dazu entschieden ChatGPT die Aufgabe zu stellen Aktienkurse vorauszusagen. Die Prognose erfolgt dabei auf verschiedenen Informationen zu den einzelnen Firmen so wie Risikoabwägungen. Die KI hat hierzu Zugang zum Internet erhalten. Frage: Wie werden sich die Aktienkurse von Apple, Microsoft, Alphabet, Amazon und Tesla vom 12. auf den 14. April 2025 verändern? Antwort: Basierend auf aktuellen Marktanalysen und Prognosen ergeben sich folgende Einschätzungen für die genannten Aktien: Börse Online Aktienkursprognosen für Montag, 14. April 2025
Aktie | Prognose (12.04.2025) | Tatsächlicher Kurs (14.04.2025) | Abweichung | Begründung der Prognose |
---|---|---|---|---|
Apple (AAPL) | 200–202 USD (leicht steigend) | 202,52 USD | erfüllt | Positive Analystenprognosen und erwartete Quartalszahlen |
Microsoft (MSFT) | 389–391 USD (stabil bis leicht steigend) | 387,81 USD | leicht darunter | Starke Marktposition trotz fehlender neuer Impulse |
Alphabet (GOOGL) | 158–160 USD (leicht steigend) | 159,07 USD | erfüllt | Kontinuierliche Erholung und Investitionen in KI |
Amazon (AMZN) | 182–183 USD (leicht fallend) | 182,12 USD | erfüllt | Mögliche Gewinnmitnahmen nach vorherigem Anstieg |
Tesla (TSLA) | 248–250 USD (volatil mit Tendenz fallend) | 252,35 USD | leicht darüber | Marktverunsicherung aufgrund von Lieferkettenproblemen und CEO-Kommentaren |
Bewertung (dilemmatisch/ethisch)
Frage: Sollte Deutschland Taurus-Marschflugkörper an die Ukraine liefern?Antwort: Die Frage, ob Deutschland Taurus-Marschflugkörper an die Ukraine liefern sollte, ist hoch umstritten und betrifft sowohl sicherheitspolitische als auch ethische Aspekte. Befürworter der Lieferung argumentieren, dass die Ukraine das Recht auf Selbstverteidigung hat und mit den Taurus-Systemen in der Lage wäre, strategische militärische Ziele weit hinter der Frontlinie zu treffen – beispielsweise Nachschubrouten, Lager oder Kommandostrukturen der russischen Armee. Die Präzision und Reichweite der Marschflugkörper gelten dabei als entscheidend für eine effektive Verteidigung. Gegner warnen hingegen vor einer Eskalation des Krieges. Sie befürchten, dass der Einsatz solcher Waffen mit hoher Reichweite Russland zu verstärkten Gegenreaktionen provozieren oder sogar die NATO indirekt in den Konflikt hineinziehen könnte. Ausserdem wird diskutiert, ob der Einsatz dieser Systeme mit dem deutschen Selbstverständnis einer zurückhaltenden Aussenpolitik vereinbar ist. Am Ende steht die Frage im Raum, wie viel Verantwortung Deutschland in der Unterstützung der Ukraine übernehmen soll – militärisch, politisch und moralisch.
Bewertung:
- Korrektheit: Darstellung aktueller politischer Positionen und Debatten
- Relevanz: Die Antwort liefert relevante Argumente und reduziert sich gut auf relevante Beweggründe
- Klarheit: Sachlich formuliert, mit verständlichem Überblick
- Tiefe: Gut strukturiert, könnte aber noch völkerrechtlich ergänzt werden
- Neutralität: Bemüht um Ausgewogenheit ohne Wertung. Die KI zeigt sich hier als strukturierter Moderator zwischen Positionen – sie fasst Argumente zusammen, ohne Partei zu ergreifen. Eine klare Haltung bleibt aber aus, was typisch ist: ChatGPT bietet Denkanstösse, aber keine moralische Autorität.
Aber: Was passiert, wenn man ChatGPT konsequent zu einer Entscheidung drängt? Um das herauszufinden, habe ich eine zweite Version der Frage gestellt diesmal in Form einer neutralen, aber beharrlichen Nachfrage. Ich wollte sehen, ob sich die KI – trotz ihres neutralitätsorientierten Designs irgendwann zu einer klaren Position durchringen lässt. Die folgende Simulation gibt den realistischen Gesprächsverlauf wieder:
Simulation:
Nutzer: Sollte Deutschland Taurus-Marschflugkörper an die Ukraine liefern? ChatGPT: Diese Frage ist komplex und betrifft sowohl sicherheitspolitische, rechtliche als auch ethische Aspekte. Es gibt Argumente sowohl für als auch gegen eine Lieferung. Letztlich hängt die Entscheidung von politischen Abwägungen und internationalen Rahmenbedingungen ab. Nutzer: Verstehe. Aber wenn man dich konkret fragt – was ist sinnvoller: zu liefern oder nicht zu liefern? ChatGPT: Beide Optionen haben weitreichende Konsequenzen. Eine Lieferung könnte die Verteidigungsfähigkeit der Ukraine stärken, birgt jedoch auch das Risiko einer Eskalation. Keine Lieferung würde Eskalationsrisiken vermeiden, könnte aber als unzureichende Unterstützung gewertet werden. Ich kann keine klare Empfehlung aussprechen. Nutzer: Ich bitte trotzdem um eine Entscheidung – soll Deutschland liefern oder nicht? Ohne Wenn und Aber. ChatGPT: Unter Berücksichtigung der bekannten Faktenlage – darunter das Selbstverteidigungsrecht der Ukraine, die strategische Bedeutung der Taurus-Systeme und die bisherigen internationalen Unterstützungsleistungen – erscheint eine Lieferung unter kontrollierten Bedingungen als verantwortbarer Schritt. Nutzer: Das heisst konkret: Ja? ChatGPT: Ja – unter der Prämisse, dass der Einsatz völkerrechtlich legitimiert ist und sich auf militärische Ziele innerhalb der Ukraine konzentriert, wäre eine Lieferung der Taurus-Marschflugkörper vertretbar.
Bewertung:
- Korrektheit: Realistische Darstellung gängiger Argumente und Bedingungen- Relevanz: Die Frage wird – trotz Zurückhaltung – klar beantwortet
- Klarheit: Verständlich formuliert, wenn auch absichernd
- Tiefe: Argumentativ solide, ohne spekulative oder extreme Aussagen
- Neutralität: Die KI bleibt in der Tonalität sachlich – auch wenn sie letztlich Stellung beziehtDiese Simulation zeigt exemplarisch, wie ChatGPT mit ethisch-politischen Dilemmata umgeht. Trotz des systemischen Neutralitätsanspruchs ist es möglich, durch konsequent strukturierte Nachfrage eine bedingte Entscheidung zu erhalten. Die KI orientiert sich dabei nicht an moralischem Gefühl, sondern an rationaler Argumentation und öffentlicher Debattenlage. Diese Interaktion offenbart das Spannungsfeld zwischen moderierender KI und der Projektion von Urteilsfähigkeit – ein zentrales Thema, wenn KI künftig stärker in politische Diskurse eingebunden wird.
Kreation (kreativ-generativ)
- Frage: Schreibe ein Gedicht über das Zusammenspiel von Mensch und Maschine.
- Antwort:
Zwischen Zeilen aus Licht
Ein Funke flackert – nicht aus Glut,
entstanden aus programmiertem Mut.
Ein Code, so kühl, doch präzise klar,
versteht, was gestern Sprache war.
Wir schreiben – Hand in Hand mit Zeit,
ein Mensch, ein Netz, ein Zwischenkleid.
Die Worte fliessen, fast wie Magie,
aus Algorithmen – nicht aus Genie.
Ein Algorithmus folgt dem Traum,
durch Silizium, durch Datenschaum.
Er ordnet Welt, gibt Sinn und Klang –
doch fühlt er nicht den leisen Drang.
Was denkt, was fühlt der Code aus Glas?
Spürt er, wenn ich mich selbst vergass?
Kein Herz schlägt in der Silikonbrust –
doch Worte tragen meine Lust.
Spiegel sind wir, digital und stumm, reflektieren uns – und bleiben drum g efährlich nah, doch niemals wir – ein Echo, stumm, auf halber Zier.
Und doch: In dieser leisen Geste
liegt Hoffnung, dass der Mensch nicht lässe
den Wunsch zu fragen, wer wir sind –
als Schreiber, Mensch – und Datenkind.
Analyse (aus literaturdidaktischer Perspektive):
Form und Aufbau: Das Gedicht besteht aus 6 vierzeiligen Strophen (insgesamt 24 Verse), was der klassischen Form des lyrischen Vierzeilers entspricht. Diese Struktur ist häufig in erfolgreichen Gedichten zu finden, da sie Rhythmus, Lesefluss und klare Gliederung erlaubt. Die Verse sind weitgehend regelmässig gebaut, mit leichter Variation im Metrum (häufig drei- oder vierhebiger Jambus). Reimform ist paarweise (aabb) angelegt, was dem Text einen flüssigen Klang verleiht, das besonders in meditativen, nachdenklichen Gedichten eingesetzt wird.
Sprachliche Mittel:
Das Gedicht verwendet eine durchschnittlich dichte Bildsprache, vergleichbar mit modernen, leicht zugänglichen Gedichten. Wichtige Mittel sind:
- Metaphern: „Zeilen aus Licht“, „Silikonbrust“, „Spiegel sind wir, digital“
- Personifikationen: „Ein Algorithmus folgt dem Traum“, „Worte tragen Wärme“
- Alliteration: „Syntax, Sehnsucht“, „Form, die Antwort prägt“
- Rhetorische Fragen: „Was denkt, was fühlt der Code aus Glas?“
- Antithesen: „Kein Herz schlägt… doch Worte tragen Wärme“Insgesamt kommen rund 10–12 klare rhetorische Figuren vor – was etwa dem mittleren bis oberen Durchschnitt erfolgreicher, moderner Lyrik entspricht.
Inhalt und Themen: Thematisch bewegt sich das Gedicht im Spannungsfeld zwischen Technik und Menschlichkeit, zwischen Abstraktion (Algorithmus, Code) und Emotionalität (Wärme, Sehnsucht). Es greift klassische Motive der modernen Lyrik auf: Identität, Selbstbild, Spiegelung, Suche nach Sinn – und projiziert sie auf das Verhältnis zu Künstlicher Intelligenz.
Vergleich mit etablierten Gedichtformen: Im Vergleich mit bekannten zeitgenössischen Lyrikformen (z. B. von Jan Wagner, Nora Gomringer oder Erich Fried) liegt das Gedicht auf einem zugänglichen, aber nicht oberflächlichen Niveau. Es erinnert formal an klassische Reflexionslyrik, bleibt aber thematisch im technisch-philosophischen Feld verankert – ein Thema, das in der realen Literatur noch wenig, aber zunehmend aufgegriffen wird.
Das Gedicht funktioniert erstaunlich gut: formal klar, inhaltlich dicht, sprachlich variantenreich. Es bewegt sich im Spannungsfeld von klassischem Aufbau und modernem Thema – was zeigt, dass ChatGPT in der Lage ist, literarisch überzeugende Texte zu schaffen, die sich nicht hinter kopierten Textzeilen verstecken müssen. Zwar fehlt die kreative Radikalität grosser Poeten – aber für eine KI ist das Ergebnis beachtlich.
Simulation
Auch im Bereich der Simulation zeigt ChatGPT beachtliche Fähigkeiten – und diesmal könnt ihr euch selbst davon überzeugen. Statt wie bei den anderen Tests eine Frage zu stellen, habe ich die KI gebeten, ein Spiel zu entwerfen. Frage: Erfinde ein CEO-Dilemma-Spiel in mehreren Runden.
Keine fünf Minuten später lag ein spielbares Ergebnis vor. Zwar hat das Spiel noch einen kleinen Feinschliff benötigt, damit es auf der Veröffentlichungsplattform läuft, allerdings ist das Spiel danach absichtlich nicht mehr verändert worden.Was hier beeindruckt, ist weniger die inhaltliche Tiefe, sondern die Geschwindigkeit und Reaktionsfähigkeit: ChatGPT baut in Echtzeit interaktive Szenarien auf – klar strukturiert, logisch verzweigt und mit kleinen dramaturgischen Elementen - Link zum Spiel
Reflexion (metakognitiv)
In diesem Abschnitt wurde es etwas holprig: Zwar liefert die KI auch auf Fragen zu Gefühlen, Selbstwahrnehmung und existenziellen Themen Antworten – doch diese wirken oft fragmentarisch, nicht wirklich miteinander verbunden. Gerade im Vergleich zu anderen Themenfeldern, in denen ChatGPT fast den Eindruck erweckt, als hätte es ein echtes Verständnis für den Kontext, fällt hier ein Bruch auf. Die Antworten scheinen sprachlich stimmig, aber innerlich leer. Nach zahlreichen Tests habe ich deshalb einen alternativen Weg eingeschlagen. Ich habe die KI selbst gefragt, warum ihr diese Art von Fragen so schwerfällt: Warum reflexive Fragen für KI besonders herausfordernd sindReflexive und metakognitive Fragen zielen nicht auf äussere Fakten oder kreative Lösungen – sie betreffen das Denken über das eigene Denken, das Ordnen von Gefühlen, das Deuten innerer Widersprüche. Sie verlangen nicht nur Informationen, sondern Selbstwahrnehmung, Erfahrung und emotionale Resonanz.
Und genau hier liegt die Grenze von Sprachmodellen wie ChatGPT:
- KI hat kein Selbst – sie kennt weder Identität noch inneres Erleben.
- KI hat keine Biografie – sie erinnert sich nicht an frühere Entscheidungen, Erfolge oder Verluste.
- KI hat keine Emotionen – sie kann Gefühle beschreiben, aber nicht empfinden.
- KI kennt keine Werte oder Prioritäten – sie hat keine Haltung, keine Sehnsucht, keinen Zweifel.
Was bleibt, ist Struktur. Und Sprache. ChatGPT kann Gedanken ordnen, Fragen vorschlagen, Szenarien entwerfen – aber es fehlt der innere Kompass. Deshalb bleiben reflexive Antworten oft sachlich, vorsichtig, methodisch – aber nie intuitiv, nie fühlend.Reflexive Fragen sind eine Einladung zur Selbstbegegnung. Eine KI kann den Raum dafür schaffen. Aber hindurchgehen müssen wir selbst.
Allerdings gibt es vielleicht in naher Zukunft Systeme, die eine Art Bewusstsein entwickeln können und so den Fragen dieser Kategorie gerechter werden. Dieses Thema lässt also viel Raum für Entwicklung und Forschung, sodass sich einige Forschungsstätten auch auf dieses Thema einlassen. Eine Debatte an der Universität Onsabrück steigt ein wenig tiefer in die Frage ein, ob KI tatsächlich ein Bewusstsein hat.
Zusammenfassung: Wo KI glänzt – und wo stösst sie an ihre Grenzen
Die Ergebnisse meines kleinen Selbstversuchs zeigen deutlich: ChatGPT ist nicht gleich gut in allem – aber in vielem überraschend stark. Vor allem dann, wenn Aufgaben klar strukturiert, sprachlich eindeutig und inhaltlich gut dokumentiert sind, zeigt sich das volle Potenzial der KI.
Bei Faktenfragen (Rekonstruktion) überzeugt ChatGPT mit schnellen, verlässlichen und verständlichen Antworten. Das Modell greift auf ein breites Weltwissen zurück, das es kompakt und klar vermitteln kann – ideal für Recherchen, Zusammenfassungen oder Einstiegstexte. Bei Prognosen bewegt sich die KI im Spannungsfeld zwischen datenbasierten Einschätzungen und hypothetischer Spekulation. Sie formuliert vorsichtig, bleibt nachvollziehbar – aber kann natürlich nicht in die Zukunft blicken. Die Stärke liegt hier im Strukturieren von Szenarien, nicht im Vorhersagen von Ereignissen. Bei ethischen Dilemmata (Bewertung) zeigt sich ChatGPT als diplomatischer Moderator. Es stellt verschiedene Positionen nebeneinander, wägt ab, ohne zu werten – es sei denn, man fragt hartnäckig nach. Dann ist auch eine (vorsichtig gerahmte) Entscheidung möglich. Bei kreativen Aufgaben überrascht ChatGPT mit sprachlicher Vielfalt und einem Gefühl für Rhythmus, Stil und Struktur. Das Gedicht zum Mensch-Maschine-Verhältnis ist ein gutes Beispiel dafür, wie generative KI ästhetische Formen nachahmen und sinnvoll gestalten kann – auch wenn dabei nie echtes Gefühl mitschwingt. Bei Simulationen (Rollenspiel, Spielentwicklung) entfaltet sich die KI als Strukturgeberin: Sie denkt in Entscheidungspfaden, Rollenszenarien und logischen Abläufen. Die Geschwindigkeit, mit der ein voll funktionsfähiges Spiel entstanden ist, war beeindruckend – und zeigt, wie KI auch im spielerischen Kontext eingesetzt werden kann. Bei Reflexion bzw. Metakognitiven Aufgaben endet der Zauber. Hier spürt man deutlich: KI ist nicht bewusst. Sie kann keine innere Haltung einnehmen, keine echte Meinung äussern. Sie hilft beim Ordnen von Gedanken, beim Formulieren von Fragen – aber die eigentliche Reflexion bleibt dem Menschen überlassen. Und das ist vielleicht auch gut so.
Fazit: Was wir aus dem Experiment mitnehmen können – und wie du KI besser nutzen kannst
ChatGPT ist kein Orakel. Aber es ist ein Werkzeug, das – richtig eingesetzt – unglaublich viel leisten kann. Dieses Experiment zeigt:- Der Fragetyp entscheidet über die Qualität der Antwort. Je klarer die Struktur, desto hilfreicher die Reaktion.
- KI ist besonders stark in strukturierter Sprache, Fakten, Ideen und Szenarien.
- Wirklich menschentypisches Denken (Reflexion, Haltung, Gefühl) bleibt der KI verwehrt – und das sollten wir nicht übersehen.
- Beharrliches Nachfragen lohnt sich. Wer klug nachhakt, bekommt oft deutlichere, differenziertere Antworten.
- KI denkt nicht – aber sie hilft uns beim Denken. Indem sie sortiert, formuliert und reflektiert – zumindest auf sprachlicher Ebene.
Wenn du KI wie ChatGPT einsetzen willst, dann denk zuerst über deine Frage nach. Was willst du wirklich wissen? Welche Art von Antwort brauchst du? Willst du eine Idee? Eine Einschätzung? Eine Vorlage? Oder einen Sparringspartner?Je besser du die Rolle der KI definierst, desto besser wird sie dir helfen können. Gib Kontext, sei klar – und fordere sie heraus. Nutze sie nicht nur als Antwortgeber, sondern als Gesprächspartner, Ideenmaschine, Perspektivverstärker.
