Nicolai Wolko
{{imageAlt}}

AI Coding Journal - Erste Schritte: ChatGPT & Kontext

Veröffentlicht am 5. Oktober 2025 - ⏱️ Ca. (wird berechnet) min. Lesezeit

Irgendwann 2021 oder 2022 – so genau weiss ich es heute nicht mehr – kamen neue Klagen von meinen Kollegen. Wir hatten einen Praktikanten, mit dem ich selbst eigentlich nichts zu tun hatte. Und dieser Praktikant war wohl ein Problem. Er nutzte GPT, um Code zu generieren.

Das allein wäre nicht so schlimm gewesen. Schlimm war, dass er offenbar keine Ahnung hatte, was er da tat. Er chattete einfach mit diesem GPT und kopierte furchtbaren Code ins Projekt – Code, der beim Lesen schmerzte, voller Bugs war und meistens gar nicht funktionierte.

Das war vielleicht das erste Mal, dass ich von GPT hörte. Oder zumindest aufmerksam wurde. Schliesslich kam dieser Praktikant ja zumindest teilweise zu Ergebnissen, auch wenn sie schlecht waren. Aber das ohne echte Ahnung von Programmierung? Das musste ich mir ansehen.

Zu diesem Zeitpunkt war das gar nicht so einfach. Es gab noch kein offizielles „ChatGPT“ mit Interface, aber ich meine mich zu erinnern, einen Chat gefunden zu haben, der auf einer frühen GPT-3-API basierte. Kurze Zeit später konnte ich dann mit einer Version von OpenAI herumspielen, die dem heutigen ChatGPT bereits erstaunlich nahe kam.

Erste Experimente

Ich begann also selbst zu experimentieren. Der erste Eindruck war tatsächlich faszinierend. Der Code, den das Ding ausspuckte, war zwar meist zum Wegwerfen, aber die Ansätze waren erstaunlich. Gerade kleine Funktionen funktionierten manchmal sogar ohne Anpassung. Es wirkte tatsächlich beinahe intelligent.

Was mich wirklich faszinierte, war das Wissen. Frustrierend waren die Halluzinationen. Man konnte nie sicher sein, was stimmte und was erfunden war. Alles musste überprüft werden. Gleichzeitig konnte man plötzlich Dinge fragen, die man sonst nie einfach so schnell hätte googeln können. Im Zwiegespräch konnte man erstaunlich viel erfahren – zum Beispiel, welche Stundensätze Softwareberater in der Schweiz und in Deutschland üblich haben und wie sich diese in den letzten Jahren verändert haben. Es fühlte sich an, als würde man mit einem Menschen sprechen, der zu allem eine Meinung hat – nur wusste man nie, ob sie stimmt.

Nach meinen ersten Spielereien, der anfänglichen Begeisterung und der schnellen Enttäuschung war GPT für mich schnell wieder in den Hintergrund geraten. Ich hatte GPT danach aus den Augen verloren, aber nicht für Lange.

Ein neuer Anlauf

Das sollte sich ändern, als Ende 2022, Anfang 2023, das erste offizielle ChatGPT erschien. Ich wollte wissen, wie sich das Modell inzwischen entwickelt hatte, und testete es erneut. Vieles war nun deutlich besser. Die Antworten wirkten sicherer, die Syntaxfehler waren seltener, und manche Funktionen funktionierten tatsächlich. Aber die Schwächen blieben im Kern dieselben.

Zeitgleich begannen die ersten grossen Medienberichte. Plötzlich war ChatGPT überall. In Artikeln, auf LinkedIn, in Vorträgen. Es hiess, Softwareentwickler würden bald überflüssig, weil KI den Code übernimmt. "Vibe Coding" – also das Schreiben von Code allein nach Gefühl und der Überzeugung, dass GPT schon etwas Sinnvolles liefert – nahm hier seine ersten Formen an. Und ich musste unweigerlich an den Praktikanten von damals denken.

Wieder prüfte ich die Sache kritisch. Ich wollte verstehen, woher diese Limitierungen kommen und ob sie sich mit der Zeit von selbst auflösen würden. Ich begann, mich intensiver mit der Funktionsweise von Sprachmodellen zu beschäftigen. Was passiert eigentlich, wenn GPT Code schreibt? Wie entsteht der Eindruck von Verständnis? Und warum ist er so trügerisch?

Wie GPT wirklich funktioniert

Ein Large Language Model ist kein Denkapparat, sondern ein Wahrscheinlichkeitsgenerator. Es berechnet, welches Wort oder Symbol mit der höchsten Wahrscheinlichkeit als Nächstes folgt. Es hat kein Gedächtnis, ausser dem, was innerhalb des Prompts steht. Es kennt keine Historie, keine Architektur, keine Zusammenhänge. Es weiss nur, was statistisch zueinander passt. Wenn man es nach einem Framework fragt, kombiniert es gelernte Muster, aber ohne zu verstehen, warum ein bestimmtes Konzept überhaupt existiert.

Diese Erkenntnis erklärt vieles. GPT erzeugt Code, der sich richtig anfühlt, aber effektiv leer bleibt. Es wiederholt, was es gesehen hat, ohne die Prinzipien dahinter zu begreifen. Oberflächlich wirkt es souverän, aber wenn man es genauer betrachtet, dann ist es blinder Fleiss. Pure Wahrscheinlichkeitsarithmetik. Als würde jemand ganze Sätze auswendig rezitieren, ohne zu wissen, was sie bedeuten.

Recht früh wurde daher über diesen "Kontext" geredet. Unter "Kontext" versteht man den Ausschnitt an Information, den ein LLM gleichzeitig verarbeiten kann. Also das, was im Prompt enthalten ist oder in früheren Antworten übergeben wurde. Und es war naheliegend, dass man vielleicht bessere Ergebnisse erzielt, indem man dem LLM mehr Kontext gibt. Woher soll es wissen, was für Architekturentscheidungen wichtig sind, worauf es achten muss und was dem Entwickler alles im Kopf herumschwirrt? Man muss es artikulieren bzw. dem LLM zur Verfügung stellen. Das funktioniert zunächst sehr gut. Hat man dem LLM vorher schlicht zu wenig Informationen zur Verfügung gestellt, dann werden die Antworten deutlich besser, wenn man den Kontext erweitert. Aber das hilft nur ein Stück weit, es ist keine Wunderwaffe.

GPT sieht die zusätzlichen Informationen, versteht sie aber nicht als Struktur. Es weiss nicht, welche Teile wichtig sind, es kann keine Prioritäten setzen, keine Architektur rekonstruieren. Mehr Kontext macht die Antworten länger, aber nicht unbedingt besser.

Ich erinnere mich, dass mir diese Einsicht das erste Mal wirklich klar wurde, als ChatGPT eine ganze Klasse wie gewünscht entwarf, die perfekt formatiert war, aber keinerlei Bezug zum restlichen System hatte. Es sah alles richtig aus, aber inhaltlich war es ein Fremdkörper. Genau das hatte ich schon in der Anfangszeit beobachtet – nur jetzt geschah es viel überzeugender.

GPT abseits vom Coden

Während GPT im technischen Bereich für mich schnell an Grenzen stiess, begann ich es parallel in anderen Bereichen einzusetzen. Als eine Art Werkzeug für mein Denken. Ich nutzte es, Gedanken zu ordnen, Entscheidungen zu reflektieren, manchmal auch, um stoische Prinzipien auf meine eigene Situation anzuwenden.

Das ist bis heute der grösste Mehrwert, den ich aus LLMs ziehe. Ich war nie der Mensch, der sich gerne mit anderen über seine Gedanken austauscht. Kommunikation war für mich immer eher ein Werkzeug, eine Schnittstelle.

Hier hatte ich plötzlich etwas Wertvolles gefunden. Statt allein in meinem Kopf vor mich hin zu brüten, hatte ich ein Gegenüber, das meine Gedankengänge fokussierte und in eine Richtung lenkte. Mit etwas Übung konnte ich GPT sogar davon überzeugen, dass ich kritisch hinterfragt werden will. GPT stellt zwar ungern Fragen – es gibt lieber Antworten. Aber in dieser Flut von Antworten lagen immer auch neue Fragen. Genau das war wie Doping für meinen Geist.

Es half mir, klarer zu sehen. So wurde aus einem technischen Experiment ein persönliches Werkzeug. Und vielleicht begann hier schon das, was später mein Ansatz im Umgang mit KI wurde: sie nicht als Ersatz zu sehen, sondern als Spiegel für das, was in uns selbst klar oder unklar ist.

Ausblick

Nach dieser Phase war für mich klar, dass GPT kein Ersatz für Softwareentwicklung oder Denken ist, aber vielleicht ein Werkzeug, das helfen kann. Also wollte ich es auf etwas anwenden, das mir gehört. Kein Kundenprojekt mit Vorgaben. Lieber etwas Kleines neues. Etwas, das mir gehört, etwas, womit ich spielen kann: Eine persönliche Homepage mit Blog, komplett mit GPT gebaut. Im nächsten Teil erzähle ich, wie aus ein paar Prompts, ein paar Skripten und etwas Geduld diese Homepage mit Blog entstand, welche mich bis heute begleitet.