
Mit Cookies bieten wir Ihnen ein optimales Nutzererlebnis auf unserer Website. Um von allen Funktionen und personalisierten Inhalten zu profitieren, empfehlen wir, alle Cookies zu akzeptieren. So können wir Ihnen die bestmögliche Erfahrung bieten.
Durch Klicken auf "Alle akzeptieren" stimmen Sie der Verwendung aller Cookies zu und erhalten das beste Nutzererlebnis.
Autor
Noah Wiedemer
Veröffentlicht
01.04.2025
Lesedauer
10 Minuten
Bei Codana schreiben wir Code nicht mehr wie noch vor wenigen Jahren. Mittlerweile wird der Großteil unserer Anwendungen durch KI generiert. Was früher Wochen dauerte, dauert heute Tage oder sogar Stunden. KI ist für uns kein nettes Add-on, sondern ein zentraler Bestandteil unserer Entwicklungsprozesse. Sie ermöglicht uns, schneller, sicherer und effizienter zu arbeiten.
Nur weil KI den Großteil des Codes generiert, heißt das nicht, dass man keine Kontrolle über die Struktur und den Aufbau hat. Damit wir trotz hoher KI-Unterstützung die Struktur und Qualität unserer Anwendungen sichern, beschreiben wir sehr genau, wie einzelne Features implementiert werden sollen.
Die Qualität des Codes und wie viel Arbeit einem durch KI abgenommen wird, hängt stark von der Qualität der Prompts ab. Ein gut formulierter Prompt kann hunderte Zeilen soliden Code liefern – inklusive Tests, Dokumentation und Edge Cases. Wir investieren daher viel Zeit in die Schulung und den Austausch im Team rund um Prompt Engineering. (Sehr empfehlenswerter KI Coding Kurs: "Principled AI Coding" von "IndyDevDan")
Wir setzen auf Tools, die sich bewährt haben und nahtlos in unsere Dev-Prozesse integrieren lassen. Dazu gehören unter anderem:
Cursor: Eine KI-native IDE, die LLMs direkt ins Coding-Erlebnis integriert.
Claude 3.7 Thinking & Gemini 2.5 Pro: Zwei LLMs, die in puncto Kontextverständnis und Codequalität aktuell zu den besten am Markt gehören.
Wir passen unseren gesamten Tech-Stack gezielt an die Bedürfnisse des KI-Codings an. Das bedeutet: Fokus auf weit verbreitete Technologien mit guter Dokumentation und breitem Community-Support. Das ist ideal, da für weit verbreitete Technologien meist deutlich mehr Trainingsdaten vorhanden sind – und das Verständnis der KI dadurch in der Regel spürbar besser ist.
Ein echter Gamechanger: Seit kurzem setzen wir Model Context Protocols (MCPs) ein. Diese ermöglichen es unseren LLMs, direkt mit Tools und Systemen zu interagieren – sei es zur Bildgenerierung, zur automatischen Integration von Assets oder zum Zugriff auf Datenbanken für kontextbezogene Modelle. Dadurch können wir:
Datenmodelle automatisch auslesen & verarbeiten
dynamisch Inhalte generieren & einbinden
unsere Entwicklungszeit weiter reduzieren
MCPs sind für uns die Brücke zwischen KI-Vorschlag und echter Ausführung.
Künstliche Intelligenz ist längst mehr als nur ein Hype-Thema. Richtig eingesetzt, hilft sie dabei, Entwicklungsprozesse zu beschleunigen, Fehlerquellen frühzeitig zu erkennen und repetitive Aufgaben zu automatisieren. In unserem Alltag hat sie sich als hilfreiches Werkzeug etabliert, das viele kleine, aber wichtige Aufgaben übernimmt und damit wertvolle Zeit schafft.
Diese gewonnene Zeit nutzen wir gezielt, um die Qualität unserer Software zu verbessern – etwa durch intensiveres Testen, die Optimierung der User Experience oder den Fokus auf Security-Themen. So hilft uns KI nicht nur schneller zu entwickeln, sondern auch bessere Entscheidungen für stabile und nutzerzentrierte Anwendungen zu treffen.
Lust, dein nächstes Projekt in 3 Wochen statt in 3 Monaten umzusetzen? Dann melde dich bei uns.