How to Craft Killer Prompts für LLMs
Created: 2025-05-05
Damit die KI nicht rät, sondern rockt
LLMs sind keine Gedankenleser. Wenn deine Prompts so vage sind wie ein "Mach mal was Cooles", kriegst du bestenfalls Mittelmaß. Hier die Regeln, um das Maximum rauszuholen:
Grundregeln
_Das LLM ist kein Mindreader
Schreib klar, was du willst – nicht nur das "Was", sondern auch das "Wie", "Für wen", und "Warum".
_Schlecht: "Schreib einen Bericht über Klimawandel."
_Mega: "Schreib einen 500-Wörter-Bericht für Manager, der die wirtschaftlichen Risiken des Klimawandels in der Logistikbranche ab 2030 erklärt. Nutze Statistiken und Beispiele aus der EU."
_Mehr Infos = Bessere Antworten
LLMs liefern nur so gut wie der Input. Packe rein:
-
Kontext (Zielgruppe, Zweck, Branche)
-
Format (Blogpost, Python-Code, Bulletpoints)
-
Stil (professionell, locker, sachlich)
-
Harte Limits (Zeichen, Tabellenformate, Code-Sprachen)
_Struktur ist King
Chaotische Prompts = Chaotische Ergebnisse. Organisiere deine Anfrage mit:
-
XML-Tags (z. B. <task>...</task>, <example>...</example>)
-
Abschnitten (Ziel, Anforderungen, Beispiele)
-
Aufzählungen (Für Prioritäten oder Schritt-für-Schritt-Anweisungen)
Elemente einer Top-Prompt
Hier die wichtigsten Bausteine von starken Prompts, sortiert nach Priorität:
_Ziel
- Definiert den Kernauftrag
- "Erstelle eine SWOT-Analyse für Startup X im EdTech-Bereich."
_Kontext
- Hintergrundwissen für relevante Antworten
- "Das Startup nutzt KI-gestützte Lernpfade für Schüler in der EU."
_Anweisungen
- Steuert den Lösungsweg
- "Beginne mit einer Marktanalyse, dann identifiziere Stärken/Schwächen."
_Format
- Struktur der Antwort
- "Antworte als Tabelle mit den Spalten Risiko, Wahrscheinlichkeit, Auswirkung."
_Beispiele
- Zeigt konkrete Muster für Stil/Qualität
- "Siehe Beispielantwort: [Beispiel einfügen]"
_Abgrenzung
- Verhindert irrelevante/ungeeignete Inhalte
- "Keine technischen Details – Zielgruppe ist die Geschäftsführung."
_Referenzen
- Quellen, auf die sich die KI stützen soll
- "Nutze Daten aus dem Jahresbericht 2023 auf Seite 12."
_Persona
- Rolle, die der LLM einnehmen soll
- "Antworte als erfahrener Data Scientist mit Schwerpunkt NLP."
_Ethik/Grenzen
- Minimierung von Halluzinationen/Bias
- "Wenn unsicher, antworte mit 'Daten nicht verfügbar'."
Modell-Typen: Wann nutze ich was?
_"Normale" Modelle (z. B. GPT-4o, Deepseek v3):
-
Einsatz: Standardtasks wie Texte schreiben, Code-Generierung, schnelle Recherche, einfache Analysen.
-
Beispiel: "Generiere eine Python-Funktion, die Daten aus einer CSV-Datei filtert und als JSON exportiert."
_"Thinking"-Modelle (z. B. GPT-o1, Deepseek R1):
-
Einsatz: Komplexe Logik, strategische Planung, kreative Lösungen (z. B. "Entwirf eine Go-to-Market-Strategie für Produkt X in einem regulierten Markt").
-
Stärke: Langsamer, aber durchdachter – ideal für Probleme mit vielen Variablen.
_Multimodale LLMs (z. B. GPT-4o, GPT-4V):
-
Einsatz: Verarbeiten und Kombinieren verschiedener Medienformate (Text, Bilder, Audio, Video, Tabellen) für vielseitige Aufgaben.
-
Beispiel: "Analysiere diese Tabelle und erstelle eine grafische Zusammenfassung als Diagramm."
-
Tipp: Für multimodale Tasks immer explizit angeben, welche Medienformate genutzt werden sollen!
Prompt-Formate: Experimentierfreude zahlt sich aus
_Zero-Shot vs. Few-Shot Prompting
-
Zero-Shot: "Erkläre Quantencomputing in 3 Sätzen."
-
One-Shot: "Erkläre Quantencomputing. Beispiel: Stell dir vor, du kaufst gleichzeitig in 5 Supermärkten ein."
-
Few-Shot: Mehrere Beispiele helfen, ein Muster zu setzen:
-
"KI ist wie ein Koch, der Rezepte kombiniert."
-
"Neuronale Netze sind Straßennetze für Daten."
-
"Erkläre Machine Learning mit einer Alltagsmetapher."
-
_Strukturierte Prompt-Formate
Je nach Anwendungsfall kann eine bestimmte Struktur den Output erheblich verbessern:
_XML-Tags für klare Abgrenzung
Ideal für technische Prompts mit spezifischen Parametern, etwa in der Code-Generierung.
<task type="data-processing">
<language>Python</language>
<goal>Erstelle ein Skript, das eine CSV-Datei einliest und gefilterte Daten als JSON exportiert.<goal>
<requirements>Nutze Pandas, keine Schleifen, das Filterkriterium ist die Altersgruppe 18-25.</requirements>
<output>Das Ergebnis soll als JSON-Datei gespeichert werden.</output>
</task>
_Markdown für saubere Strukturierung
Perfekt für Wissensvermittlung, strukturierte Anleitungen oder geordnete Briefings.
## Goal: Explain blockchain technology to a high school student
- **Style**: Simple language, include relatable analogies
- **Avoid**: Technical jargon and complex math
- **Include**: Example of a peer-to-peer network (like file-sharing)
- **Outcome**: Clear, understandable description with practical examples
_Role-Playing für gezielte Perspektiven
Hilfreich, wenn das LLM in eine bestimmte Expertenrolle schlüpfen soll – zum Beispiel für passgenaue Erklärungen oder Fachjargon.
- Du bist ein erfahrener Finanzberater.
- Erkläre, wie Aktienmärkte funktionieren, sodass jemand ohne Vorkenntnisse es versteht.
- Verwende einfache Beispiele, um es zu veranschaulichen.
_Chain-of-Thought für komplexe Aufgaben
Mehrstufige Denkprozesse explizit vorgeben, um logische Fehler zu reduzieren und den Lösungsweg nachvollziehbar zu machen.
<step1>Extrahiere die Bewertungen aus der Datenbank.</step1>
<step2>Kategorisiere die Bewertungen nach positiv, neutral und negativ.</step2>
<step3>Ermittle wiederkehrende Kritikpunkte und Lob.</step3>
<step4>Berechne eine Gesamtbewertung basierend auf Häufigkeit und Sentiment.</step4>
<step5>Gib eine Management-Empfehlung basierend auf den Hauptkritikpunkten.</step5>
Iteration beats Perfektion
Niemand kriegt beim ersten Versuch das perfekte Ergebnis. So verbesserst du:
-
Feedback geben: "Die Beispiele sind zu lang. Kürze sie auf je 1 Satz."
-
Nachfragen: "Hast du die Quelle X berücksichtigt?"
-
Perspektive wechseln: "Formuliere die Antwort als FAQ."
Langzeitgedächtnis in Chats
LLMs vergessen Kontext nach 4K-32K Tokens. So bleibst du Herr der Lage:
-
Zusammenfassen: "Fasse unsere vorherigen Schritte zur Datenanalyse zusammen."
-
Anker setzen: "Denk daran: Ziel ist eine 10-minütige Präsentation für Investoren."
-
Hard-Reset: Bei Kontextchaos → Neuer Chat mit allen Infos in einer Prompt.
Regenerieren, Bearbeiten, Iterieren
-
Regenerieren: Nutze die "Regenerate"-Funktion, um unterschiedliche Output-Varianten zu vergleichen.
-
Bearbeiten: Fehler in der eigenen Nachricht? Editiere deine vorherige Prompt (nicht nur die KI-Antwort!), um präzisere Ergebnisse zu erzwingen.
-
Non-Determinismus: Selbst bei gleichem Prompt kann die KI-Antwort variieren. Tipp: Bei Code/statischen Inhalten "Temperature=0" (wenn möglich) für konsistentere Ergebnisse.
Halluzinationen: So reduzierst du KI-Fantasien
_Warum passiert das?
-
LLMs erfinden Quellen, Code-Snippets oder "Fakten", wenn sie unsicher sind
-
Beispiel: "Laut einer McKinsey-Studie 2027 (die es nicht gibt)..."
_Gegenmaßnahmen
-
Klare Grenzen setzen:
"Antworte nur, wenn du dir sicher bist. Sonst frage nach." -
Quellen-Check:
"Zitiere nur offizielle Dokumente aus dem Anhang." -
Skeptische Haltung:
"Prüfe alle Statistiken auf Plausibilität vor der Ausgabe."
_Wichtig: Jede LLM-Antwort muss vom User auf Richtigkeit geprüft werden – besonders bei Zahlen, Namen oder juristischen Inhalten!
Retrieval-Augmented Generation (RAG)
Nutze externe Datenquellen, um Halluzinationen zu reduzieren:
-
Upload von Dokumenten (z. B. PDFs, APIs)
-
Expliziter Verweis: "Antworte basierend auf Kapitel 3 des Handbuchs [LINK]."
-
Hybrid-Prompts: "Kombiniere Infos aus unserer Datenbank mit allgemeinem Marktwissen."
_Wichtig: Nicht jedes LLM oder Dienstleister kann externe Datenquellen nutzen. Informiere dich vorher.
Fact-Check Pflicht: Verlass dich nicht blind auf die KI
_LLMs sind keine Wahrheitsmaschinen!
LLMs sind super, aber sie sind keine Experten – sie erfinden manchmal Fakten. Hier ein paar klare _Red Flags, auf die du achten solltest:
-
Vage Formulierungen: „Studien zeigen...“ – Aber welche Studien? Fehlt die Quelle?
-
Fehlende Quellenangaben: Wenn keine Quellen da sind, skeptisch bleiben!
-
Falsche Logik: Wenn der Code „logisch“ klingt, aber nicht funktioniert, ist Vorsicht geboten.
-
Unbestätigte Zahlen oder Daten: „Laut einer Studie aus 2023...“ – ohne Quelle ist das nichts wert.
-
Übermäßig generische Aussagen: „Alle Experten sind sich einig...“ – Aber wer sind diese Experten genau?
Tipp: Immer prüfen, ob Zahlen, Statistiken und Fachbegriffe wirklich stimmen. Deine Arbeit sollte nie die Verantwortung der KI übernehmen!
System-Prompts: Mächtig, aber nicht überall
-
Was sie können: Grundverhalten steuern ("Du bist ein zynischer Data Scientist")
-
Limits bei Web-UI:
-
ChatGPT/Deepseek Chat: Kein Zugriff auf System-Prompts
-
API/Local Models: Volles Customizing möglich
-
-
Workaround: Simuliere System-Prompts in der ersten User-Nachricht:
"[System: Du bist ein Senior Python-Dev. Antworte nur mit getestetem Code.]"
Technische Feinheiten: Temperature & Top-P
Feineinstellungen für mehr Kontrolle über den Output.
_Parameter:
Temperature
1.Steuert Kreativität
2. Top-P
_Wirkung:
1. (🔴 0 = präzise, 🟢 1 = chaotisch)
2. Begrenzt Auswahl auf wahrscheinliche Tokens (🔵 0.7 = fokussiert)
_Beispiel für API-Requests:
params = {"temperature": 0.3, "top_p": 0.7} # Präzise, aber nicht roboterhaft
Bonus-Tipps
_Testing: Variiere deine Ansätze
Probiere denselben Prompt mit verschiedenen Modellen, um unterschiedliche Ergebnisse zu vergleichen. Dies hilft, das Modell zu finden, das am besten für den jeweiligen Task geeignet ist.
_Ethik und Grenzen: Klare Anweisungen
Nutze prägnante Richtlinien wie "Antworte nur, wenn du dir sicher bist", um Halluzinationen und falsche Antworten zu vermeiden. Setze Grenzen und fordere das Modell zu verantwortungsbewusstem Arbeiten auf.
_Modell-Spezialfeatures: Volles Potenzial nutzen
Profitiere von speziellen Funktionen wie System-Prompts ("Du bist ein humorvoller Psychologe") oder Temperatureinstellungen (z. B. "Temperature=0.2", für fokussierte, präzise Antworten) für noch maßgeschneidertere Ergebnisse.
_Multitasking-Prompts: Effizienz steigern
Kombiniere mehrere Aufgaben in einem Prompt, z. B. "Fasse den Artikel zusammen und gib eine SWOT-Analyse in einer Tabelle", um schneller zu einem vollständigen Ergebnis zu kommen.
_Prompt-Chaining: Große Aufgaben in kleine Schritte unterteilen
Unterteile komplexe Anfragen in kleinere, miteinander verbundene Schritte. Beginne zum Beispiel mit einem "Outline" und baue darauf auf, um die Antwort zu verfeinern.
_Differenziere die Aufgaben: Fokussierung durch Detailgrad
Gib das gewünschte Detailniveau klar an. Ist ein Überblick nötig oder eine tiefgehende Analyse? Durch klare Abgrenzung wird das Modell auf das Wesentliche fokussiert:
-
Überblick: "Gib mir einen kurzen Überblick über das Thema Quantencomputing."
-
Detailliert: "Erkläre Quantencomputing detailliert, einschließlich der mathematischen Prinzipien und gängigen Algorithmen."
_Verwende Kontraste und Vergleiche
Ein guter Trick, um das Modell auf tiefere Einsichten zu lenken, ist das Einführen von Vergleichen oder Kontrasten. Ein solcher Fokus kann neue Perspektiven eröffnen:
Beispiel: "Erkläre den Unterschied zwischen klassischen und Quantencomputern anhand einer Metapher aus der realen Welt."
Dadurch wird das Modell gezwungen, komplexe Themen auf greifbare Weise darzustellen.
_Focused Refinement: Priorisiere Aufgaben
Vermeide zu komplexe oder mehrdeutige Anforderungen. Priorisiere eine klare Frage, bevor du das Modell mit mehreren Aspekten gleichzeitig herausforderst. Wenn du mehrere Themen abdeckst, stelle sicher, dass sie klar voneinander getrennt sind.
_Relevante Metadaten: Hilf dem Modell bei der Eingrenzung
Nutze Metadaten (z. B. Thema, Zielgruppe, Medium) und gebe an, wie die Antwort formatiert oder strukturiert werden soll. Beispiel: "Erkläre Marketing-Strategien für ein internationales Unternehmen im Tech-Bereich, in einem sachlichen Tonfall und als Präsentation."
_Format-Optimierung: Verstehe das Modell
Manchmal kann es helfen, dem Modell eine spezifische Antwortstruktur vorzugeben. Sei es eine Liste, ein Fließtext oder eine tabellarische Darstellung – kläre, was du erwartest.
_Simuliere Fehler: Antizipiere Schwächen im Modell
Fordere das Modell heraus, indem du nach möglichen Schwächen oder offenen Fragen in der Antwort fragst. Beispielsweise: "Was könnten mögliche Einwände gegen diese Analyse sein?" So kannst du die Tiefe und Qualität der Antwort weiter verbessern.
_Hyperfokussierung: Reduziere Ablenkungen
Wenn du einen sehr spezifischen Aspekt herausarbeiten möchtest, eliminiere unnötige Details im Prompt. Statt zu sagen "Schreibe einen Essay über den Klimawandel", könntest du angeben: "Schreibe einen 300-Wörter-Text über den Einfluss des Klimawandels auf die Landwirtschaft in Europa."
Merke
_Merke: Ein guter Prompt ist wie ein Rezept – je genauer die Zutaten und Schritte, desto besser das Ergebnis. Happy Prompting!
_Merke: Ein perfekter Prompt ist wie LEGO – je präziser die Bausteine, desto stabiler das Ergebnis!
_Merke: Ein Prompt ist nie "fertig" – es wird mit jedem Feedback besser. Trau dich, die KI wie einen Kollegen zu korrigieren: "Nein, das meinte ich nicht. Versuch es so…"
_Merke: Die beste Prompt ist der, den du nach 5 Iterationen löschst und neu schreibst – mit 50% weniger Wörtern.
_Merke: Prompts sind wie Werkzeugkästen – je mehr Techniken du beherrschst, desto präziser arbeitet die KI!
Disclaimer: KI im Einsatz
Dieser Artikel entstand im Dialog mit ChatGPT (GPT-4o) und Deepseek R1 – zwei LLMs, die beim Strukturieren, Verfeinern und Ergänzen der Inhalte geholfen haben.
💡 Wichtig: Trotz sorgfältiger Überprüfung können generative Modelle Fehler machen. Daher gilt: Den Inhalt immer mit gesundem Menschenverstand bewerten und bei kritischen Themen gegenprüfen! 🚀