Effektives Prompt Engineering für LLMs
Lerne die Grundlagen des Prompt Engineering, um präzisere und nützlichere Antworten von Large Language Models zu erhalten.
Originalvideo ansehen: KI-Agenten: DAS übersehen gerade ALLE! Claude Updates, Googl...Sei spezifisch
Vermeide vage Anfragen. Je präziser deine Frage, desto besser die Antwort. Statt 'Schreibe Code', sage 'Schreibe eine Python-Funktion, die eine Liste von Zahlen sortiert und Duplikate entfernt'.
Kontext bereitstellen
Gib der KI alle relevanten Informationen, die sie benötigt, um deine Anfrage zu verstehen. Das kann Code, Fehlermeldungen, Projektziele oder gewünschte Ausgabeformate umfassen.
Rolle zuweisen
Weise der KI eine Rolle zu, um die Perspektive der Antwort zu steuern. Beispiele: 'Du bist ein erfahrener DevOps-Ingenieur...', 'Als technischer Redakteur, schreibe eine Dokumentation...'
Beispiele geben (Few-shot prompting)
Wenn du ein bestimmtes Ausgabeformat oder einen Stil wünschst, gib ein oder zwei Beispiele in deinem Prompt an, damit die KI dies nachahmen kann.
Iterieren und verfeinern
Wenn die erste Antwort nicht optimal ist, verfeinere deinen Prompt. Stelle Folgefragen, bitte um Änderungen oder gib zusätzliche Anweisungen, um die gewünschte Ausgabe zu erhalten.
Einschränkungen definieren
Lege fest, was die KI *nicht* tun soll oder welche Formate sie vermeiden soll, um unerwünschte Ergebnisse zu verhindern.