ChatGPT (oder ähnliche LLMs)beginnerproductivity95% Usefulness

Effektives Prompt Engineering für LLMs

Lerne die Grundlagen des Prompt Engineering, um präzisere und nützlichere Antworten von Large Language Models zu erhalten.

Originalvideo ansehen: KI-Agenten: DAS übersehen gerade ALLE! Claude Updates, Googl...
6 Schritte
1

Sei spezifisch

Vermeide vage Anfragen. Je präziser deine Frage, desto besser die Antwort. Statt 'Schreibe Code', sage 'Schreibe eine Python-Funktion, die eine Liste von Zahlen sortiert und Duplikate entfernt'.

2

Kontext bereitstellen

Gib der KI alle relevanten Informationen, die sie benötigt, um deine Anfrage zu verstehen. Das kann Code, Fehlermeldungen, Projektziele oder gewünschte Ausgabeformate umfassen.

3

Rolle zuweisen

Weise der KI eine Rolle zu, um die Perspektive der Antwort zu steuern. Beispiele: 'Du bist ein erfahrener DevOps-Ingenieur...', 'Als technischer Redakteur, schreibe eine Dokumentation...'

4

Beispiele geben (Few-shot prompting)

Wenn du ein bestimmtes Ausgabeformat oder einen Stil wünschst, gib ein oder zwei Beispiele in deinem Prompt an, damit die KI dies nachahmen kann.

5

Iterieren und verfeinern

Wenn die erste Antwort nicht optimal ist, verfeinere deinen Prompt. Stelle Folgefragen, bitte um Änderungen oder gib zusätzliche Anweisungen, um die gewünschte Ausgabe zu erhalten.

Tipp: Denke an den 'Chain of Thought'-Ansatz: Bitte die KI, ihre Gedankengänge zu erklären, bevor sie eine Antwort gibt, um die Qualität zu verbessern.
6

Einschränkungen definieren

Lege fest, was die KI *nicht* tun soll oder welche Formate sie vermeiden soll, um unerwünschte Ergebnisse zu verhindern.

← Alle Playbooks anzeigen