Dialfire AI Agent - Anleitung
Dialfire AI Agent – Das Handbuch: In wenigen Schritten zum einsatzbereiten AI Agent – einfach, flexibel, faszinierend.
Quick Start: So startet Ihr AI Agent in Dialfire
Willkommen in der Welt der Dialfire AI Agents!🎉
Keine Sorge – Sie brauchen kein Technik-Ninja zu sein, um Ihren eigenen smarten AI Agent zum Laufen zu bringen. In nur wenigen Klicks ist Ihr Agent einsatzbereit und wartet darauf, Ihre Anrufe zu unterstützen.
So einfach geht’s:
- Öffnen Sie im Dialfire-Menü Voice Automation hier werden alle AI Agents erstellt und verwaltet.
- Klicken Sie oben rechts auf Neue IVR und wählen Sie Ihren AI Agent aus. Mit einem Klick ist er erstellt.
- Voilà: Ihr AI Agent startet mit einem Beispiel-Template, das direkt einsatzbereit ist. Dieses Template enthält bereits alle wichtigen Bausteine, um loszulegen – perfekt, um sofort Ihre eigenen Anpassungen darauf aufzubauen.
Das Prompting 1x1 – einfach anfangen, clever wachsen 🎓
Das Wichtigste beim Prompting: Fangen Sie klein an und bauen Sie Schritt für Schritt aus.
So gelingt der Start:
-
Beginnen Sie mit einer Minimalvariante, die dem Agent nur grob erklärt, was Sie mit ihm vorhaben. Im übertragenen Sinne: Sagen Sie dem Agent, wohin er laufen soll, nicht wie er die Füße bewegen soll.
Testen Sie, was der Agent damit schon beherrscht – Sie werden überrascht sein. - Erstellen Sie danach eine Variante, die gerade so ausreichend ist, um damit live zu gehen.
- Gehen Sie live mit einem überschaubaren Anruf-Volumen, das es erlaubt, jeden einzelnen Anruf anzusehen.
- Beheben Sie die Probleme, die Sie im Live-Betrieb erkennen – diese sind oft ganz andere als das, was Ihnen im „Trockentest“ Probleme bereitet hat. Dies ist der Teil in dem Sie die meiste Zeit investieren sollten
☝️Weniger ist oft mehr:
- Setzen Sie realistische Erwartungen: Menschen machen Fehler, KI auch – 100% Korrektheit gibt es nicht.
- Formulieren Sie klar und einfach.
- Vermeiden Sie widersprüchliche Anweisungen.
- Wenn Sie sagen, was der Bot nicht tun soll, sagen Sie auch, was er stattdessen tun soll.
- Verwenden Sie wörtliche Rede nur dort, wo es nötig ist (z. B. Compliance). Beschreiben Sie lieber „Was“ der Agent sagen soll, nicht das „Wie“ .
- Vermeiden Sie unnötiges Zusatzwissen.
- Fixieren Sie sich nicht auf einzelne Fehler und versuchen diese auszugleichen
- Zusätzliche Anweisungen verschlechtern oft die Leistung an anderen Stellen, die vorher gut funktioniert haben. Suchen Sie stattdessen nach Anweisungen, die Sie löschen können, das ist oft viel wirksamer
- Beschreiben Sie Ihrem Agent Ihr Vorhaben, damit er den Sinn hinter einzelnen Anweisungen versteht und bessere Entscheidungen treffen kann.
-
Der AI Agent ist kein Außerirdischer👽: Bevor Sie dem Agent die Welt erklären, testen Sie, ob er das Konzept nicht schon kennt.
Beispiel: „Du bist Service-Bot in einer Autovermietung“ statt „Bei Dir rufen Kunden an, die Probleme mit einem PKW haben“.
Schon mit diesen einfachen Regeln können Sie nützliche AI Agents für den praktischen Einsatz bauen.
💡Achtung: Wenn Sie mehr und mehr Aufgaben hinzufügen, werden Sie irgendwann feststellen, dass sich Ihr Agent irgendwie dümmer anfühlt, an Spontanität verliert und Fehler macht. Dies ist ganz natürlich und liegt daran, dass auch die KI wie ein Mensch nur eine begrenzte Aufmerksamkeit hat.
Die gute Nachricht: Dafür gibt es Lösungen, die wir weiter unten vorstellen – damit sind Ihnen keine Grenzen mehr gesetzt. 🎉
Der erste Prompt – das Herzstück Ihres Agents
Der Prompt ist das Gehirn Ihres AI Agents – hier legen Sie fest, wer er ist, wie er spricht und was er drauf hat.
☝️Wichtig: Der Aufbau ist nicht fest vorgeschrieben – Kreativität und Erfahrung machen den Unterschied. Alles, was Sie schon über den Umgang mit KI wissen, behält seine Gültigkeit.
☝️Grundregel: Schreiben Sie den Prompt so, wie Sie es einem neuen Mitarbeiter notieren würden, bevor Sie ihn ans Telefon lassen. Wenn Sie das beherzigen, dann können Sie viele Tutorials überspringen.
Ungefährer Aufbau des Prompts:
Enthält die grundlegenden Beschreibungen, wie sich der Bot verhalten soll:
- Rolle & Zweck – Wer spricht? Was ist das Ziel des Agents?
- Aufgabe / Task – Was soll der Agent im Gespräch tun?
- Leitplanken – Was darf der Agent keinesfalls im Gespräch tun?
- FAQs / Antwortvorlagen – Kurze, klare Mustersätze für das LLM
Enthält Steuer-Anweisungen, die direkt in den Text eingebettet werden und dem Ganzen noch mehr Dynamik verleihen
Außer bei den optionalen Steueranweisungen gibt es kein spezielles Format, das Sie unbedingt einhalten müssen. Wir empfehlen Markdown zur Formatierung - das wird von KI besonders gut verstanden.
Beispiel für einen einfachen Start-Prompt:
# Your Role
You are Helena Fisher, a friendly AI phone agent from GreatProducts. You always speak politely, confidently, and in a natural tone.
# Your Task
Greet the customer and ask them to briefly explain their request.
$customer_request Customer's inquiry
Answer questions from the FAQ. For unknown requests, transfer the call using function "connect_agent". If resolved, say goodbye and use function "hangup".
@connect_agent Transfers the call to a human agent.
@hangup Ends the call.
# FAQ
Q: Wants to return product
A: They can return products within 30 days if unused and in original packaging.
Q: Delivery times
A: Standard: 3–5 business days. Express: 1–2 business days.
Q: Opening hours
A: Mon–Fri: 8:00–18:00, Sat: 9:00–14:00.
Im Beispiel sehen Sie # Your Task
als Abschnittsüberschrift im Markdown-Format sowie $customer_request
und @connect_agent
als Steueranweisungen. Auf diese beiden Elemente gehen wir gleich noch ausführlicher ein… bleiben Sie dran 😉
Prompt testen – ausprobieren, erleben, optimieren 🧪
Bevor Ihr AI Agent im echten Einsatz glänzt, testen Sie Ihren Prompt direkt im Menü Voice Automation. Hier können Sie spielend leicht prüfen, wie Ihr Agent reagiert – entweder per Call oder im Chat.
So geht’s:
- Menü öffnen: Navigieren Sie zu Voice Automation →Test.
- Testmodus wählen: Entscheiden Sie sich für Call (simulierter Anruf) oder Chat (Textinteraktion).
- Interaktion starten: Sprechen oder schreiben Sie Ihre Testanfragen, genau wie Ihre Kunden es tun würden.
- Ergebnisse beobachten: Prüfen Sie, ob der Agent Variablen korrekt füllt und Function Calls zuverlässig ausführt.
💡Tipp: Kleine Änderungen an einer Stelle können große Wirkung auf den gesamten Ablauf haben. Testen Sie direkt erneut.
Los geht’s – Ihr AI Agent ist startklar! 🚀
🎉 Herzlichen Glückwunsch!
Sie haben es geschafft: Ihren AI Agenten konfiguriert, getestet und nun ist er bereit, das Kundenservice-Erlebnis auf ein neues Level zu heben! Bevor Ihr Agent jedoch loslegen kann, müssen Sie ihm abschließend noch der richtigen Inbound Line zuordnen:
1️⃣ Im Menü Voice Automation gehen Sie in den Testbereich und aktivieren Ihre finale Bot-Version.
2️⃣ An Ihrer Inbound-Line aktivieren:
- Öffnen Sie den Menüpunkt Rufnummern und wählen Sie die gewünschte Line aus.
- Unter IVR-Einstellungen wählen Sie im Dropdown-Menü IVR den Titel Ihres Bots aus.
- Checkbox aktiviert markieren und speichern – fertig!
Und voilà – Ihr AI Agent ist live und bereit, Ihre Kunden zu begeistern. Lehnen Sie sich zurück, genießen Sie die Show und beobachten Sie, wie Ihr neuer virtueller Kollege Ihren Kundenservice rockt! 🤘
Die Abrechnung für Ihren AI Agent ist einfach und transparent:
- Alle Verbindungsminuten des AI Agent laufen zum Tarif Conversational AI C – zusätzlich zu den regulären Verbindungsentgelten.
- Zusätzlich wird die Dauer der generierten Sprachausgaben ebenfalls nach Tarif Conversational AI C abgerechnet.
- 💡Smart-Saving: Sprachausgaben, die sich exakt wiederholen, werden automatisch zwischengespeichert. Beim nächsten Anruf entstehen dafür keine zusätzlichen Kosten.
Was wir noch nicht erklärt haben… 🤔
Im Beispiel-Prompt tauchten zwei Dinge auf, die wir Ihnen nicht einfach so stehen lassen wollen:
-
Variablen-Platzhalter wie
$customer_request
-
Funktionsaufrufe wie
@connect_agent
Beides sind zentrale Werkzeuge, die Ihren Agent noch mächtiger machen.
Im nächsten Schritt zeigen wir Ihnen, wie Variablen-Platzhalter und Funktionsaufrufe funktionieren – und warum sie der Schlüssel zu richtig smarten Gesprächen sind.
Variablen-Platzhalter
Mit eingefügten Variablen-Platzhaltern wird Ihr Agent zum Notizprofi: Er speichert automatisch Informationen aus dem Gespräch direkt im Datensatz, den Sie dann in Dialfire weiterverarbeiten können.
Syntax:
$Feldname Feldbeschreibung
→ definiert ein erwartetes Feld
Beispiel:
$customer_request Kundenanliegen
→ erfasst, welches Anliegen der Kunde nennt
☝️Wichtig:
- Platzieren Sie das Feld mit $ davor, auf einer eigenen Zeile, in der Nähe des Themas, auf das sich das Feld bezieht. So weiß der Agent aus dem umgebenden Kontext, wann das Feld befüllt werden muss. Nehmen Sie aber im restlichen Prompt-Text keinen Bezug auf die Variable, also nicht: „Vergiss nicht die Variable XYZ zu füllen”
- Benennen Sie die Variable so, dass sie für den Agenten Sinn ergibt – z. B. „Vorname“ statt „Feld15“ und schreiben hinter den Feldnamen noch eine kleine Beschreibung - so funktioniert es viel zuverlässiger
Variable mit Auswahlmöglichkeiten
Schreiben Sie direkt unter die Variable eine weitere options:
Zeile mit erlaubten Werten, jeweils durch Komma getrennt. Nur diese kann der Agent dann verwenden. Das sieht dann beispielsweise so aus:
$will_newsletter Kunde stimmt zu, den Newsletter zu erhalten
options: ja, nein
Funktionsaufrufe – Aktionen auslösen
Function Calls sind die Action-Buttons Ihres Agents. Sie lösen direkte Aktionen aus, wenn sofort etwas passieren muss.
Die eigentlichen Funktionen sind im Reiter Script zu sehen. Es handelt sich dabei um Javascript-Funktionen, die Sie beliebig erweitern können.
Um diese Funktionen nutzen zu können, müssen sie dem Agent im Prompt bekannt gemacht werden. Dies geschieht auf einer neuen Zeile mit @ gefolgt vom Funktionsnamen und einer anschließenden Beschreibung. Anders als bei den Variablen spielt die Stelle im Prompt keine Rolle.
Grundsätzlich entscheidet der Agent selbst aus dem Gesprächskontext heraus, wann er die Funktionen einsetzen will. Aber Sie können im Prompt darauf einwirken und den Agent die Benutzung auch ankündigen lassen. Das sorgt für sehr natürliche Gesprächsübergänge.
Beispiel:
-
Im Script-Tab gibt es die Funktion:
function connect_agent(){
...
} -
Im Prompt machen Sie diese Funktion bekannt mit:
@connect_agent Den Anrufer mit einem Menschen verbinden.
-
Und im Text schreiben Sie z.B.:
Wenn Du auf die Frage keine Antwort weißt, dann sage, dass Du jetzt mit einem Mitarbeiter verbindest, der bestimmt weiterhelfen kann und verwende gleichzeitig die Funktion "connect agent".
Advanced – Raus aus dem Käfig
Willkommen im nächsten Level! 🎮
Ihre ersten AI Agenten laufen bereits – jetzt zeigen wir Ihnen die Geheimnisse, wie Sie Ihren Agent mit der Welt da draußen bekannt machen. Keine Sorge: Auch wenn es „Advanced“ heißt, brauchen Sie dafür keinen Doktortitel in Informatik - schadet aber natürlich auch nicht. 🙂 Sehen Sie es als eine prall gefüllte Werkzeugkiste, die nur darauf wartet, tolle Sachen bauen zu dürfen.
💡 Können Sie ein Geheimnis bewahren?
Das, was wir bisher als „Prompt“ bezeichnet haben, ist eigentlich gar kein statischer Prompt. Es ist ein dynamisches Template, das bei jedem Turn neu zusammengesetzt wird.
Für den Informatiker klingt das sofort vertraut: kein starres Textstück, sondern ein flexibles Rendering-System – ähnlich wie VueJS oder Angular, nur eben für AI Agents.
Und genau hier kommen die erweiterten Template-Funktionen ins Spiel …
Erweiterte Template-Funktionen – die Superkräfte Ihres Prompts 🦸♂️
Das Prompt-Template kann weit mehr als einfache Wertersetzungen. Es beherrscht eine komplexe Template-Syntax, die Sie beliebig verschachteln können. Damit wird Ihr Prompt zu einem flexiblen Baukasten, der selbst komplexe Gesprächslogiken sauber abbildet.
Wertersetzungen mit {{expression}}
Der einfachste Fall: {{data.feldname}}
Aber Achtung: Dahinter stecken mehr als nur Feldnamen – auch Funktionsaufrufe sind möglich. So holen Sie dynamische Inhalte direkt ins Template.
Bedingte Blöcke mit IF
Mit der IF-Direktive steuern Sie, welche Inhalte wirklich ins Prompt gelangen. Entweder mitten im Text:
({{#if condition}} Hier steht ein optionaler Text {{/if}})
oder mit mehreren Alternativen, große Blöcke umschließend:
{{#if condition}}
{{#elif alternative_condition}}
{{#else}}
{{/if}}
Nutzen: Alternative/Optionale Promptbestandteile einblenden
Schleifen mit EACH
Für wiederholende Elemente nutzen Sie EACH:
{{#each itemVar @ array-expression}}
{{/each}}
Perfekt, wenn sich Dinge beliebig oft wiederholen – z. B. Liste von Produkten oder Verträgen.
Mit diesen erweiterten Template-Funktionen bringen Sie Dynamik in Ihre Agenten.
💡Und haben Sie es schon bemerkt? In den Logs finden Sie an den Antworten des Agents auch einen kleinen Link zu next prompt. So können Sie ganz problemlos kontrollieren, ob der generierte Prompt tatsächlich korrekt war.
Eigene Funktionen definieren
Wir hatten zwar schon über Funktionen gesprochen, aber noch nicht über den wirklich vollständigen Syntax. Im Script-Tab definieren Sie eine Funktion in Javascript, etwa so:
function funktionsname(args){
}
Das args-Objekt enthält dann die Parameter, die der Agent beim Aufruf übergeben hat.
Im eigentlichen Prompt deklarieren Sie die Funktion, etwa so:
@funktionsname Beschreibung des Funktionszwecks
-argument1: Beschreibung des Parameters
options: wert1,wert2
optional: true
-argument2: Beschreibung des 2. Parameters
Mit options geben Sie die erlaubten Werte an, wenn Sie nur bestimmte Möglichkeiten erlauben wollen. Und mit optional legen Sie fest, dass dieser Parameter nicht vorhanden sein muss.
Und was gibt die Funktion zurück?
Der Rückgabewert muss keinem speziellen Format folgen. Es können beliebige Objektstrukturen zurückgegeben werden oder auch ein einfacher String mit einer Anweisung, wie der Agent weiter vorgehen soll.
Wichtig ist nur, dass der Agent den Sinn verstehen kann.
💡Tipps
- Gut gewählte Funktions- und Parameter-Namen mit passender Beschreibung sind entscheidend für die zuverlässige Anwendung durch den Agent.
- Verwenden Sie Funktionen sparsam. Wenn der Agent viele Funktionen zur Auswahl hat, beansprucht das viel Aufmerksamkeitsbudget.
Variablen-Platzhalter vs Function Calls — was, wann, warum? 🤔
Variablen-Platzhalter laufen leise im Hintergrund und schreiben erkannte Werte (z. B. Name, PLZ) ins data-Objekt.
- Vorteil: spart das Aufmerksamkeitsbudget des LLMs.
- Nachteil: Der Wert kann nicht überprüft werden, bevor der Bot antwortet.
Function Calls sind die aktiven Player: Das LLM ruft eine Funktion auf, die Laufzeit-Checks oder Validierung vornimmt.
- Einsatzgebiet: überall dort, wo Sie sofortige Ergebnisse brauchen – z. B. Validierungen oder CRM-Abfragen.
💡Praxisregel:
- Variablen-Platzhalter → für nicht-kritische Felder
- Function Calls → für alles, was validiert oder sofort verarbeitet werden muss
Die Javascript-Umgebung 💻
Mit Javascript haben Sie eine LowCode-Umgebung zur Verfügung, mit der Sie fortgeschrittene Funktionen verwirklichen können.
Globale Objekte
In der Javascript-Umgebung finden Sie einige globale Objekte, die Sie aus jeder Funktion verwenden können.
data {} - das zentrale Objekt, dessen Felder direkt in den Contact-Datensatz zur weiteren Bearbeitung übernommen werden
temp {} - ein temporäres Objekt, in dem sie serialisierbare Daten zwischen den Turns speichern können
-
actions []
- um Steuerbefehle auszulösen -
tts_translation {}
- eine Map von Regex-Ausdrücken im String-Format zu phonetischen Ersetzungen, um die korrekte Aussprache von bestimmten Begriffen zu erzwingen -
LOG ()
- eine Funktion für Log-Ausgaben, die Sie dann im Gesprächslog sehen können
API Calls per HTTP auslösen
Für API-Calls auf externe Systeme stehen globale Funktionen zur Verfügung:
GET(url, options)
POST(url, payload, options)
PUT(url, payload, options)
DELETE(url, options)
Das Ergebnis ist jeweils ein Response-Objekt mit folgenden Funktionen:
status()
, text()
, json()
Der Request arbeitet asynchron. Sie können also mehrere Requests parallel starten und erst beim Zugriff auf eine der Funktionen am Response wartet das Skript bis der Request beendet ist.
Verwendung von Script-Hooks
Die folgenden Hooks können Sie als Funktion implementieren, um auf bestimmte Ereignisse reagieren zu können:
- onLoad() - beim Start des Agenten
- onUpdate()→ nach jedem Turn
- onClose() → am Gesprächsende (z. B. Abschluss-Tasks, Schreiboperationen)
- onFieldUpdate(fieldname,value) - wenn definiert, dann werden die Variablen-Platzhalter nicht einfach an das data-Objekt gehängt, sondern werden über diese Funktion verarbeitet
- onFunctionCall(name,arguments) → wenn der Agent eine nicht definierte Funktion aufruft… so können dynamische Funktionen implementiert werden
Hilfe, mein Agent wird dümmer - oder - wozu ein Zeigefinger gut ist 🤔
Hat es nicht gut angefangen mit Ihrem Agenten? Und jetzt macht er einfach nicht mehr, was er soll?
Sie haben schon alle unsere Tipps umgesetzt - und trotzdem - es ist zum Verzweifeln!
Dann sind Sie jetzt vermutlich an der Stelle, wo Sie unsere versprochene Lösung für richtig große Agenten gebrauchen können.
Warum statische Prompts an Grenzen stoßen
AI Agenten haben, wie Menschen auch, ein beschränktes Aufmerksamkeitsbudget. Aber ein neuer Mitarbeiter könnte doch super mit Ihrem Prompt arbeiten, oder? Ist die KI wirklich so dumm? Warum kann die dann ewig lange Texte schreiben, aber versagt bei einem solchen Gespräch?
💡 Einfache Antwort: Ihr Mitarbeiter hat einen Zeigefinger, die heutige KI aber nicht!
Ein Mensch kann sich merken (oder den Zeigefinger drauf halten), wo genau er im Gesprächsskript steht, die KI muss das bei jeder Antwort wieder neu anhand des Gesprächsverlaufs herausfinden. Das kostet richtig viel Aufmerksamkeit und für die eigentliche Antwort bleibt dann wenig übrig.
Willkommen zum Context-Engineering!
Sie stehen an der Schwelle vom Prompt-Engineer zum Context-Engineer. Die Idee ist, dass man den Kontext (Prompt) dynamisch so anpasst, dass nur noch relevante Teile für die nächste Antwort vorhanden sind. Und das ist die große Stunde der Prompt-Templates.
Alles, was in der aktuellen Gesprächssituation für die nächste Antwort nützlich sein kann, muss rein, alles andere raus.
Informations-Agenten
Wenn Sie an einem Agenten arbeiten, der nur Auskünfte erteilen soll, dann macht es Sinn, nur den gerade wirklich relevanten Teil der Wissensdatenbank zur Verfügung zu stellen. Lassen Sie den Agenten also zunächst einen Funktionsaufruf starten, in dem der passende Teil der Wissensdatenbank abgerufen wird.
Bei kleineren Wissensdatenbanken könnten Sie einfach aus einer Themenliste auswählen lassen, bei sehr großen Wissensdatenbanken brauchen Sie ein RAG-System.
Das Dokument zum Themengebiet blenden Sie dann über das Template in den Prompt mit ein. Und schon kann sich der Agent voll auf die eigentliche Frage konzentrieren.
Transaktionale Agenten
Wenn Ihr Agent einen komplexen Prozess durchlaufen soll, dann sollten Sie diesen in Phasen unterteilen. Zwischen den einzelnen Phasen wechseln Sie durch Funktionsaufrufe.
💡Das löst viele Probleme auf einen Schlag:
- volle Aufmerksamkeit in den einzelnen Phasen
- sehr hohe Prozesstreue - hält sich genau an die Anweisungen
- Prozess kann deterministisch gesteuert werden - der Agent kann nicht einfach Phasen überspringen
- einzelne Phasen können unabhängig optimiert und getestet werden, keine Beeinflussung anderer Phasen
- nicht nur bessere sondern auch schnellere Antworten durch kleineren Kontext
- Ihr Agent kann unbegrenzt wachsen
Beispiel Prompt-Template
# Rolle
Du bist ein telefonischer Bestellbot bei GreatProducts.
# Grober Ablauf
Du leitest den Kunden durch den Bestellprozess:
- Begrüßung
- Erfassung des Warenkorbs
- Erfassung der Kundendaten
- Erfassung der Zahldaten
- Verabschiedung
Konzentriere Dich voll auf die aktuelle Aufgabe.
# Aktuelle Aufgabe
{{#if !temp.phase}}
Begrüße den Kunden.
Sage dem Kunden, dass wir als erstes die gewünschten Artikel aufnehmen und aktiviere gleichzeitig die Funktion “Neuer_Warenkorb”
@Neuer_Warenkorb Erstelle einen neuen Warenkorb für die Bestellerfassung
{{#elif temp.phase===10}}
Frage den Kunden nach den gewünschten Artikeln
….
Wenn alle Artikel erfasst sind, dann sage, dass Du jetzt die Kundendaten brauchst und aktiviere gleichzeitig die Funktion “Daten_Erfassen”
@Daten_Erfassen Bereite die Erfassung der Kundendaten vor.
{{#elif temp.phase===20}}
…
{{#elif temp.phase===30}}
….
{{#elif temp.phase===40}}
Verabschiede den Kunden und beende das Gespräch.
{{/if}}
#FAQ
Q: Warum?
A: Darum!
@hangup beendet das Gespräch
Erläuterung
Sie definieren jeder Phase eine Funktion, die den Agent zur nächsten Phase bringt. Innerhalb dieser Funktion setzen Sie das Feld temp.phase auf den Wert für die nächste Phase.
Entsteht dadurch nicht eine komische Lücke zwischen den Phasen? Nein, gar nicht.
Der Agent bereitet den Kunden verbal auf die neue Phase vor. Danach wartet der Agent aber nicht auf eine Reaktion des Kunden, sondern reagiert mit dem geänderten Prompt sofort auf das Ergebnis des Function Calls, so dass er nahtlos in der nächsten Phase loslegt, ohne dass eine Gesprächslücke entsteht.
Die Funktionsdeklarationen werden durch das Template ebenfalls mit ein- und ausgeblendet, so dass der Agent jeweils nur die relevanten Funktionen sieht. Das macht einen großen Unterschied.
Da Sie im laufenden Gespräch den Prompt dynamisch ändern, achten Sie darauf, dass um die Phasen herum soviel Kontext erhalten bleibt, dass der bisherige Gesprächsverlauf auch mit dem neuen Prompt noch Sinn ergibt. Im Beispiel, wird nur der Abschnitt # Aktuelle Aufgabe dynamisch geändert. Die grobe Prozessbeschreibung und die FAQs bleiben aber gleich.