Zum Hauptinhalt springen
INNOCHAT ist das erste und leistungsstärkste No-Code-AI-Chat-Framework, das eine Multi-Agenten-Architektur implementiert.
Mehrere KI-Agenten arbeiten gemeinsam in einer koordinierten Orchestrierung, um fortgeschrittene Workflow-Automatisierungen zu ermöglichen.
Dieses Handbuch soll Ihnen helfen, zu verstehen, wie unsere Agenten zusammenarbeiten, und Ihnen gleichzeitig einige Best Practices für das Design eines Multi-Agenten-Chatbots vermitteln. Alle Agenten haben zwei Zustände:
  • Aktiv: Der Agent ist „Connected“. Er ist live und aktiv.
  • Inaktiv: Der Agent ist „Disabled“. Er führt keine Aktionen aus.
Zu jedem Zeitpunkt interagiert nur ein einzelner Agent direkt mit dem Benutzer.
Unser KI Supervisor arbeitet im Hintergrund in Echtzeit und entscheidet, welcher Agent die Anfrage des Nutzers bearbeiten soll.
Agenten sind völlig voneinander isoliert.
Das bedeutet:
  • Sie können Agent B nicht aus Agent A heraus anweisen.
  • Sie können dem KI-Supervisor nicht sagen, er solle „den Staffelstab weitergeben“.
  • Der KI-Supervisor kann nicht per natürlicher Sprache instruiert werden.
Der KI-Supervisor verteilt Benutzeranfragen auf Agenten basierend auf deren Agentenbeschreibung.
Wenn Sie nur einen Agenten haben, ist die Beschreibung weniger wichtig.
Arbeiten Sie jedoch mit mehreren Agenten, sollte die Beschreibung so eindeutig und präzise wie möglich sein.
  • Agent Description – Welche Aufgaben soll der Agent übernehmen?
  • Agent Prompt – Wie soll der Agent diese Aufgaben ausführen?
Die Agentenbeschreibung unterscheidet sich vom Prompt.
Die Beschreibung erklärt dem KI-Supervisor auf hoher Ebene, welche Arten von Benutzeranfragen der Agent behandeln soll.
Der Prompt enthält hingegen detaillierte Anweisungen zur Verhaltensweise des Agenten.
Gute Agentenbeschreibungen beantworten die Frage:
„Welche Arten von Anfragen soll der Agent bearbeiten?“
Sie sollten alle relevanten User Intents enthalten, die der Agent abdecken soll. Agentenbeschreibungen sollten nicht erklären, wie der Agent seine Aufgaben erledigt – das gehört in den Prompt. Hier einige Beispiele guter Agentenbeschreibungen:
Embody the role of “INNOCHAT Expert,” a specialized guide for INNOCHAT. Your main objective is to assist users with answering INNOCHAT-related questions related to:
  • Use cases
  • Features and capabilities
  • Data security
  • Pricing
  • AI Agents and multi-Agent architecture
  • User identity verification
  • Chunk curation
  • Function calling
  • Partnership program
  • Custom domains
  • Tokens
All intents handled by this Agent should be related to INNOCHAT.
The Product Expert handles any user queries related to Example Company’s products.
This includes questions regarding:
  • Product availability
  • Product specifications
  • Price
  • Shipping location
  • Warranty
  • Return policy
  • Disclaimers, legal notices, and warning labels
The Order Status Assistant handles any user queries related to an order’s status. This includes:
  • Product package tracking
  • Current package location
  • Estimated delivery time
  • Late delivery compensation
Was macht ein gutes Multi-Agenten-Chatbot-Design aus?
Wie stelle ich sicher, dass alle Benutzerintentionen vom richtigen Agenten bearbeitet werden?
Grundsaetzlich eignet sich eine Multi-Agenten-Architektur hervorragend, um spezialisierte AI-Agenten als Team zusammenarbeiten zu lassen.
Jeder Agent kann:
  • auf unterschiedliche Trainingsdaten zugreifen,
  • von einem anderen LLM betrieben werden,
  • einen eigenen Prompt besitzen,
  • eigene Tools (Functions) erhalten.
Dies ist deutlich effektiver, als alles in einen einzigen Agenten zu packen. Aus Sicht des Nutzers ist jedoch nicht erkennbar, dass mehrere Agenten beteiligt sind – die Orchestrierung erfolgt vollkommen nahtlos im Hintergrund.
Bei richtiger Konfiguration fühlt sich der Chat an wie ein Gespräch mit einem Menschen.
Ein Multi-Agenten-Chatbot kann deutlich leistungsstärker sein als Einzel-Agent-Systeme wie ChatGPT.
Unser KI-Supervisor-Routing nutzt einen Algorithmus, der Latenz und Genauigkeit ausbalanciert.
Er wird nicht immer zu 100 % korrekt entscheiden, aber mit gutem Design kommen Sie sehr nahe heran.

Debugging des Chatbots

Wenn der Chatbot nicht wie erwartet reagiert, gibt es zwei mögliche Ursachen:
  1. Der falsche Agent wurde zur Verarbeitung der Anfrage ausgewählt.
  2. Der richtige Agent wurde ausgewählt, ist aber nicht optimal konfiguriert.
Um zu prüfen, ob der richtige Agent ausgewählt wurde, gehen Sie zu Inbox und aktivieren Sie den Debug-Modus:
Unter Active Agent sehen Sie, welcher Agent die Antwort generiert hat.
Diese Information wird nur angezeigt, wenn mehrere Agenten verbunden sind.
Wenn der falsche Agent reagiert hat, bearbeiten Sie seine Konfiguration – Name, Beschreibung oder Prompt. Wenn der richtige Agent reagiert, die Antwort aber nicht passt, liegt das Problem beim Agenten selbst.
Der einfachste Weg zur Verbesserung besteht darin, die Antwort direkt zu überarbeiten:
Damit wird sichergestellt, dass der Chatbot künftig bei der gleichen Frage anhand Ihrer Korrektur antwortet – sofern derselbe Agent ausgewählt wird. Um den Agenten grundsätzlich robuster zu machen, können Sie:
  • Trainingsdaten kuratieren,
  • ein leistungsstärkeres LLM verwenden,
  • den Basis-Prompt präziser gestalten.
Weitere Informationen: