Erste Schritte

Fehler: Konversation zu lang

Wenn Sie die Meldung „Ihre Konversation ist zu lang. Bitte beginnen Sie eine neue Konversation, um fortzufahren.“ oder „Beim KI-Dienst ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.“ sehen, haben Sie die maximale Konversationslänge erreicht, die die KI verarbeiten kann.

Was ist passiert?

Die kombinierte Größe Ihres Konversationsverlaufs, der hochgeladenen Dateien und der aktuellen Nachricht hat das Limit des Kontextfensters des KI-Modells überschritten. Dieses technische Limit liegt bei 200.000 Token (ca. 500 Textseiten oder 800.000 Zeichen).

Stellen Sie es sich wie das „Arbeitsgedächtnis“ der KI vor – sobald die Konversation zu lang wird, kann die KI nicht mehr alle Informationen auf einmal verarbeiten.

Warum ist das passiert?

Dieser Fehler tritt normalerweise auf, wenn Folgendes vorliegt:

Langer Konversationsverlauf

Konversationen mit mehr als 100 Nachrichten, insbesondere detaillierte Hin-und-her-Diskussionen über komplexe Compliance-Themen, können erheblichen Kontext ansammeln.

Große Dateiuploads

Dateien verbrauchen einen großen Teil des Kontextlimits, insbesondere:

  • Tabellenkalkulationen mit mehreren Blättern – Große Excel-Dateien mit umfangreichen Kontrollmatrizen oder detaillierten Anforderungen können bei der Verarbeitung in über 100 Teile aufgesplittet werden

  • Umfangreiche PDF-Dokumente – Vollständige Richtlinienhandbücher, Standarddokumentationen oder Audit-Berichte

  • Mehrere Dateiuploads – Mehrere Dateien, die im Laufe der Konversation hochgeladen wurden

Kombination aus beidem

Ausgedehnte Konversationen mit vielen Nachrichten kombiniert mit großen Dateiuploads können schnell 200.000 Token überschreiten, selbst wenn jede einzelne Nachricht angemessen erscheint.

Beispiel: Eine umfassende Compliance-Tabelle (z. B. eine detaillierte Kontrollmatrix oder ein Dokument mit Anforderungen für mehrere Frameworks) kann bei der Verarbeitung in über 100 Teile aufgeteilt werden. In Kombination mit einem langen Konversationsverlauf und zusätzlichen Dokument-Uploads kann dies den gesamten Token-Verbrauch leicht über das Limit von 200.000 hinaustreiben.

Fehlerbehebung

1. Eine neue Konversation beginnen (Empfohlen)

Ihre vorherige Konversation wird automatisch gespeichert und ist jederzeit zugänglich. Beginnen Sie einfach eine neue Konversation, um Ihre Arbeit fortzusetzen.

Schritte:

  1. Klicken Sie auf das ISMS Copilot-Logo (oben links), um zum Willkommensbildschirm zurückzukehren

  2. Geben Sie Ihre nächste Frage in einer neuen Konversation ein

  3. Ihre alte Konversation verbleibt in Ihrem Verlauf und Arbeitsbereich

2. Vorherigen Kontext zusammenfassen

Wenn Sie sich auf frühere Arbeiten beziehen müssen, kopieren Sie die wichtigsten Ergebnisse aus Ihrer langen Konversation und fügen Sie diese in Ihren neuen Chat ein.

Beispiel:

„Basierend auf unserer vorherigen Gap-Analyse haben wir 12 fehlende ISO 27001-Kontrollen in Anhang A.8 (Asset-Management) identifiziert. Wir implementieren eine CMDB für A.8.1. Jetzt benötige ich Hilfe bei A.8.2 (Informationsklassifizierung)...“

Dies gibt der KI den benötigten Kontext, ohne den gesamten Konversationsverlauf laden zu müssen.

3. Kleinere oder weniger Dateien hochladen

Seien Sie bei Ihrer neuen Konversation strategisch bei Datei-Uploads:

  • Große Dokumente in Abschnitte aufteilen – Laden Sie nur die relevanten Seiten oder Registerkarten hoch, die analysiert werden müssen

  • Dateien einzeln hochladen – Analysieren Sie das erste Dokument und beginnen Sie dann eine neue Konversation für das nächste

  • Große Tabellenkalkulationen konvertieren – Extrahieren Sie spezifische Arbeitsblätter in separate Dateien, anstatt ganze Arbeitsmappen hochzuladen

  • Unnötige Inhalte entfernen – Löschen Sie Deckblätter, Bilder oder Anhänge, die für die Analyse nicht benötigt werden

Laden Sie bei großen Compliance-Tabellen mit mehreren Tabs oder Anforderungsbereichen nur die spezifischen Abschnitte hoch, an denen Sie gerade arbeiten, anstatt die gesamte Arbeitsmappe.

4. Separate Konversationen für verschiedene Themen nutzen

Erstellen Sie fokussierte Konversationen statt eines einzigen langen Gesprächs, das alles abdeckt:

  • Eine Konversation pro Kontrollbereich – Separate Chats für Zugriffskontrolle (A.5), Kryptografie (A.8), physische Sicherheit (A.7) usw.

  • Eine Konversation pro Dokument – Analysieren Sie jede Richtlinie oder jedes Verfahren in einem eigenen Thread

  • Eine Konversation pro Audit-Bereich – Trennen Sie die Audit-Vorbereitung von der Nachbereitung

Dieser Ansatz erleichtert es zudem, spezifische Diskussionen später wiederzufinden.

Best Practices zur Vermeidung dieses Fehlers

Für Berater, die Kundenprojekte verwalten

  • Erstellen Sie separate Arbeitsbereiche für jeden Kunden

  • Verwenden Sie innerhalb jedes Arbeitsbereichs separate Konversationen für verschiedene Phasen (Gap-Analyse, Implementierung, Audit-Vorbereitung)

  • Exportieren Sie wichtige Ergebnisse regelmäßig in Ihre eigene Dokumentation

Für ISO 27001-Implementierungen

  • Erstellen Sie eine Konversation pro Anhang A-Kontrollkategorie

  • Erstellen Sie Richtlinien in fokussierten Sitzungen statt alle auf einmal

  • Halten Sie Risikobewertungen in einer separaten Konversation von der Kontrollimplementierung getrennt

Für die Dokumentenanalyse

  • Laden Sie jeweils nur eine Richtlinie hoch und analysieren Sie diese

  • Erstellen Sie für die Gap-Analyse mehrerer Dokumente separate Konversationen für jedes einzelne

  • Fassen Sie Ergebnisse aus früheren Analysen zusammen, anstatt Dateien erneut hochzuladen

Demnächst verfügbar

Wir entwickeln aktiv ein automatisches rollierendes Kontextfenster, das lange Konversationen nahtlos verwaltet – ähnlich wie Claude.ai und ChatGPT mit längeren Diskussionen umgehen.

Wie es funktionieren wird:

  • Das System wird ältere Nachrichten automatisch zusammenfassen und gleichzeitig wichtige Informationen beibehalten

  • Der aktuelle Konversationskontext und hochgeladene Dateien bleiben immer verfügbar

  • Sie werden Konversationen ohne manuelles Eingreifen unbegrenzt fortsetzen können

  • Wichtiger Kontext wie Audit-Ergebnisse, Kontrollnummern und Entscheidungen wird „angeheftet“

Bis das rollierende Kontextfenster implementiert ist, ist der Start einer neuen Konversation die empfohlene Lösung. Ihre Arbeit wird immer gespeichert, und Sie können jederzeit auf frühere Konversationen zugreifen.

Token-Limits verstehen

Verschiedene KI-Modelle haben unterschiedliche Kontextfenster-Größen:

  • Claude Opus 4.5: 200.000 Token (~500 Seiten)

  • Mistral Medium: 128.000 Token (~320 Seiten)

Was zum Limit zählt:

  • Jede Nachricht, die Sie senden

  • Jede Antwort der KI

  • Alle hochgeladenen Dateiinhalte (aus PDFs, Tabellen usw. extrahierter Text)

  • System-Prompts und Framework-Wissen (geringfügig, aber vorhanden)

Token-Schätzung: Als grobe Faustregel gilt: 1 Token ≈ 4 Textzeichen. Somit entsprechen 200.000 Token ≈ 800.000 Zeichen ≈ 500 Seiten typischer Geschäftsdokumente.

Hilfe erhalten

Wenn Sie dieses Limit regelmäßig erreichen oder Hilfe beim Wiederherstellen von Kontext aus einer sehr langen Konversation benötigen:

  1. Kontaktieren Sie den Support über Benutzermenü → Hilfe-Center → Support kontaktieren

  2. Geben Sie den Titel der Konversation oder den Namen des Arbeitsbereichs an

  3. Erklären Sie, woran Sie gearbeitet haben und welchen Kontext Sie beibehalten müssen

  4. Wir können Ihnen helfen, wichtige Informationen zu extrahieren und Ihre Arbeit in überschaubare Konversationen zu strukturieren

Januar 2026: Wir haben ein Backend-Tracking implementiert, um von diesem Fehler betroffene Benutzer zu identifizieren, sodass unser Support-Team schneller und gezielter Hilfe leisten kann.

Zugehörige Ressourcen

War das hilfreich?