ISMS Copilot
Produktentwicklung

Bevorstehende Plattform-Verbesserungen

Wir arbeiten an verschiedenen Optimierungen, um Ihre Erfahrung mit ISMS Copilot schneller, kosteneffizienter und benutzerfreundlicher zu gestalten – insbesondere bei langen Konversationen.

Wir wissen, dass das aktuelle Setup fĂŒr lange Konversationen noch nicht optimal ist. Unsere oberste EntwicklungsprioritĂ€t ist derzeit die Implementierung von Nachrichten-Kompaktierung (Message Compaction), um deutlich lĂ€ngere Konversationen zu ermöglichen, ohne Ihr Nutzungslimit stark zu belasten. WĂ€hrend lĂ€ngere Chats aufgrund der Funktionsweise von KI immer mehr Token verbrauchen werden, bringt Sie die Kompaktierung einer nahezu unendlichen Konversation mit minimalen Auswirkungen auf den Verbrauch deutlich nĂ€her. Voraussichtliche Bereitstellung: Ende Februar bis Anfang MĂ€rz 2026.

Nachrichten-Kompaktierung (Höchste PrioritĂ€t – Ende Feb/Anfang MĂ€rz 2026)

Lange Chat-VerlĂ€ufe senden derzeit bei jeder neuen Nachricht den gesamten bisherigen Verlauf erneut, was Ihr Kontingent schnell verbraucht und zu Fehlermeldungen wegen zu langer Konversationen fĂŒhrt. Wir fĂŒhren eine Nachrichten-Kompaktierung mit automatischem Kontext-Management ein, die Folgendes bewirkt:

  • Ermöglicht nahezu unendliche KonversationslĂ€ngen, ohne Token-Limits zu sprengen

  • Reduziert den Verbrauch um bis zu 90 % bei laufenden Konversationen durch intelligente Zusammenfassungen

  • Bewahrt kritischen Kontext (hochgeladene Dateien, Audit-Ergebnisse, Kontrollnummern, Entscheidungen), wĂ€hrend Ă€ltere Nachrichten komprimiert werden

  • ErhĂ€lt aktuelle Nachrichten vollstĂ€ndig fĂŒr den direkten Kontext

  • Dieselbe Konversation, die heute 50.000 Token verbraucht, wird nach der Kompaktierung nur noch 5.000–10.000 Token benötigen.

Dies ist unser Hauptfokus und wird zwischen Ende Februar und Anfang MÀrz 2026 veröffentlicht.

Weitere Verbesserungen fĂŒr lange Konversationen

ZusÀtzlich zur Kompaktierung ergÀnzen wir:

  • In-Chat-Warnungen, wenn eine Konversation signifikante Credits verbraucht, mit intelligenten VorschlĂ€gen, wann eine Kompaktierung hilft und wann ein Neustart besser ist

  • Klarere Informationen zum Token-Verbrauch, damit Sie genau sehen, was jede Nachricht kostet und warum

  • Visuelle Indikatoren, die den Status der Konversation und der Kompaktierung anzeigen

Intelligentere Dokumentenerkennung

Jede Nachricht löst derzeit eine separate PrĂŒfung aus, ob Sie eine Dokumentenanalyse anfordern. Wir optimieren diesen Prozess, um unnötige PrĂŒfungen zu ĂŒberspringen und den Token-Verbrauch im Hintergrund, den Sie nie direkt sehen, zu reduzieren.

Faireres Abrechnungsmodell

Wir prĂŒfen derzeit, ob wir nur den neuen Inhalt berechnen (Ihre neueste Nachricht und die Antwort der KI), anstatt den gesamten Konversationsverlauf, der bei jeder Nachricht erneut gesendet wird. Dies wĂŒrde lange Konversationen deutlich erschwinglicher machen.

Diese Verbesserungen befinden sich in der Entwicklung. Wir werden diesen Artikel aktualisieren und die Nutzer benachrichtigen, sobald die Funktionen verfĂŒgbar sind.

Wann werden diese Funktionen veröffentlicht?

Prompt-Caching und die Optimierung der Dokumentenerkennung haben höchste PrioritĂ€t und werden zuerst veröffentlicht. Das Kontext-Management und die Änderungen am Abrechnungsmodell erfordern weitere Tests, befinden sich aber in aktiver Bearbeitung.

Haben Sie Fragen oder Anregungen? Kontaktieren Sie unser Support-Team – wir hören Ihnen zu.

War das hilfreich?