Bevorstehende Plattform-Verbesserungen
Wir arbeiten an verschiedenen Optimierungen, um Ihre Erfahrung mit ISMS Copilot schneller, kosteneffizienter und benutzerfreundlicher zu gestalten â insbesondere bei langen Konversationen.
Wir wissen, dass das aktuelle Setup fĂŒr lange Konversationen noch nicht optimal ist. Unsere oberste EntwicklungsprioritĂ€t ist derzeit die Implementierung von Nachrichten-Kompaktierung (Message Compaction), um deutlich lĂ€ngere Konversationen zu ermöglichen, ohne Ihr Nutzungslimit stark zu belasten. WĂ€hrend lĂ€ngere Chats aufgrund der Funktionsweise von KI immer mehr Token verbrauchen werden, bringt Sie die Kompaktierung einer nahezu unendlichen Konversation mit minimalen Auswirkungen auf den Verbrauch deutlich nĂ€her. Voraussichtliche Bereitstellung: Ende Februar bis Anfang MĂ€rz 2026.
Nachrichten-Kompaktierung (Höchste PrioritĂ€t â Ende Feb/Anfang MĂ€rz 2026)
Lange Chat-VerlĂ€ufe senden derzeit bei jeder neuen Nachricht den gesamten bisherigen Verlauf erneut, was Ihr Kontingent schnell verbraucht und zu Fehlermeldungen wegen zu langer Konversationen fĂŒhrt. Wir fĂŒhren eine Nachrichten-Kompaktierung mit automatischem Kontext-Management ein, die Folgendes bewirkt:
Ermöglicht nahezu unendliche KonversationslÀngen, ohne Token-Limits zu sprengen
Reduziert den Verbrauch um bis zu 90 % bei laufenden Konversationen durch intelligente Zusammenfassungen
Bewahrt kritischen Kontext (hochgeladene Dateien, Audit-Ergebnisse, Kontrollnummern, Entscheidungen), wÀhrend Àltere Nachrichten komprimiert werden
ErhĂ€lt aktuelle Nachrichten vollstĂ€ndig fĂŒr den direkten Kontext
Dieselbe Konversation, die heute 50.000 Token verbraucht, wird nach der Kompaktierung nur noch 5.000â10.000 Token benötigen.
Dies ist unser Hauptfokus und wird zwischen Ende Februar und Anfang MÀrz 2026 veröffentlicht.
Weitere Verbesserungen fĂŒr lange Konversationen
ZusÀtzlich zur Kompaktierung ergÀnzen wir:
In-Chat-Warnungen, wenn eine Konversation signifikante Credits verbraucht, mit intelligenten VorschlÀgen, wann eine Kompaktierung hilft und wann ein Neustart besser ist
Klarere Informationen zum Token-Verbrauch, damit Sie genau sehen, was jede Nachricht kostet und warum
Visuelle Indikatoren, die den Status der Konversation und der Kompaktierung anzeigen
Intelligentere Dokumentenerkennung
Jede Nachricht löst derzeit eine separate PrĂŒfung aus, ob Sie eine Dokumentenanalyse anfordern. Wir optimieren diesen Prozess, um unnötige PrĂŒfungen zu ĂŒberspringen und den Token-Verbrauch im Hintergrund, den Sie nie direkt sehen, zu reduzieren.
Faireres Abrechnungsmodell
Wir prĂŒfen derzeit, ob wir nur den neuen Inhalt berechnen (Ihre neueste Nachricht und die Antwort der KI), anstatt den gesamten Konversationsverlauf, der bei jeder Nachricht erneut gesendet wird. Dies wĂŒrde lange Konversationen deutlich erschwinglicher machen.
Diese Verbesserungen befinden sich in der Entwicklung. Wir werden diesen Artikel aktualisieren und die Nutzer benachrichtigen, sobald die Funktionen verfĂŒgbar sind.
Wann werden diese Funktionen veröffentlicht?
Prompt-Caching und die Optimierung der Dokumentenerkennung haben höchste PrioritĂ€t und werden zuerst veröffentlicht. Das Kontext-Management und die Ănderungen am Abrechnungsmodell erfordern weitere Tests, befinden sich aber in aktiver Bearbeitung.
Haben Sie Fragen oder Anregungen? Kontaktieren Sie unser Support-Team â wir hören Ihnen zu.