Aankomende platformverbeteringen
We werken aan verschillende verbeteringen om uw ervaring met ISMS Copilot sneller, kosteneffectiever en gebruiksvriendelijker te maken—vooral bij lange gesprekken.
We weten dat de huidige opzet voor lange gesprekken niet goed genoeg is. Onze #1 engineeringsprioriteit op dit moment is het implementeren van berichtcompactie om veel langere gesprekken mogelijk te maken zonder uw gebruikslimieten ernstig te beïnvloeden. Hoewel langere gesprekken altijd meer tokens zullen verbruiken vanwege de werking van AI, zal compactie u veel dichter bij oneindige gesprekken brengen met een minimale impact op het verbruik. Verwachte oplevering: eind februari tot begin maart 2026.
Berichtcompactie (Top Prioriteit - Eind feb/Begin maart 2026)
Lange chat-threads sturen momenteel de volledige gesprekshistorie mee bij elk bericht, wat snel uw tokenquotum verbruikt en "conversation too long"-fouten veroorzaakt. We implementeren berichtcompactie met automatisch contextbeheer dat zal zorgen voor:
Bijna oneindige gesprekslengte mogelijk maken zonder tokenlimieten te overschrijden
Gebruiksimpact met maximaal 90% verminderen voor lopende gesprekken door slimme samenvattingen
Behoud van kritieke context (geüploade bestanden, auditbevindingen, controlenummers, besluiten) terwijl oudere berichten worden gecomprimeerd
Recente berichten volledig behouden voor directe context
Hetzelfde gesprek dat vandaag misschien 50.000 tokens verbruikt, zal na compactie slechts 5.000-10.000 tokens verbruiken
Dit is onze belangrijkste focus en zal worden gelanceerd tussen eind februari en begin maart 2026.
Extra verbeteringen voor lange gesprekken
Naast compactie voegen we het volgende toe:
Waarschuwingen in de chat wanneer een gesprek aanzienlijke credits verbruikt, met slimme suggesties over wanneer compactie helpt versus wanneer het beter is om opnieuw te beginnen
Duidelijkere informatie over tokenverbruik zodat u precies kunt zien hoeveel elk bericht kost en waarom
Visuele indicatoren die de gezondheid van het gesprek en de compactiestatus tonen
Slimmere documentdetectie
Elk bericht activeert momenteel een afzonderlijke controle om te zien of u om een documentanalyse vraagt. We optimaliseren dit proces om onnodige controles over te slaan en het verbruik van achtergrondtokens die u nooit ziet te verminderen.
Eerlijker facturatiemodel
We onderzoeken of we alleen kosten in rekening kunnen brengen voor nieuwe inhoud (uw laatste bericht en de reactie van de AI) in plaats van de volledige gesprekshistorie die bij elk bericht opnieuw wordt verzonden. Dit zou lange gesprekken veel betaalbaarder maken.
Deze verbeteringen zijn in ontwikkeling. We zullen dit artikel bijwerken en gebruikers informeren zodra functies worden uitgerold.
Wanneer worden deze gelanceerd?
Prompt-caching en documentdetectie-optimalisatie zijn onze hoogste prioriteiten en worden als eerste gelanceerd. Contextbeheer en wijzigingen in het facturatiemodel vereisen meer tests, maar zijn actief in uitvoering.
Heeft u vragen of suggesties? Neem contact op met ons ondersteuningsteam—we luisteren.