ISMS Copilot
Engineering

Aankomende platformverbeteringen

We werken aan verschillende verbeteringen om uw ervaring met ISMS Copilot sneller, kosteneffectiever en gebruiksvriendelijker te maken—vooral bij lange gesprekken.

We weten dat de huidige opzet voor lange gesprekken niet goed genoeg is. Onze #1 engineeringsprioriteit op dit moment is het implementeren van berichtcompactie om veel langere gesprekken mogelijk te maken zonder uw gebruikslimieten ernstig te beïnvloeden. Hoewel langere gesprekken altijd meer tokens zullen verbruiken vanwege de werking van AI, zal compactie u veel dichter bij oneindige gesprekken brengen met een minimale impact op het verbruik. Verwachte oplevering: eind februari tot begin maart 2026.

Berichtcompactie (Top Prioriteit - Eind feb/Begin maart 2026)

Lange chat-threads sturen momenteel de volledige gesprekshistorie mee bij elk bericht, wat snel uw tokenquotum verbruikt en "conversation too long"-fouten veroorzaakt. We implementeren berichtcompactie met automatisch contextbeheer dat zal zorgen voor:

  • Bijna oneindige gesprekslengte mogelijk maken zonder tokenlimieten te overschrijden

  • Gebruiksimpact met maximaal 90% verminderen voor lopende gesprekken door slimme samenvattingen

  • Behoud van kritieke context (geüploade bestanden, auditbevindingen, controlenummers, besluiten) terwijl oudere berichten worden gecomprimeerd

  • Recente berichten volledig behouden voor directe context

  • Hetzelfde gesprek dat vandaag misschien 50.000 tokens verbruikt, zal na compactie slechts 5.000-10.000 tokens verbruiken

Dit is onze belangrijkste focus en zal worden gelanceerd tussen eind februari en begin maart 2026.

Extra verbeteringen voor lange gesprekken

Naast compactie voegen we het volgende toe:

  • Waarschuwingen in de chat wanneer een gesprek aanzienlijke credits verbruikt, met slimme suggesties over wanneer compactie helpt versus wanneer het beter is om opnieuw te beginnen

  • Duidelijkere informatie over tokenverbruik zodat u precies kunt zien hoeveel elk bericht kost en waarom

  • Visuele indicatoren die de gezondheid van het gesprek en de compactiestatus tonen

Slimmere documentdetectie

Elk bericht activeert momenteel een afzonderlijke controle om te zien of u om een documentanalyse vraagt. We optimaliseren dit proces om onnodige controles over te slaan en het verbruik van achtergrondtokens die u nooit ziet te verminderen.

Eerlijker facturatiemodel

We onderzoeken of we alleen kosten in rekening kunnen brengen voor nieuwe inhoud (uw laatste bericht en de reactie van de AI) in plaats van de volledige gesprekshistorie die bij elk bericht opnieuw wordt verzonden. Dit zou lange gesprekken veel betaalbaarder maken.

Deze verbeteringen zijn in ontwikkeling. We zullen dit artikel bijwerken en gebruikers informeren zodra functies worden uitgerold.

Wanneer worden deze gelanceerd?

Prompt-caching en documentdetectie-optimalisatie zijn onze hoogste prioriteiten en worden als eerste gelanceerd. Contextbeheer en wijzigingen in het facturatiemodel vereisen meer tests, maar zijn actief in uitvoering.

Heeft u vragen of suggesties? Neem contact op met ons ondersteuningsteam—we luisteren.

Was dit nuttig?