ISMS Copilot
Aan de slag

Foutmelding: Conversatie te lang

Als u de melding "Uw gesprek is te lang. Start een nieuw gesprek om verder te gaan." of "AI-service is tegen een fout aangelopen. Probeer het opnieuw." ziet bij het verzenden van een bericht, dan heeft u de maximale conversatielengte bereikt die de AI kan verwerken.

Wat is er gebeurd?

De gecombineerde grootte van uw gesprekgeschiedenis, geüploade bestanden en het huidige bericht heeft de limiet van het contextvenster van het AI-model overschreden. Deze technische limiet bedraagt 200.000 tokens (ongeveer 500 pagina's tekst of 800.000 tekens).

Zie het als het "werkgeheugen" van de AI—zodra het gesprek te lang wordt, kan de AI niet meer alle informatie in één keer verwerken.

Waarom is dit gebeurd?

Deze fout treedt meestal op wanneer u het volgende heeft:

Lange gesprekgeschiedenis

Gesprekken met meer dan 100 berichten, vooral gedetailleerde discussies over complexe compliance-onderwerpen, kunnen aanzienlijke context opbouwen.

Grote bestandsuploads

Bestanden verbruiken een groot deel van de contextlimiet, in het bijzonder:

  • Spreadsheets met meerdere tabbladen - Grote Excel-bestanden met uitgebreide controlematrices of gedetailleerde vereisten kunnen bij verwerking in meer dan 100 delen worden gesplitst

  • Lange PDF-documenten - Volledige beleidshandboeken, standaarddocumentatie of auditrapporten

  • Meerdere documentuploads - Diverse bestanden die gedurende het gesprek zijn geüpload

Combinatie van beide

Uitgebreide gesprekken met veel berichten in combinatie met grote bestandsuploads kunnen snel de 200.000 tokens overschrijden, zelfs als elk afzonderlijk bericht redelijk lijkt.

Voorbeeld: Een uitgebreide compliance-spreadsheet (zoals een gedetailleerde controlematrix of een document met vereisten voor meerdere frameworks) kan bij verwerking in meer dan 100 delen worden gesplitst. In combinatie met een uitgebreide gesprekgeschiedenis en extra documentuploads kan dit het totale tokenverbruik gemakkelijk boven de limiet van 200.000 duwen.

Hoe u dit kunt oplossen

1. Start een nieuw gesprek (Aanbevolen)

Uw vorige gesprek wordt automatisch opgeslagen en is op elk moment toegankelijk. Start simpelweg een nieuw gesprek om uw werk voort te zetten.

Stappen:

  1. Klik op het ISMS Copilot-logo (linksbovenaan) om terug te keren naar het welkomstscherm

  2. Begin uw volgende vraag te typen in een nieuw gesprek

  3. Uw oude gesprek blijft bewaard in uw geschiedenis en werkruimte

2. Vat de eerdere context samen

Als u naar eerder werk wilt verwijzen, kopieer dan de belangrijkste bevindingen uit uw lange gesprek en voeg deze toe aan uw nieuwe chat.

Voorbeeld:

"Op basis van onze eerdere gap-analyse hebben we 12 ontbrekende ISO 27001-controles geïdentificeerd in Annex A.8 (Asset Management). We implementeren een CMDB voor A.8.1. Nu heb ik hulp nodig bij A.8.2 (informatieclassificatie)..."

Dit geeft de AI de context die nodig is zonder de volledige gesprekgeschiedenis te hoeven laden.

3. Upload kleinere of minder bestanden

Wees in uw nieuwe gesprek strategisch met het uploaden van bestanden:

  • Splits grote documenten op in secties - Upload alleen de relevante pagina's of tabbladen die geanalyseerd moeten worden

  • Upload één bestand tegelijk - Analyseer het eerste document en start vervolgens een nieuw gesprek voor het volgende

  • Converteer grote spreadsheets - Extraheer specifieke werkbladen naar afzonderlijke bestanden in plaats van volledige werkmappen te uploaden

  • Verwijder onnodige inhoud - Verwijder voorbladen, afbeeldingen of bijlagen die niet nodig zijn voor de analyse

Upload voor grote compliance-spreadsheets met meerdere tabbladen of domeinen alleen de specifieke secties waaraan u werkt, in plaats van de hele werkmap.

4. Gebruik afzonderlijke gesprekken voor verschillende onderwerpen

In plaats van één lang gesprek dat alles behandelt, kunt u beter gefocuste gesprekken aanmaken:

  • Eén gesprek per controledomein - Afzonderlijke chats voor Toegangbeheer (A.5), Cryptografie (A.8), Fysieke beveiliging (A.7), enz.

  • Eén gesprek per document - Analyseer elk beleid of elke procedure in zijn eigen thread

  • Eén gesprek per auditgebied - Houd de voorbereiding van de pre-audit gescheiden van de sanering na de audit

Deze aanpak maakt het ook gemakkelijker om specifieke discussies later terug te vinden.

Best practices om deze fout te voorkomen

Voor consultants die klantprojecten beheren

  • Maak afzonderlijke werkruimtes aan voor elke klant

  • Gebruik binnen elke werkruimte afzonderlijke gesprekken voor verschillende fasen (gap-analyse, implementatie, auditvoorbereiding)

  • Exporteer belangrijke bevindingen regelmatig naar uw eigen documentatie

Voor ISO 27001-implementaties

  • Maak één gesprek aan per Annex A-controlecategorie

  • Genereer beleid in gefocuste sessies in plaats van alles tegelijk

  • Houd risicobeoordelingen in een afzonderlijk gesprek van de controle-implementatie

Voor documentanalyse

  • Upload en analyseer één beleid tegelijk

  • Maak voor een gap-analyse van meerdere documenten afzonderlijke gesprekken aan voor elk document

  • Vat bevindingen van eerdere analyses samen in plaats van bestanden opnieuw te uploaden

Automatische compressie voor Think-modus

Goed nieuws: Automatische gesprekscompressie is nu live voor de Think-modus (Claude Opus 4.6). Wanneer uw gesprek in de Think-modus de contextlimiet naderdt, vat het systeem eerdere berichten automatisch op de achtergrond samen, zodat u onbeperkt kunt doorgaan zonder een nieuwe chat te starten.

Hoe het werkt:

  • Automatische samenvatting: Bij het naderen van ~150.000 tokens in Think-modus, comprimeert de backend oudere berichten terwijl de belangrijkste context behouden blijft

  • Visuele indicator: U ziet tijdens het proces een kort voortgangsbericht "Gesprek comprimeren..." (amberkleurige indicator)

  • Naadloze voortzetting: Na een paar seconden wordt uw gesprek normaal hervat met behoud van de volledige context

  • Oneindige gesprekken: Geen handmatige herstarts meer voor uitgebreide compliance-discussies, gap-analyses of beleidsbeoordelingen

Alleen Think-modus: Compressie is momenteel exclusief beschikbaar voor de Think-modus (Claude Opus 4.6). De Fast-modus en andere AI-modellen hebben nog steeds standaardlimieten voor de conversatielengte. Schakel over naar de Think-modus voor langdurig, complex compliance-werk dat uitgebreide context vereist.

Voor andere modi: Als u de Fast-modus of andere AI-modellen gebruikt en de limiet voor de gesprekslengte bereikt, blijft het starten van een nieuw gesprek de aanbevolen aanpak. Uw vorige gesprek wordt automatisch opgeslagen en is op elk moment toegankelijk.

Tokenlimieten begrijpen

Verschillende AI-modellen hebben verschillende groottes voor het contextvenster:

  • Claude Opus 4.5: 200.000 tokens (~500 pagina's)

  • Mistral Medium: 128.000 tokens (~320 pagina's)

Wat telt mee voor de limiet:

  • Elk bericht dat u verzendt

  • Elke reactie van de AI

  • Alle inhoud van geüploade bestanden (tekst geëxtraheerd uit PDF's, spreadsheets, enz.)

  • Systeemprompts en framework-kennis (minimaal, maar aanwezig)

Token-schatting: Als ruwe richtlijn geldt: 1 token ≈ 4 tekens tekst. Dus 200.000 tokens ≈ 800.000 tekens ≈ 500 pagina's aan typische zakelijke documenten.

Hulp krijgen

Als u consequent tegen deze limiet aanloopt of hulp nodig heeft bij het herstellen van context uit een zeer lang gesprek:

  1. Neem contact op met support via Gebruikersmenu → Helpcentrum → Contact opnemen met support

  2. Vermeld de titel van het gesprek of de naam van de werkruimte

  3. Leg uit waaraan u werkte en welke context u moet behouden

  4. Wij kunnen u helpen belangrijke informatie te extraheren en uw werk te structureren in beheersbare gesprekken

Januari 2026: We hebben backend-tracking geïmplementeerd om gebruikers te identificeren die door deze fout worden getroffen, waardoor ons supportteam sneller en gerichter hulp kan bieden.

Gerelateerde bronnen

Was dit nuttig?