Foutmelding: Conversatie te lang
Als u de melding "Uw gesprek is te lang. Start een nieuw gesprek om verder te gaan." of "AI-service is tegen een fout aangelopen. Probeer het opnieuw." ziet bij het verzenden van een bericht, dan heeft u de maximale conversatielengte bereikt die de AI kan verwerken.
Wat is er gebeurd?
De gecombineerde grootte van uw gesprekgeschiedenis, geüploade bestanden en het huidige bericht heeft de limiet van het contextvenster van het AI-model overschreden. Deze technische limiet bedraagt 200.000 tokens (ongeveer 500 pagina's tekst of 800.000 tekens).
Zie het als het "werkgeheugen" van de AI—zodra het gesprek te lang wordt, kan de AI niet meer alle informatie in één keer verwerken.
Waarom is dit gebeurd?
Deze fout treedt meestal op wanneer u het volgende heeft:
Lange gesprekgeschiedenis
Gesprekken met meer dan 100 berichten, vooral gedetailleerde discussies over complexe compliance-onderwerpen, kunnen aanzienlijke context opbouwen.
Grote bestandsuploads
Bestanden verbruiken een groot deel van de contextlimiet, in het bijzonder:
Spreadsheets met meerdere tabbladen - Grote Excel-bestanden met uitgebreide controlematrices of gedetailleerde vereisten kunnen bij verwerking in meer dan 100 delen worden gesplitst
Lange PDF-documenten - Volledige beleidshandboeken, standaarddocumentatie of auditrapporten
Meerdere documentuploads - Diverse bestanden die gedurende het gesprek zijn geüpload
Combinatie van beide
Uitgebreide gesprekken met veel berichten in combinatie met grote bestandsuploads kunnen snel de 200.000 tokens overschrijden, zelfs als elk afzonderlijk bericht redelijk lijkt.
Voorbeeld: Een uitgebreide compliance-spreadsheet (zoals een gedetailleerde controlematrix of een document met vereisten voor meerdere frameworks) kan bij verwerking in meer dan 100 delen worden gesplitst. In combinatie met een uitgebreide gesprekgeschiedenis en extra documentuploads kan dit het totale tokenverbruik gemakkelijk boven de limiet van 200.000 duwen.
Hoe u dit kunt oplossen
1. Start een nieuw gesprek (Aanbevolen)
Uw vorige gesprek wordt automatisch opgeslagen en is op elk moment toegankelijk. Start simpelweg een nieuw gesprek om uw werk voort te zetten.
Stappen:
Klik op het ISMS Copilot-logo (linksbovenaan) om terug te keren naar het welkomstscherm
Begin uw volgende vraag te typen in een nieuw gesprek
Uw oude gesprek blijft bewaard in uw geschiedenis en werkruimte
2. Vat de eerdere context samen
Als u naar eerder werk wilt verwijzen, kopieer dan de belangrijkste bevindingen uit uw lange gesprek en voeg deze toe aan uw nieuwe chat.
Voorbeeld:
"Op basis van onze eerdere gap-analyse hebben we 12 ontbrekende ISO 27001-controles geïdentificeerd in Annex A.8 (Asset Management). We implementeren een CMDB voor A.8.1. Nu heb ik hulp nodig bij A.8.2 (informatieclassificatie)..."
Dit geeft de AI de context die nodig is zonder de volledige gesprekgeschiedenis te hoeven laden.
3. Upload kleinere of minder bestanden
Wees in uw nieuwe gesprek strategisch met het uploaden van bestanden:
Splits grote documenten op in secties - Upload alleen de relevante pagina's of tabbladen die geanalyseerd moeten worden
Upload één bestand tegelijk - Analyseer het eerste document en start vervolgens een nieuw gesprek voor het volgende
Converteer grote spreadsheets - Extraheer specifieke werkbladen naar afzonderlijke bestanden in plaats van volledige werkmappen te uploaden
Verwijder onnodige inhoud - Verwijder voorbladen, afbeeldingen of bijlagen die niet nodig zijn voor de analyse
Upload voor grote compliance-spreadsheets met meerdere tabbladen of domeinen alleen de specifieke secties waaraan u werkt, in plaats van de hele werkmap.
4. Gebruik afzonderlijke gesprekken voor verschillende onderwerpen
In plaats van één lang gesprek dat alles behandelt, kunt u beter gefocuste gesprekken aanmaken:
Eén gesprek per controledomein - Afzonderlijke chats voor Toegangbeheer (A.5), Cryptografie (A.8), Fysieke beveiliging (A.7), enz.
Eén gesprek per document - Analyseer elk beleid of elke procedure in zijn eigen thread
Eén gesprek per auditgebied - Houd de voorbereiding van de pre-audit gescheiden van de sanering na de audit
Deze aanpak maakt het ook gemakkelijker om specifieke discussies later terug te vinden.
Best practices om deze fout te voorkomen
Voor consultants die klantprojecten beheren
Maak afzonderlijke werkruimtes aan voor elke klant
Gebruik binnen elke werkruimte afzonderlijke gesprekken voor verschillende fasen (gap-analyse, implementatie, auditvoorbereiding)
Exporteer belangrijke bevindingen regelmatig naar uw eigen documentatie
Voor ISO 27001-implementaties
Maak één gesprek aan per Annex A-controlecategorie
Genereer beleid in gefocuste sessies in plaats van alles tegelijk
Houd risicobeoordelingen in een afzonderlijk gesprek van de controle-implementatie
Voor documentanalyse
Upload en analyseer één beleid tegelijk
Maak voor een gap-analyse van meerdere documenten afzonderlijke gesprekken aan voor elk document
Vat bevindingen van eerdere analyses samen in plaats van bestanden opnieuw te uploaden
Automatische compressie voor Think-modus
Goed nieuws: Automatische gesprekscompressie is nu live voor de Think-modus (Claude Opus 4.6). Wanneer uw gesprek in de Think-modus de contextlimiet naderdt, vat het systeem eerdere berichten automatisch op de achtergrond samen, zodat u onbeperkt kunt doorgaan zonder een nieuwe chat te starten.
Hoe het werkt:
Automatische samenvatting: Bij het naderen van ~150.000 tokens in Think-modus, comprimeert de backend oudere berichten terwijl de belangrijkste context behouden blijft
Visuele indicator: U ziet tijdens het proces een kort voortgangsbericht "Gesprek comprimeren..." (amberkleurige indicator)
Naadloze voortzetting: Na een paar seconden wordt uw gesprek normaal hervat met behoud van de volledige context
Oneindige gesprekken: Geen handmatige herstarts meer voor uitgebreide compliance-discussies, gap-analyses of beleidsbeoordelingen
Alleen Think-modus: Compressie is momenteel exclusief beschikbaar voor de Think-modus (Claude Opus 4.6). De Fast-modus en andere AI-modellen hebben nog steeds standaardlimieten voor de conversatielengte. Schakel over naar de Think-modus voor langdurig, complex compliance-werk dat uitgebreide context vereist.
Voor andere modi: Als u de Fast-modus of andere AI-modellen gebruikt en de limiet voor de gesprekslengte bereikt, blijft het starten van een nieuw gesprek de aanbevolen aanpak. Uw vorige gesprek wordt automatisch opgeslagen en is op elk moment toegankelijk.
Tokenlimieten begrijpen
Verschillende AI-modellen hebben verschillende groottes voor het contextvenster:
Claude Opus 4.5: 200.000 tokens (~500 pagina's)
Mistral Medium: 128.000 tokens (~320 pagina's)
Wat telt mee voor de limiet:
Elk bericht dat u verzendt
Elke reactie van de AI
Alle inhoud van geüploade bestanden (tekst geëxtraheerd uit PDF's, spreadsheets, enz.)
Systeemprompts en framework-kennis (minimaal, maar aanwezig)
Token-schatting: Als ruwe richtlijn geldt: 1 token ≈ 4 tekens tekst. Dus 200.000 tokens ≈ 800.000 tekens ≈ 500 pagina's aan typische zakelijke documenten.
Hulp krijgen
Als u consequent tegen deze limiet aanloopt of hulp nodig heeft bij het herstellen van context uit een zeer lang gesprek:
Neem contact op met support via Gebruikersmenu → Helpcentrum → Contact opnemen met support
Vermeld de titel van het gesprek of de naam van de werkruimte
Leg uit waaraan u werkte en welke context u moet behouden
Wij kunnen u helpen belangrijke informatie te extraheren en uw werk te structureren in beheersbare gesprekken
Januari 2026: We hebben backend-tracking geïmplementeerd om gebruikers te identificeren die door deze fout worden getroffen, waardoor ons supportteam sneller en gerichter hulp kan bieden.
Gerelateerde bronnen
Bekende problemen - Tokenlimietfouten - Technische details en ontwikkelstatus
Problemen met veelvoorkomende zaken oplossen - Andere chat- en berichtfouten
Werk organiseren met werkruimtes - Best practices voor het beheren van meerdere projecten
Bestanden uploaden en analyseren - Richtlijnen en limieten voor het uploaden van bestanden