Foutmelding: Conversatie te lang
Als u de melding "Uw conversatie is te lang. Start een nieuwe conversatie om door te gaan." of "AI-service is tegen een fout aangelopen. Probeer het opnieuw." ziet bij het verzenden van een bericht, hebt u de maximale conversatielengte bereikt die de AI kan verwerken.
Wat is er gebeurd?
De gecombineerde omvang van uw conversatiegeschiedenis, geüploade bestanden en het huidige bericht heeft de limiet van het contextvenster van het AI-model overschreden. Deze technische limiet bedraagt 200.000 tokens (ongeveer 500 pagina's tekst of 800.000 tekens).
Zie het als het "werkgeheugen" van de AI—zodra de conversatie te lang wordt, kan de AI niet meer alle informatie tegelijk verwerken.
Waarom is dit gebeurd?
Deze fout treedt meestal op wanneer u het volgende heeft:
Lange conversatiegeschiedenis
Conversaties met meer dan 100 berichten, vooral gedetailleerde discussies over complexe compliance-onderwerpen, kunnen aanzienlijke context opbouwen.
Grote bestandsuploads
Bestanden verbruiken een groot deel van de contextlimiet, met name:
Spreadsheets met meerdere tabbladen - Grote Excel-bestanden met uitgebreide controlematrices of gedetailleerde vereisten kunnen bij verwerking in meer dan 100 delen worden gesplitst
Lange PDF-documenten - Volledige beleidshandboeken, standaarddocumentatie of auditrapporten
Meerdere geüploade documenten - Verschillende bestanden die gedurende de conversatie zijn geüpload
Combinatie van beide
Lange conversaties met veel berichten in combinatie met grote bestandsuploads kunnen snel de grens van 200.000 tokens overschrijden, zelfs als elk afzonderlijk bericht redelijk lijkt.
Voorbeeld: Een uitgebreid compliance-spreadsheet (zoals een gedetailleerde controlematrix of een document met vereisten voor meerdere frameworks) kan bij verwerking in meer dan 100 delen worden gesplitst. In combinatie met een uitgebreide conversatiegeschiedenis en extra documentuploads kan dit het totale tokenverbruik gemakkelijk boven de limiet van 200.000 duwen.
Hoe u dit kunt oplossen
1. Start een nieuwe conversatie (Aanbevolen)
Uw vorige conversatie wordt automatisch opgeslagen en is op elk moment toegankelijk. Start simpelweg een frisse conversatie om uw werk voort te zetten.
Stappen:
Klik op het ISMS Copilot-logo (linksboven) om terug te keren naar het welkomstscherm
Begin met het typen van uw volgende vraag in een nieuwe conversatie
Uw oude conversatie blijft bewaard in uw geschiedenis en werkruimte
2. Vat de vorige context samen
Als u naar eerder werk wilt verwijzen, kopieer dan de belangrijkste bevindingen uit uw lange conversatie en voeg deze toe aan uw nieuwe chat.
Voorbeeld:
"Op basis van onze eerdere gap-analyse hebben we 12 ontbrekende ISO 27001-beheersmaatregelen geïdentificeerd in Annex A.8 (Asset Management). We implementeren een CMDB voor A.8.1. Nu heb ik hulp nodig bij A.8.2 (informatieclassificatie)..."
Dit geeft de AI de nodige context zonder de gehele conversatiegeschiedenis te hoeven laden.
3. Upload kleinere of minder bestanden
Wees strategisch met bestandsuploads voor uw nieuwe conversatie:
Verdeel grote documenten in secties - Upload alleen de relevante pagina's of tabbladen die geanalyseerd moeten worden
Upload één bestand tegelijk - Analyseer het eerste document en start vervolgens een nieuwe conversatie voor het volgende
Converteer grote spreadsheets - Haal specifieke werkbladen eruit naar afzonderlijke bestanden in plaats van volledige werkmappen te uploaden
Verwijder onnodige inhoud - Verwijder voorpagina's, afbeeldingen of bijlagen die niet nodig zijn voor de analyse
Upload voor grote compliance-spreadsheets met meerdere tabbladen of domeinen alleen de specifieke secties waaraan u werkt, in plaats van de hele werkmap.
4. Gebruik afzonderlijke conversaties voor verschillende onderwerpen
In plaats van één lange conversatie die alles dekt, kunt u beter gefocuste conversaties aanmaken:
Eén conversatie per beheerdomein - Afzonderlijke chats voor Toegangbeveiliging (A.5), Cryptografie (A.8), Fysieke beveiliging (A.7), etc.
Eén conversatie per document - Analyseer elk beleid of procedure in een eigen thread
Eén conversatie per auditgebied - Houd de voorbereiding op de audit gescheiden van de sanering na de audit
Deze aanpak maakt het ook gemakkelijker om specifieke discussies later terug te vinden.
Best practices om deze fout te voorkomen
Voor consultants die klantprojecten beheren
Maak aparte werkruimtes aan voor elke klant
Gebruik binnen elke werkruimte aparte conversaties voor verschillende fasen (gap-analyse, implementatie, auditvoorbereiding)
Exporteer belangrijke bevindingen regelmatig naar uw eigen documentatie
Voor ISO 27001-implementaties
Maak één conversatie per ISO 27001 Annex A-beheercategorie
Genereer beleid in gefocuste sessies in plaats van alles tegelijk
Houd risicobeoordelingen in een aparte conversatie gescheiden van de implementatie van beheersmaatregelen
Voor documentanalyse
Upload en analyseer één beleidsstuk tegelijk
Maak voor gap-analyses van meerdere documenten voor elk document een aparte conversatie aan
Vat bevindingen uit eerdere analyses samen in plaats van bestanden opnieuw te uploaden
Binnenkort verwacht
We werken actief aan een automatisch rollend contextvenster dat lange conversaties naadloos zal beheren—vergelijkbaar met hoe Claude.ai en ChatGPT omgaan met uitgebreide discussies.
Hoe het zal werken:
Het systeem zal oudere berichten automatisch samenvatten terwijl de belangrijkste informatie behouden blijft
Recente conversatiecontext en geüploade bestanden blijven altijd beschikbaar
U zult conversaties voor onbepaalde tijd kunnen voortzetten zonder handmatige tussenkomst
Belangrijke context zoals auditbevindingen, controlnummers en beslissingen worden vastgezet
Totdat het rollende contextvenster is geïmplementeerd, is het starten van een nieuwe conversatie de aanbevolen oplossing. Uw werk wordt altijd opgeslagen en u kunt eerdere conversaties op elk moment raadplegen.
Tokenlimieten begrijpen
Verschillende AI-modellen hebben verschillende contextvensters:
Claude Opus 4.5: 200.000 tokens (~500 pagina's)
Mistral Medium: 128.000 tokens (~320 pagina's)
Wat telt mee voor de limiet:
Elk bericht dat u stuurt
Elk antwoord van de AI
Alle inhoud van geüploade bestanden (tekst geëxtraheerd uit PDF's, spreadsheets, etc.)
Systeemprompts en frameworkkennis (minimaal, maar aanwezig)
Tokens schatten: Als ruwe richtlijn geldt: 1 token ≈ 4 tekens tekst. Dus 200.000 tokens ≈ 800.000 tekens ≈ 500 pagina's aan typische zakelijke documenten.
Hulp krijgen
Als u consistent tegen deze limiet aanloopt of hulp nodig hebt bij het terughalen van context uit een zeer lange conversatie:
Neem contact op met support via Gebruikersmenu → Helpcentrum → Contact opnemen met support
Vermeld de titel van de conversatie of de naam van de werkruimte
Leg uit waaraan u werkte en welke context u moet behouden
Wij kunnen u helpen om belangrijke informatie te extraheren en uw werk te structureren in beheersbare conversaties
Januari 2026: We hebben backend-tracking geïmplementeerd om gebruikers te identificeren die door deze fout worden getroffen, zodat ons supportteam snellere en meer gerichte hulp kan bieden.
Gerelateerde bronnen
Bekende problemen - Tokenlimietfouten - Technische details en ontwikkelstatus
Veelvoorkomende problemen oplossen - Andere chat- en berichtfouten
Werk organiseren met werkruimtes - Best practices voor het beheren van meerdere projecten
Bestanden uploaden en analyseren - Richtlijnen en limieten voor het uploaden van bestanden