ISMS Copilot
AI-veiligheid

Technisch overzicht AI-systeem

Overzicht

Dit artikel biedt technische transparantie over hoe de AI-systemen van ISMS Copilot zijn gebouwd, getest en worden beheerd. Deze details tonen onze toewijding aan verantwoorde AI-ontwikkeling aan de hand van verifieerbare implementatiepraktijken.

Voor wie is dit bedoeld

Dit artikel is bedoeld voor:

  • Security- en compliance-teams die AI-governancecontroles evalueren

  • Auditors die de implementatie van AI-systemen beoordelen aan de hand van beleid

  • Risicomanagers die technische transparantie vereisen voor AI-systemen

  • Technische gebruikers die de AI-architectuur willen begrijpen

ISO 42001-implementatie

Het AI-systeem van ISMS Copilot is ontworpen en wordt beheerd in overeenstemming met de vereisten van ISO 42001:2023 (Artificial Intelligence Management System). Onze technische implementatie sluit aan bij specifieke ISO 42001-beheersmaatregelen:

Afstemming architectuur:

  • A.4.2 (Vaststellen van de context): Dynamisch systeem voor het injecteren van framework-kennis, gedocumenteerd in het AI System Design Document (AI-SDD-001)

  • A.5 (Impactbeoordeling): Uitgebreide AI-impactbeoordeling (1.9 Laag risico, classificatie EU AI Act Beperkt Risico)

  • A.6 (Verantwoorde ontwikkeling): Veilige ontwikkelingscyclus met regressietesten, SAST/DAST-scanning en prompt injection-testen

  • A.7 (Gegevensbeheer): Zero Data Retention-overeenkomsten, isolatie van werkomgevingen en door de gebruiker gecontroleerde bewaartermijnen

  • A.8 (Gebruikersinteractie): Transparantiemeldingen, human-in-the-loop-ontwerp en verificatiedisclaimers in het hele platform

  • A.9 (Verantwoord gebruik): Doelbinding, preventie van jailbreaking en vangrails voor de reikwijdte van de inhoud

Zie 'Hoe ISMS Copilot ISO 42001 implementeert' voor volledige documentatie van ons AI-managementsysteem, risicobeoordelingen, testen op vooringenomenheid en prestatiebewaking.

Dynamische architectuur voor framework-kennis

ISMS Copilot maakt gebruik van dynamische injectie van framework-kennis om AI-antwoorden te baseren op geverifieerde compliance-informatie. Vanaf versie 2.5 (februari 2025) vervangt dit de eerdere RAG-architectuur (Retrieval-Augmented Generation) door een betrouwbaardere en token-efficiëntere aanpak.

Hoe de injectie van framework-kennis werkt

Onderdelen van de architectuur:

  • Framework-detectielaag: Op Regex gebaseerde patroonherkenning detecteert vermeldingen van frameworks in gebruikersvragen (ISO 27001, SOC 2, GDPR, HIPAA, CCPA, NIS 2, DORA, ISO 42001, ISO 27701, EU AI Act)

  • Kennis-injectielaag: Laadt dynamisch alleen relevante framework-kennis in de AI-context op basis van gedetecteerde frameworks

  • Generatielaag: Large Language Models (LLM's) van zakelijke AI-providers ontvangen framework-kennis voordat ze antwoorden genereren

  • Validatiemechanisme: Framework-kennis die aan de AI wordt verstrekt, zorgt ervoor dat antwoorden zijn gebaseerd op werkelijke compliance-vereisten in plaats van probabilistische gissingen

Dynamische injectie van framework-kennis elimineert hallucinaties door de AI te voorzien van feitelijke kennis voordat deze antwoordt. De detectie vindt plaats vóór de AI-verwerking (niet op basis van AI), wat 100% betrouwbaarheid garandeert wanneer frameworks worden genoemd.

Waarom dynamische injectie belangrijk is voor compliance:

  • Elimineert hallucinaties: De AI ontvangt geverifieerde framework-kennis voordat deze antwoordt, wat gefabriceerde controlenummers en vereisten voorkomt

  • Token-efficiëntie: Alleen relevante frameworks worden geladen (~1-2K tokens) in plaats van alle kennis (~10K tokens) bij elk verzoek

  • Betrouwbare detectie: Regex-patroonherkenning (niet AI-gebaseerd) zorgt ervoor dat vermeldingen van frameworks nooit worden gemist

  • Uitbreidbare architectuur: Nieuwe frameworks kunnen worden toegevoegd met een enkele objectdefinitie, zonder dat het model opnieuw moet worden getraind

  • Ondersteuning voor meerdere frameworks: Verwerkt queries die meerdere frameworks tegelijk noemen (bijv. \"Map ISO 27001 naar SOC 2\")

Technische implementatie

Detectieproces:

  1. De gebruiker dient een vraag in (bijv. \"Wat is ISO 27001 Annex A.5.9?\")

  2. Framework-detectie scant de query op patroonovereenkomsten (ISO 27001, GDPR, SOC 2, etc.)

  3. Gevonden frameworks triggeren de kennisinjectie

  4. Relevante framework-kennis wordt toegevoegd aan de AI-systeemprompt vóór de generatie

Ondersteunde frameworks (v2.5):

  • ISO 27001:2022 — Informatiebeveiligingsmanagementsysteem

  • ISO 42001:2023 — Managementsysteem voor kunstmatige intelligentie

  • ISO 27701:2025 — Managementsysteem voor privacy-informatie

  • SOC 2 — Service Organization Control (Trust Services Criteria)

  • HIPAA — Health Insurance Portability and Accountability Act

  • GDPR — Algemene Verordening Gegevensbescherming (AVG)

  • CCPA — California Consumer Privacy Act

  • NIS 2 — Netwerk- en Informatiebeveiligingsrichtlijn

  • DORA — Digital Operational Resilience Act

  • EU AI Act — Wet op de kunstmatige intelligentie van de Europese Unie

Er worden continu meer frameworks toegevoegd. Volgende prioriteiten zijn NIST 800-53, PCI DSS en aanvullende regionale regelgeving. Bekijk de Product Changelog voor updates.

Evolutie van RAG naar dynamische injectie

Eerdere aanpak (vóór v2.5): RAG-architectuur

  • Semantisch zoeken haalde relevante documentatiefragmenten op

  • De kwaliteit van de resultaten varieerde op basis van de formulering van de query

  • Alle ~10K tokens aan kennis werden bij veel verzoeken meegestuurd

  • Voornamelijk gericht op ISO 27001

Huidige aanpak (v2.5+): Dynamische framework-injectie

  • Op Regex gebaseerde detectie zorgt voor betrouwbare identificatie van frameworks

  • Alleen relevante frameworks worden geladen (token-efficiënt)

  • Ondersteunt 10 frameworks tegelijkertijd

  • Uitbreidbaar ontwerp voor snelle toevoeging van frameworks

Als u verwijzingen naar de "RAG-architectuur" ziet in oudere documentatie of externe bronnen, houd er dan rekening mee dat ISMS Copilot in versie 2.5 (februari 2025) is overgestapt op dynamische injectie van framework-kennis. De nieuwe aanpak is betrouwbaarder en ondersteunt veel meer frameworks.

AI-providers & gegevensbescherming

Wij maken gebruik van AI-providers op enterprise-niveau met strikte overeenkomsten voor gegevensbescherming.

Huidige providers

Backend AI-modellen:

  • Anthropic Claude (standaard) — Chat-antwoorden en compliance-analyse

  • xAI Grok — Documentgeneratie en opmaak

  • OpenAI GPT — Detectie (identificatie en analyse van documenttypes)

  • Mistral AI — Provider gevestigd in de EU voor de modus 'Geavanceerde gegevensbescherming'

Anthropic Claude is de standaardprovider voor chatgesprekken, met automatische failover naar OpenAI als Anthropic storingen ervaart. xAI Grok verzorgt het genereren en opmaken van documenten, terwijl OpenAI GPT wordt gebruikt voor detectietaken. Wanneer Geavanceerde gegevensbescherming is ingeschakeld, schakelen alle bewerkingen over naar Mistral AI (gevestigd in de EU). Alle modellen hebben via dynamische framework-injectie toegang tot dezelfde gespecialiseerde compliance-kennisbank, wat zorgt voor consistente en betrouwbare begeleiding.

Zero Data Retention-overeenkomsten

Alle AI-providers werken onder Zero Data Retention (ZDR) overeenkomsten:

Uw gegevens worden NOOIT gebruikt om AI-modellen te trainen. ZDR-overeenkomsten garanderen dat uw gesprekken, geüploade documenten en de inhoud van uw werkomgeving vertrouwelijk blijven en niet door AI-providers worden bewaard na de verwerking van uw verzoeken.

ZDR-overeenkomstvoorwaarden:

  • Geen bewaring van gebruikersgegevens na verwerking van het verzoek

  • Geen modeltraining op klantinhoud

  • AVG-conforme gegevensoverdracht met Standard Contractual Clauses (SCC's)

  • Handhaving van beveiligingsstandaarden op enterprise-niveau

Voor gedetailleerde informatie over verwerkers en gegevensstromen, zie ons Register van Verwerkingsactiviteiten.

Ontwikkelingseisen

Elk onderdeel van het AI-systeem is ontwikkeld op basis van gedocumenteerde vereisten die verwacht gedrag, veiligheidsbeperkingen en prestatiedrempels definiëren.

Functionele vereisten

Definitie van de reikwijdte:

  • De AI biedt hulp bij naleving, geen juridisch advies

  • Taakgrenzen: beleidsgeneratie, gap-analyse, auditvoorbereiding, documentbeoordeling

  • Handhaving van beperkingen: geen internettoegang, geen uitvoering van code, geen verwerking van persoonsgegevens buiten het gebruik van het platform

Prestatievereisten

Kwaliteitsdoelstellingen:

  • Nauwkeurigheid van antwoorden gebaseerd op opgehaalde bronnen met bronvermelding

  • Contextvenster dat groot genoeg is voor compliance-analyse van meerdere documenten

  • Responstijd geoptimaliseerd voor interactief gebruik (doel: minder dan 10 seconden)

  • Gedefinieerde rate limits per gebruikerstier om systeemstabiliteit te garanderen

Veiligheidsvereisten

Beperking van hallucinaties:

  • Bronverankering: antwoorden moeten verwijzen naar opgehaalde documentatie

  • Validatie van ophalen: antwoorden worden gecontroleerd aan de hand van de broninhoud

  • Betrouwbaarheidsscore: onzekerheid wordt erkend wanneer bronnen dubbelzinnig zijn

  • Disclaimers voor gebruikersverificatie: alle outputs vereisen menselijke beoordeling

Inhoudsfiltering:

  • Detectie en blokkering van ongepaste inhoud

  • Grenzen van de reikwijdte: de AI weigert verzoeken buiten de reikwijdte (bijv. niet-gerelateerde onderwerpen, medisch/juridisch advies)

  • Bescherming tegen jailbreaking en prompt injection

Zie het Overzicht AI-veiligheid & Verantwoord Gebruik voor gedetailleerde veiligheidswaarborgen.

Vereisten voor gegevensverwerking

Privacy by Design:

  • Geen gebruikersgegevens voor modeltraining (ZDR-overeenkomsten worden gehandhaafd)

  • Dataminimalisatie: alleen noodzakelijke gegevens worden verwerkt voor ophalen en genereren

  • Tijdelijke verwerking: geen langdurige opslag van prompts/antwoorden buiten gebruikerssessielogs

  • Bewaarbeheer: door de gebruiker configureerbare bewaartermijnen (1 dag tot 7 jaar, of voor altijd bewaren)

  • Controle op doorgifte: AVG-conforme gegevensdoorgifte met SCC's

Voor uitgebreide praktijken rond gegevensverwerking, zie ons Privacybeleid.

Verificatie- & validatietesten

AI-systemen ondergaan strenge testen voordat ze worden uitgerold. Geen enkel systeem gaat live zonder te voldoen aan op vereisten gebaseerde validatie.

Regressietesten

Er worden geautomatiseerde tests uitgevoerd bij elke codewijziging om te garanderen dat bestaande functionaliteit intact blijft.

Testdekking:

  • Nauwkeurigheid van ophalen: Precisie en recall tegenover ground truth-datasets

  • Verankering van antwoorden: Verificatie dat outputs de opgehaalde bronnen citeren

  • Detectie van hallucinaties: Vergelijking met bekende onjuiste antwoorden

  • Prestatiebenchmarks: Validatie van responstijd en contextverwerking

Beveiligingstesten

AI-systemen ondergaan dezelfde beveiligingsvalidatie als alle andere platformonderdelen.

Testing Pipeline:

  • SAST (Static Application Security Testing): Scannen op kwetsbaarheden op codeniveau met Semgrep-integratie

  • DAST (Dynamic Application Security Testing): Beveiligingsvalidatie tijdens runtime

  • Penetratietesten: Jaarlijkse beveiligingsbeoordelingen door derden

  • Prompt Injection Testing: Validatie tegen vijandige invoer die probeert veiligheidsbeperkingen te omzeilen

Onze veilige ontwikkelingscyclus zorgt ervoor dat AI-systemen aan dezelfde beveiligingsnormen voldoen als alle andere platformonderdelen. Zie ons Beveiligingsbeleid voor gedetailleerde testpraktijken.

User Acceptance Testing (UAT)

Validatie van praktijkscenario's met compliance-professionals zorgt ervoor dat:

  • Outputs voldoen aan professionele kwaliteitsnormen

  • Antwoorden geschikt zijn voor compliance-gebruiksscenario's

  • Beperkingen duidelijk worden gecommuniceerd

  • Feedbackmechanismen toegankelijk en effectief zijn

Checklist voor validatie van uitrol

AI-systemen worden alleen uitgerold nadat aan de gedocumenteerde vereisten is voldaan:

Implementatie vereist 100% succes bij regressietesten, goedgekeurde beveiligingsscans (geen kritieke of hoge kwetsbaarheden), het voldoen aan prestatiebenchmarks, bijgewerkte gebruikersdocumentatie met beperkingen, en geconfigureerde monitoring/alertering voor het opsporen van hallucinaties.

Implementaties die niet door de validatie komen, worden teruggedraaid totdat aan de vereisten is voldaan.

Monitoring & continue verbetering

Na de uitrol monitoren we het gedrag van het AI-systeem om degradatie, opkomende problemen of misbruik te detecteren.

Monitoring-metrieken

Wat we bijhouden:

  • Hallucinatiepercentage: Bijgehouden via gebruikersrapporten en geautomatiseerde detectie

  • Nauwkeurigheid van antwoorden: Steekproefsgewijze validatie tegen de werkelijke compliance-standaarden

  • Gebruikspatronen: Detectie van gebruik buiten de reikwijdte of ongepast gebruik

  • Prestatiemetrieken: Responstijd, precisie van ophalen, foutpercentages

  • Gebruikersfeedback: Meldingen van nadelige gevolgen, supporttickets, functieaanvragen

Continue verbeteringscyclus

Monitoring-gegevens vormen de basis voor iteratieve verbeteringen:

Feedback-loops:

  • Gebruikersfeedback en rapporten over nadelige gevolgen → modelupdates en afstemming van het ophalen van informatie

  • Resultaten van beveiligingstesten → veiligheidsverbeteringen en updates van beheersmaatregelen

  • Wijzigingen in regelgeving en best practices → updates aan documentatie en frameworks

  • Prestatiebewaking → verbetering van de nauwkeurigheid en optimalisatie van antwoorden

Incidentrespons

We informeren gebruikers over AI-gerelateerde incidenten om transparantie en vertrouwen te behouden.

Meldingskanalen:

  • E-mailwaarschuwingen voor kritieke incidenten die de AI-functionaliteit beïnvloeden

  • Slack-meldingen voor geabonneerde teams

  • Updates op de statuspagina met tijdlijnen van incidenten en oplossingen

  • NIS2-conforme vroegtijdige meldingen (24-uurs rapportage voor significante cybersecurity-incidenten)

Abonneer u op onze statuspagina om realtime meldingen te ontvangen over incidenten, onderhoud en updates van het AI-systeem.

Bekende beperkingen

AI-systemen hebben inherente beperkingen die gebruikers moeten begrijpen om ze op verantwoorde wijze te kunnen gebruiken.

Technische beperkingen

AI-outputs kunnen onnauwkeurigheden (hallucinaties) bevatten, zelfs met injectie van framework-kennis. Gebruikers moeten alle outputs verifiëren aan de hand van officiële normen en regelgeving.

Huidige beperkingen:

  • Probabilistische aard: AI genereert antwoorden op basis van statistische patronen, niet op basis van deterministische logica

  • Geen internettoegang: De AI kan geen realtime informatie ophalen of externe websites bezoeken

  • Geen uitvoering van code: De AI kan geen berekeningen uitvoeren, scripts runnen of technische implementaties valideren

  • Kennishiaat: De kennis van AI-modellen is beperkt tot de afsluitdatum van de trainingsgegevens (verschilt per provider)

  • Contextlimieten: Het maximale contextvenster beperkt de hoeveelheid informatie die in één verzoek kan worden verwerkt

  • Domeingrenzen: De AI is getraind voor compliance/security; prestaties in andere domeinen worden niet gegarandeerd

Zie onze pagina met Bekende Problemen voor gedetailleerde beperkingen en workarounds.

Verantwoordelijkheid van de gebruiker voor verificatie

ISMS Copilot is ontworpen om te ondersteunen, niet om het professionele oordeel te vervangen:

  • Vergelijk AI-suggesties met officiële standaarden

  • Valideer kritieke informatie voordat deze aan auditors wordt voorgelegd

  • Gebruik de AI als assistent van een consultant, niet als vervanging voor expertise

  • Gebruik uw professionele oordeel bij het toepassen van AI-aanbevelingen

Zie 'Hoe u ISMS Copilot verantwoord gebruikt' voor best practices voor verificatie.

Rapportage & feedback

Gebruikersfeedback is essentieel voor het verbeteren van het AI-systeem. Wij bieden meerdere mechanismen voor het melden van problemen, onnauwkeurigheden of onverwacht gedrag.

Hoe problemen te melden

Nadelige gevolgen of hallucinaties:

  1. Ga naar gebruikersmenu (rechtsboven) > Help Center > Contact Support

  2. Voeg de prompt, het antwoord en screenshots toe aan uw melding

  3. U kunt binnen 48 uur een reactie verwachten

Rapportage in het platform:

  • Gebruik de knop "Probleem melden" die overal in het platform beschikbaar is om specifieke AI-antwoorden te markeren

Wat gebeurt er nadat u een melding doet

  1. Onmiddellijke beoordeling (binnen 48 uur): Het supportteam beoordeelt de ernst en de impact

  2. Onderzoek: Het technische team analyseert het probleem, reproduceert het en identificeert de bronoorzaak

  3. Reactie: U ontvangt een update over de bevindingen en geplande acties

  4. Oplossing: Problemen worden aangepakt via modelupdates, afstemming van gegevensophaling, codefixes of documentatieverbeteringen

  5. Continue verbetering: Getrokken lessen worden geïntegreerd in de test- en monitoringsprocessen

Incidenten met een hoge ernst (veiligheidsrisico's, datalekken, kritieke hallucinaties) worden onmiddellijk geëscaleerd voor dringende remediëring.

Zie het Overzicht AI-veiligheid & Verantwoord Gebruik voor gedetailleerde rapportage-instructies.

Updates van de documentatie

Technische specificaties worden bijgewerkt wanneer:

  • AI-providers wijzigen (nieuwe modellen, verouderde API's)

  • De architectuur evolueert (nieuwe componenten, validatiemethoden)

  • Vereisten worden herzien (nieuwe veiligheidsbeperkingen, prestatiedoelen)

  • Testpraktijken worden uitgebreid (nieuwe validatietechnieken, beveiligingstools)

Updates worden gecommuniceerd via release notes en deze documentatiepagina. Abonneer u op onze statuspagina voor meldingen van wijzigingen.

Wat nu

  • Bekijk hoe ISMS Copilot ISO 42001 implementeert

  • Lees meer over AI-veiligheidswaarborgen en verantwoord gebruik

  • Begrijp AI-hallucinaties en hoe u deze kunt voorkomen

  • Volg best practices voor het verantwoord gebruik van ISMS Copilot

  • Bekijk ons uitgebreide Beveiligingsbeleid

Hulp krijgen

Voor technische vragen over de specificaties van het AI-systeem of om aanvullende documentatie aan te vragen:

  • Neem contact op met support via het Help Center-menu

  • Meld veiligheidskwesties onmiddellijk voor onderzoek

  • Bekijk het Trust Center voor gedetailleerde informatie over AI-governance

  • Controleer de Statuspagina voor bekende problemen

Was dit nuttig?