ISMS Copilot
AI-veiligheid

Technisch overzicht AI-systeem

Overzicht

Dit artikel biedt technische transparantie over hoe de AI-systemen van ISMS Copilot zijn gebouwd, getest en worden beheerd. Deze details tonen onze inzet voor verantwoorde AI-ontwikkeling via verifieerbare implementatiepraktijken.

Voor wie is dit bedoeld

Dit artikel is voor:

  • Security- en compliance-teams die governance-controles voor AI evalueren

  • Auditors die de implementatie van het AI-systeem toetsen aan het beleid

  • Risicomanagers die technische transparantie vereisen voor AI-systemen

  • Technische gebruikers die de AI-architectuur willen begrijpen

ISO 42001-implementatie

Het AI-systeem van ISMS Copilot is ontworpen en wordt beheerd in overeenstemming met de vereisten van ISO 42001:2023 (Artificial Intelligence Management System). Onze technische implementatie sluit aan bij specifieke ISO 42001-beheersmaatregelen:

Afstemming van de architectuur:

  • A.4.2 (Contextvaststelling): Systeem voor dynamische frameworkkennis-injectie gedocumenteerd in het AI System Design Document (AI-SDD-001)

  • A.5 (Impactbeoordeling): Uitgebreide AI-impactbeoordeling (classificatie: 1.9 Laag risico, EU AI Act Beperkt risico)

  • A.6 (Verantwoorde ontwikkeling): Veilige ontwikkelingscyclus met regressietesten, SAST/DAST-scanning, prompt-injectietesten

  • A.7 (Gegevensbeheer): Zero Data Retention-overeenkomsten, afzondering van werkomgevingen, door de gebruiker gecontroleerde bewaartermijnen

  • A.8 (Interactie met de gebruiker): Transparantiemeldingen, human-in-the-loop ontwerp, disclaimers voor verificatie over het hele platform

  • A.9 (Verantwoord gebruik): Doelbinding, preventie van jailbreak, vangrails voor inhoudelijke scope

Zie Hoe ISMS Copilot ISO 42001 implementeert voor de volledige documentatie van ons AI-beheersysteem, risicobeoordelingen, testen op bias en prestatiebewaking.

Architectuur voor dynamische frameworkkennis

ISMS Copilot maakt gebruik van dynamische frameworkkennis-injectie om AI-antwoorden te baseren op geverifieerde compliance-kennis. Vanaf versie 2.5 (februari 2025) vervangt dit de eerdere RAG-architectuur (Retrieval-Augmented Generation) door een betrouwbaardere en token-efficiëntere aanpak.

Hoe de injectie van frameworkkennis werkt

Architectuurcomponenten:

  • Frameworkdetectielaag: Patroonherkenning op basis van Regex detecteert vermeldingen van frameworks in zoekopdrachten van gebruikers (ISO 27001, SOC 2, GDPR, HIPAA, CCPA, NIS 2, DORA, ISO 42001, ISO 27701)

  • Kennisinjectielaag: Laadt dynamisch alleen relevante frameworkkennis in de AI-context op basis van de gedetecteerde frameworks

  • Generatielaag: Large Language Models (LLM's) van enterprise AI-leveranciers ontvangen frameworkkennis voordat ze antwoorden genereren

  • Validatiemechanisme: De frameworkkennis die aan de AI wordt verstrekt, zorgt ervoor dat antwoorden gebaseerd zijn op werkelijke compliance-eisen, niet op probabilistische gissingen

Dynamische frameworkkennis-injectie elimineert hallucinaties door de AI te voorzien van feitelijke frameworkkennis voordat deze antwoordt. Detectie vindt plaats vóór AI-verwerking (niet op basis van AI), wat zorgt voor 100% betrouwbaarheid wanneer frameworks worden genoemd.

Waarom dynamische injectie belangrijk is voor compliance:

  • Elimineert hallucinatie: De AI ontvangt geverifieerde frameworkkennis voordat hij antwoordt, wat gefabriceerde controlenummers en vereisten voorkomt

  • Token-efficiëntie: Alleen relevante frameworks worden geladen (~1-2K tokens) in plaats van alle kennis (~10K tokens) bij elk verzoek

  • Betrouwbare detectie: Regex-patroonherkenning (niet op basis van AI) zorgt ervoor dat frameworkvermeldingen nooit gemist worden

  • Uitbreidbare architectuur: Nieuwe frameworks kunnen worden toegevoegd met een enkele objectdefinitie, zonder dat hertraining van het model nodig is

  • Ondersteuning van meerdere frameworks: Verwerkt queries die gelijktijdig naar meerdere frameworks verwijzen (bijv. \"Map ISO 27001 naar SOC 2\")

Technische implementatie

Detectieproces:

  1. Gebruiker dient query in (bijv. \"Wat is ISO 27001 Annex A.5.9?\")

  2. Frameworkdetectie scant query op patroonovereenkomsten (ISO 27001, GDPR, SOC 2, etc.)

  3. Gevonden frameworks triggeren kennisinjectie

  4. Relevante frameworkkennis wordt toegevoegd aan de AI-systeemprompt vóór generatie

Ondersteunde frameworks (v2.5):

  • ISO 27001:2022 — Information Security Management System

  • ISO 42001:2023 — Artificial Intelligence Management System

  • ISO 27701:2025 — Privacy Information Management System

  • SOC 2 — Service Organization Control (Trust Services Criteria)

  • HIPAA — Health Insurance Portability and Accountability Act

  • GDPR — Algemene Verordening Gegevensbescherming (AVG)

  • CCPA — California Consumer Privacy Act

  • NIS 2 — Netwerk- en Informatiebeveiligingsrichtlijn

  • DORA — Digital Operational Resilience Act

Er worden voortdurend meer frameworks toegevoegd. Volgende prioriteiten zijn NIST 800-53, PCI DSS en aanvullende regionale regelgeving. Bekijk de Product Changelog voor updates.

Evolutie van RAG naar dynamische injectie

Eerdere aanpak (vóór v2.5): RAG-architectuur

  • Semantisch zoeken haalde relevante documentatiefragmenten op

  • De kwaliteit van het ophalen varieerde op basis van de formulering van de query

  • Alle ~10K tokens aan kennis werden bij veel verzoeken meegestuurd

  • Voornamelijk gericht op ISO 27001

Huidige aanpak (v2.5+): Dynamische framework-injectie

  • Detectie op basis van Regex zorgt voor betrouwbare identificatie van frameworks

  • Alleen relevante frameworks worden geladen (token-efficiënt)

  • Ondersteunt 9 frameworks tegelijkertijd

  • Uitbreidbaar ontwerp voor het snel toevoegen van frameworks

Als u verwijzingen naar "RAG-architectuur" ziet in oudere documentatie of externe bronnen, houd er dan rekening mee dat ISMS Copilot is overgestapt op dynamische frameworkkennis-injectie in versie 2.5 (februari 2025). De nieuwe aanpak is betrouwbaarder en ondersteunt veel meer frameworks.

AI-leveranciers & gegevensbescherming

Wij maken gebruik van AI-leveranciers van enterprisecatogorie met strikte overeenkomsten voor gegevensbescherming.

Huidige leveranciers

Backend AI-modellen:

  • OpenAI GPT-5.2 (standaard) — Geavanceerd redeneren en compliance-analyse

  • Anthropic Claude Opus — Backend-integratie voor genuanceerd beleid schrijven

  • xAI Grok — Alternatieve leverancier voor diverse use-cases

  • Mistral AI — In de EU gevestigde leverancier voor Geavanceerde Data Protection Modus

OpenAI GPT-5.2 is de huidige standaardleverancier voor alle gesprekken. Extra AI-leveranciers zijn geïntegreerd aan de backend; een gebruikersinterface voor modelselectie staat gepland voor 2026. Alle modellen hebben toegang tot dezelfde gespecialiseerde compliance-kennisbank via dynamische framework-injectie, wat zorgt voor consistente, betrouwbare begeleiding.

Zero Data Retention-overeenkomsten

Alle AI-leveranciers werken onder Zero Data Retention (ZDR) overeenkomsten:

Uw gegevens worden NOOIT gebruikt om AI-modellen te trainen. ZDR-overeenkomsten garanderen dat uw gesprekken, geüploade documenten en inhoud van de werkomgeving vertrouwelijk blijven en niet door AI-leveranciers worden bewaard na het verwerken van uw verzoeken.

ZDR-overeenkomstvoorwaarden:

  • Geen bewaring van gebruikersgegevens na verwerking van verzoeken

  • Geen modeltraining op klantinhoud

  • AVG-conforme gegevensoverdrachten met Standard Contractual Clauses (SCC's)

  • Enterprise beveiligingsnormen afgedwongen

Voor gedetailleerde informatie over verwerkers en gegevensstromen, zie ons Register van Verwerkingsactiviteiten.

Ontwikkelingsvereisten

Elke component van het AI-systeem is ontwikkeld op basis van gedocumenteerde vereisten die verwacht gedrag, veiligheidsbeperkingen en prestatiedrempels definiëren.

Functionele vereisten

Scope-definitie:

  • AI biedt ondersteuning bij compliance, geen juridisch advies

  • Taakgrenzen: genereren van beleid, gap-analyse, voorbereiding van audits, beoordeling van documenten

  • Afdwingen van beperkingen: geen internettoegang, geen uitvoering van code, geen verwerking van persoonsgegevens buiten het gebruik van het platform

Prestatievereisten

Kwaliteitsdoelen:

  • Nauwkeurigheid van antwoorden gebaseerd op opgehaalde bronnen met bronvermelding

  • Contextvenster voldoende voor compliance-analyse van meerdere documenten

  • Responstijd geoptimaliseerd voor interactief gebruik (doel: minder dan 10 seconden)

  • Rate limits gedefinieerd per gebruikerstier om systeemstabiliteit te garanderen

Veiligheidsvereisten

Beperking van hallucinaties:

  • Bronverankering: antwoorden moeten verwijzen naar opgehaalde documentatie

  • Validatie van ophalen: antwoorden gecontroleerd tegen broninhoud

  • Confidence scoring: onzekerheid wordt erkend wanneer bronnen dubbelzinnig zijn

  • Disclaimers voor gebruikersverificatie: alle outputs vereisen menselijke beoordeling

Inhoudsfiltering:

  • Detectie en blokkering van ongepaste inhoud

  • Scope-bewaking: AI weigert verzoeken die buiten de scope vallen (bijv. ongerelateerde onderwerpen, medisch/juridisch advies)

  • Bescherming tegen jailbreak en prompt-injectie

Zie Overzicht AI-veiligheid & verantwoord gebruik voor gedetailleerde veiligheidswaarborgen.

Vereisten voor gegevensverwerking

Privacy by Design:

  • Geen gebruikersgegevens voor modeltraining (ZDR-overeenkomsten afgedwongen)

  • Dataminimalisatie: alleen noodzakelijke gegevens verwerkt voor ophalen en generatie

  • Tijdelijke verwerking: geen langetermijnopslag van prompts/antwoorden buiten logboeken van gebruikerssessies

  • Beheer van bewaring: door de gebruiker configureerbare bewaartermijnen (1 dag tot 7 jaar, of voor altijd bewaren)

  • Controle op gegevensoverdracht: AVG-conforme gegevensoverdracht met SCC's

Voor uitgebreide praktijken op het gebied van gegevensverwerking, zie ons Privacybeleid.

Verificatie- & validatietesten

AI-systemen ondergaan strenge testen voorafgaand aan implementatie. Geen enkel systeem gaat live zonder te slagen voor validatie op basis van de vereisten.

Regressietesten

Geautomatiseerde testen worden uitgevoerd bij elke codewijziging om te garanderen dat bestaande functionaliteit intact blijft.

Testdekking:

  • Nauwkeurigheid van ophalen: Precisie en recall tegenover ground truth-datasets

  • Antwoordverankering: Verificatie dat outputs opgehaalde bronnen citeren

  • Detectie van hallucinaties: Vergelijking met bekende onjuiste antwoorden

  • Prestatiebenchmarks: Validatie van responstijd en contextverwerking

Beveiligingstesten

AI-systemen ondergaan dezelfde beveiligingsvalidatie als alle platformcomponenten.

Testpijplijn:

  • SAST (Static Application Security Testing): Scannen op kwetsbaarheden op codeniveau met Semgrep-integratie

  • DAST (Dynamic Application Security Testing): Beveiligingsvalidatie tijdens runtime

  • Penetratietesten: Jaarlijkse beveiligingsbeoordelingen door derden

  • Prompt-injectietesten: Validatie tegen kwaadaardige input die probeert veiligheidsbeperkingen te omzeilen

Onze veilige ontwikkelingscyclus garandeert dat AI-systemen voldoen aan dezelfde beveiligingsnormen als alle andere platformcomponenten. Zie ons Beveiligingsbeleid voor gedetailleerde testpraktijken.

User Acceptance Testing (UAT)

Validatie van praktijkscenario's met compliance-professionals zorgt ervoor dat:

  • Outputs voldoen aan professionele kwaliteitsnormen

  • Antwoorden geschikt zijn voor compliance-usecases

  • Beperkingen duidelijk worden gecommuniceerd

  • Feedbackmechanismen toegankelijk en effectief zijn

Checklist voor validatie van implementatie

AI-systemen worden alleen geïmplementeerd nadat ze aan de gedocumenteerde vereisten voldoen:

Implementatie vereist 100% succes bij regressietesten, afgehandelde beveiligingsscans (geen kritieke of hoge kwetsbaarheden), het behalen van prestatiebenchmarks, bijgewerkte gebruikersdocumentatie inclusief beperkingen, en geconfigureerde monitoring/alerting voor het volgen van de hallucinatiegraad.

Implementaties die de validatie niet halen, worden teruggedraaid totdat aan de vereisten is voldaan.

Monitoring & continue verbetering

Na de implementatie bewaken we het gedrag van het AI-systeem om degradatie, opkomende problemen of misbruik te detecteren.

Monitoring-statistieken

Wat we bijhouden:

  • Hallucinatiegraad: Bijgehouden via gebruikersrapportages en geautomatiseerde detectie

  • Nauwkeurigheid van antwoorden: Steekproefgewijze validatie tegen ground truth-compliancenormen

  • Gebruikspatronen: Detectie van gebruik buiten de scope of ongepast gebruik

  • Prestatiestatistieken: Responstijd, precisie van ophalen, foutmarges

  • Gebruikersfeedback: Meldingen van negatieve impact, supporttickets, feature-verzoeken

Cyclus voor continue verbetering

Monitoringgegevens voeden iteratieve verbeteringen:

Feedbackloops:

  • Gebruikersfeedback en meldingen van negatieve impact → modelupdates en afstemming van het ophalen van informatie

  • Resultaten van beveiligingstesten → veiligheidsverbeteringen en updates van beheersmaatregelen

  • Wijzigingen in regelgeving en best practices → updates aan documentatie en frameworks

  • Prestatiebewaking → verbetering van nauwkeurigheid en optimalisatie van antwoorden

Incidentrespons

We stellen gebruikers op de hoogte van AI-gerelateerde incidenten om transparantie en vertrouwen te behouden.

Meldingskanalen:

  • E-mailwaarschuwingen voor kritieke incidenten die de AI-functionaliteit beïnvloeden

  • Slack-meldingen voor geabonneerde teams

  • Updates op de statuspagina met tijdlijnen van incidenten en oplossingen

  • NIS2-conforme vroegtijdige waarschuwingen (24-uurs rapportage voor significante cybersecurity-incidenten)

Abonneer u op onze statuspagina om realtime meldingen te ontvangen over incidenten, onderhoud en updates van het AI-systeem.

Bekende beperkingen

AI-systemen hebben inherente beperkingen die gebruikers moeten begrijpen om ze verantwoord te kunnen gebruiken.

Technische beperkingen

AI-outputs kunnen onnauwkeurigheden (hallucinaties) bevatten, zelfs met RAG-verankering. Gebruikers moeten alle outputs verifiëren aan de hand van officiële normen en regelgeving.

Huidige beperkingen:

  • Probabilistische aard: AI genereert antwoorden op basis van statistische patronen, niet op basis van deterministische logica

  • Geen internettoegang: AI kan geen realtime informatie ophalen of externe websites bezoeken

  • Geen uitvoering van code: AI kan geen berekeningen uitvoeren, scripts draaien of technische implementaties valideren

  • Kennis-cutoff: De kennis van het AI-model is beperkt tot de afsluitdata van de trainingsgegevens (verschilt per leverancier)

  • Contextlimieten: Het maximale contextvenster beperkt de hoeveelheid informatie die in een enkel verzoek kan worden verwerkt

  • Domeingrenzen: De AI is getraind voor compliance/beveiliging; prestaties in andere domeinen worden niet gegarandeerd

Zie voor gedetailleerde beperkingen en workarounds onze pagina met Bekende Problemen.

Verantwoordelijkheid voor gebruikersverificatie

ISMS Copilot is ontworpen om te ondersteunen, niet om professioneel oordeel te vervangen:

  • Vergelijk AI-suggesties met officiële normen

  • Valideer kritieke informatie voordat u deze indient bij auditors

  • Gebruik de AI als assistent van een consultant, niet als vervanging van expertise

  • Gebruik professioneel oordeel bij het toepassen van AI-aanbevelingen

Zie Hoe u ISMS Copilot verantwoord gebruikt voor best practices voor verificatie.

Rapportage & feedback

Gebruikersfeedback is essentieel voor de verbetering van het AI-systeem. Wij bieden meerdere mechanismen voor het melden van problemen, onnauwkeurigheden of onverwacht gedrag.

Hoe u problemen kunt melden

Negatieve impact of hallucinaties:

  1. Ga naar het gebruikersmenu (rechtsboven) > Help Center > Contact Support

  2. Voeg de prompt, het antwoord en screenshots toe aan uw rapportage

  3. Verwacht een reactie binnen 48 uur

Rapportage in het platform:

  • Gebruik de knop "Meld probleem" die overal op het platform beschikbaar is om specifieke AI-antwoorden te markeren

Wat er gebeurt nadat u een melding heeft gedaan

  1. Onmiddellijke beoordeling (binnen 48 uur): Het supportteam beoordeelt de ernst en impact

  2. Onderzoek: Het technische team analyseert de kwestie, reproduceert het probleem en stelt de bronoorzaak vast

  3. Reactie: U ontvangt een update over de bevindingen en geplande acties

  4. Remediëring: Problemen worden aangepakt via modelupdates, afstemming van ophalen, codefixen of verbeteringen in de documentatie

  5. Continue verbetering: Geleerde lessen worden geïntegreerd in de test- en monitoringsprocessen

Problemen met een hoge ernst (veiligheidsrisico's, datalekken, kritieke hallucinaties) worden onmiddellijk geëscaleerd voor urgente remediëring.

Zie Overzicht AI-veiligheid & verantwoord gebruik voor gedetailleerde instructies voor rapportage.

Updates van documentatie

Technische specificaties worden bijgewerkt wanneer:

  • AI-leveranciers wijzigen (nieuwe modellen, verouderde API's)

  • Architectuur evolueert (nieuwe componenten, validatiemethoden)

  • Vereisten worden herzien (nieuwe veiligheidsbeperkingen, prestatiedoelen)

  • Testpraktijken worden uitgebreid (nieuwe validatietechnieken, beveiligingstools)

Updates worden gecommuniceerd via releasenotes en deze documentatiepagina. Abonneer u op onze statuspagina voor meldingen van wijzigingen.

Wat nu

Hulp krijgen

Voor technische vragen over specificaties van het AI-systeem of om aanvullende documentatie aan te vragen:

  • Neem contact op met support via het Help Center-menu

  • Meld veiligheidszorgen onmiddellijk voor onderzoek

  • Bekijk het Trust Center voor gedetailleerde informatie over AI-governance

  • Controleer de statuspagina voor bekende problemen

Was dit nuttig?