Vrijwaringsverklaring AI-systeem
ISMS Copilot is een systeem voor kunstmatige intelligentie (AI). Deze mededeling legt uit wat dat betekent voor uw interactie met het platform en uw verantwoordelijkheden bij het gebruik van door AI gegenereerde inhoud.
U communiceert met AI
Wanneer u berichten verstuurt, documenten uploadt of antwoorden ontvangt in ISMS Copilot, heeft u interactie met een AI-systeem — niet met een menselijke deskundige. Het systeem maakt gebruik van grote taalmodellen in combinatie met een gespecialiseerde kennisbank over compliance om begeleiding te bieden bij ISO 27001, SOC 2, AVG en andere kaders.
Deze openbaarmaking is vereist onder de EU AI-verordening (Verordening 2024/1689, Artikel 50). ISMS Copilot is geclassificeerd als een AI-systeem met een beperkt risico dat direct met gebruikers communiceert en tekstinhoud genereert.
Door AI gegenereerde inhoud
Alle antwoorden, conceptbeleidsstukken, proceduredocumenten, risicobeoordelingen en andere output die u ontvangt van ISMS Copilot, worden gegenereerd door AI. Dit betekent:
Geen menselijke expertise: Output is niet geschreven door compliance-consultants, auditors of juridische professionals
Verificatie vereist: U moet alle inhoud controleren en valideren voordat u deze gebruikt bij audits, certificeringen of indieningen bij regelgevende instanties
Kan fouten bevatten: AI kan ondanks voorzorgsmaatregelen onjuiste, onvolledige of verouderde informatie produceren
Standaard generiek: Output moet worden aangepast aan uw specifieke organisatiecontext, risico-omgeving en vereisten
Dien door AI gegenereerde beleidsregels, procedures of beoordelingen nooit rechtstreeks in bij auditors of certificeringsinstanties zonder grondige menselijke beoordeling door gekwalificeerde compliance-professionals.
Uw verantwoordelijkheden
Bij het gebruik van ISMS Copilot bent u verantwoordelijk voor:
Verificatie: Controleer AI-output aan de hand van officiële normen (ISO 27001:2022, SOC 2 TSC, AVG-tekst, enz.)
Maatwerk: Pas generieke inhoud aan de omvang, sector, het risicoprofiel en de compliance-scope van uw organisatie aan
Professioneel oordeel: Gebruik uw eigen expertise of raadpleeg gekwalificeerde professionals voor definitieve beslissingen
Implementatie: Zorg ervoor dat door AI opgestelde controles en procedures daadwerkelijk worden geïmplementeerd en effectief zijn — documentatie alleen leidt niet tot compliance
Transparantie: Als u door AI gegenereerde inhoud extern deelt of publiceert, vermeld dan dat deze met behulp van AI is geproduceerd wanneer de context dit vereist
Beschouw ISMS Copilot als een onderzoeksassistent en hulpmiddel bij het schrijven, niet als vervanging van compliance-expertise. Gebruik het om workflows te versnellen, startpunten te genereren en kadervereisten te verkennen — maar pas altijd menselijk toezicht toe.
Beperkingen van AI
De AI van ISMS Copilot heeft specifieke beperkingen:
Kennisstop: Trainingsgegevens zijn actueel tot begin 2025; recente wetswijzigingen of updates van kaders zijn mogelijk nog niet verwerkt
Hallucinaties: Ondanks beveiligingen kan AI informatie genereren die overtuigend klinkt maar onjuist is (zie AI Veiligheid & Verantwoord Gebruik voor details over preventie)
Geen real-time gegevens: Geen toegang tot live databases, actuele dreigingsinformatie of de live systemen van uw organisatie
Generieke context: Gebrek aan diepgaande kennis van uw specifieke bedrijfsmodel, operationele omgeving of unieke risico's, tenzij u gedetailleerde prompts verstrekt
Geen juridisch advies: Kan geen wetten, regels of contractuele verplichtingen interpreteren die specifiek zijn voor uw jurisdictie of situatie
Geen garantie op certificering
Het gebruik van ISMS Copilot garandeert niet dat u een ISO 27001-certificering, SOC 2-compliance, AVG-toereikendheid of enig ander resultaat op het gebied van regelgeving zult behalen. Certificering en compliance hangen af van:
Feitelijke implementatie en werking van de controles (niet alleen documentatie)
Aantoonbare effectiviteit in de loop van de tijd
Onafhankelijke beoordeling door geaccrediteerde certificeringsinstanties of auditors
Organisatorische volwassenheid en toewijding aan continue verbetering
Zie Servicebeperkingen en Disclaimers voor de volledige details.
Naleving van de EU AI-verordening
ISMS Copilot voldoet aan de transparantievereisten van de EU AI-verordening (Verordening 2024/1689) voor AI-systemen met een beperkt risico:
Artikel 50(1): Gebruikers worden via deze disclaimer en in-app meldingen geïnformeerd dat zij met AI communiceren
Artikel 50(2): Door AI gegenereerde tekstoutput wordt in metadata en in de interface gemarkeerd als kunstmatig gegenereerd
Transparantie: AI-mogelijkheden, beperkingen en gegevensverwerkingspraktijken zijn gedocumenteerd in het Helpcenter en het Trust Center
ISMS Copilot is ontworpen en wordt beheerd in de EU (Frankrijk) met volledige naleving van de AVG en de AI-verordening. Zie ons Privacybeleid en het Trust Center voor gedetailleerde informatie over governance.
Hoe we AI-risico's beperken
ISMS Copilot implementeert meerdere waarborgen om AI-interactie veiliger en betrouwbaarder te maken:
Dynamische injectie van kaderkennis (v2.5): Detecteert vermeldingen van kaders (ISO 27001, SOC 2, AVG, enz.) en injecteert geverifieerde kennis voordat antwoorden worden gegenereerd, wat hallucinaties vermindert
Gespecialiseerde training: De AI is getraind op een eigen compliance-kennisbank uit echte consultancyprojecten, niet op generieke internetgegevens
Geen training op gebruikersgegevens: Uw gesprekken en documenten worden nooit gebruikt om AI-modellen te trainen of te verbeteren
Erkenning van onzekerheid: De AI geeft expliciet aan wanneer informatie onzeker is en vraagt u om deze te verifiëren
Scopebeperking: De AI is beperkt tot compliance-onderwerpen en weigert verzoeken die buiten het onderwerp vallen of schadelijk zijn
Zie voor de volledige details het Overzicht AI Veiligheid & Verantwoord Gebruik.
Gegevensprivacy & Beveiliging
Wanneer u de AI van ISMS Copilot gebruikt:
Uw prompts en geüploade documenten worden verwerkt om antwoorden te genereren
Gespreksgegevens worden bewaard volgens uw bewaarinstellingen (1 dag tot 7 jaar, of voor altijd)
Gegevens worden gehost in de EU (Frankfurt, Duitsland) met end-to-end encryptie
Workspace-isolatie zorgt voor scheiding van gegevens tussen klanten/projecten
AI-providers (Mistral, OpenAI, xAI) werken onder overeenkomsten zonder gegevensbewaring — zij slaan uw gegevens niet op en trainen er niet op
Zie het Privacybeleid en Uw rechten onder de AVG voor volledige details.
AI-problemen melden
Als u door AI gegenereerde inhoud tegenkomt die onjuist of ongepast is, auteursrechten schendt of veiligheidsrisico's met zich meebrengt, meld dit dan onmiddellijk:
Klik op het pictogram van het gebruikersmenu (rechtsboven) → Helpcenter → Contact opnemen met Support
Beschrijf het probleem, inclusief uw prompt, het AI-antwoord en waarom u zich zorgen maakt
Support zal de melding onderzoeken en binnen 48 uur reageren
Uw meldingen helpen de veiligheid en betrouwbaarheid van AI voor alle gebruikers te verbeteren.
Waar u meer kunt leren
Overzicht AI Veiligheid & Verantwoord Gebruik — Gedetailleerde waarborgen, preventie van hallucinaties en governance
Servicebeperkingen en Disclaimers — Juridische basis voor AI-gebruik en verificatievereisten
Servicevoorwaarden — Volledige juridische voorwaarden voor het gebruik van ISMS Copilot
Trust Center — AI-governance, beveiligingsbeleid en compliance-documentatie
EU AI-verordening Artikel 50 — Transparantieverplichtingen voor AI-systemen met een beperkt risico