AI-systeem Disclaimer
ISMS Copilot is een kunstmatige intelligentie (AI) systeem. Deze kennisgeving legt uit wat dat betekent voor uw interactie met het platform en uw verantwoordelijkheden bij het gebruik van door AI gegenereerde content.
U heeft interactie met AI
Wanneer u berichten verstuurt, documenten uploadt of antwoorden ontvangt in ISMS Copilot, heeft u interactie met een AI-systeem — niet met een menselijke expert. Het systeem maakt gebruik van grote taalmodellen gecombineerd met een gespecialiseerde kennisbank voor compliance om begeleiding te bieden bij ISO 27001, SOC 2, AVG/GDPR en andere kaders.
Deze openbaarmaking is vereist onder de EU AI-verordening (Verordening 2024/1689, Artikel 50). ISMS Copilot is geclassificeerd als een AI-systeem met een beperkt risico dat rechtstreeks met gebruikers communiceert en tekstuele inhoud genereert.
Door AI gegenereerde content
Alle antwoorden, concepten voor beleid, procedurele documenten, risicobeoordelingen en andere outputs die u van ISMS Copilot ontvangt, zijn gegenereerd door AI. Dit betekent:
Geen menselijke expertise: De output is niet geschreven door compliance-consultants, auditors of juridische professionals
Verificatie vereist: U moet alle inhoud controleren en valideren voordat u deze gebruikt voor audits, certificeringen of indieningen bij regelgevende instanties
Kan fouten bevatten: AI kan onjuiste, onvolledige of verouderde informatie produceren, ondanks de ingebouwde waarborgen
Standaard generiek: De output moet worden aangepast aan de specifieke context, risico-omgeving en vereisten van uw organisatie
Dien nooit door AI gegenereerde beleidsregels, procedures of beoordelingen rechtstreeks in bij auditors of certificerende instanties zonder een grondige menselijke beoordeling door gekwalificeerde compliance-professionals.
Uw verantwoordelijkheden
Bij het gebruik van ISMS Copilot bent u verantwoordelijk voor:
Verificatie: Vergelijk AI-outputs met officiële normen (ISO 27001:2022, SOC 2 TSC, AVG/GDPR-tekst, enz.)
Maatwerk: Pas generieke inhoud aan de omvang, sector, het risicoprofiel en de compliance-scope van uw organisatie aan
Professioneel oordeel: Pas uw expertise toe of raadpleeg gekwalificeerde professionals voor definitieve beslissingen
Implementatie: Zorg ervoor dat door AI opgestelde beheersmaatregelen en procedures daadwerkelijk worden geïmplementeerd en effectief zijn — documentatie alleen leidt niet tot compliance
Transparantie: Als u door AI gegenereerde inhoud extern deelt of publiceert, vermeld dan dat deze met behulp van AI is geproduceerd wanneer de context dit vereist
Beschouw ISMS Copilot als een onderzoeksassistent en hulpmiddel bij het schrijven, niet als een vervanging voor compliance-expertise. Gebruik het om workflows te versnellen, startpunten te genereren en kadervereisten te verkennen — maar pas altijd menselijk toezicht toe.
Beperkingen van AI
De AI van ISMS Copilot heeft specifieke beperkingen:
Kennis-cutoff: Trainingsgegevens zijn actueel tot begin 2025; recente wijzigingen in de regelgeving of updates van kaders zijn mogelijk nog niet verwerkt
Hallucinaties: Ondanks voorzorgsmaatregelen kan AI informatie genereren die overtuigend klinkt maar onjuist is (zie AI-veiligheid & Verantwoord Gebruik voor details over risicobeperking)
Geen realtime gegevens: Heeft geen toegang tot live databases, actuele informatie over dreigingen of de live systemen van uw organisatie
Generieke context: Gebrek aan diepgaande kennis van uw specifieke bedrijfsmodel, operationele omgeving of unieke risico's, tenzij u gedetailleerde prompts verstrekt
Geen juridisch advies: Kan geen wetten, regels of contractuele verplichtingen interpreteren die specifiek zijn voor uw rechtsgebied of situatie
Geen garantie op certificering
Het gebruik van ISMS Copilot garandeert niet het behalen van een ISO 27001-certificering, SOC 2-compliance, AVG/GDPR-geschiktheid of enig ander resultaat op het gebied van regelgeving. Certificering en compliance zijn afhankelijk van:
Feitelijke implementatie en werking van de beheersmaatregelen (niet alleen documentatie)
Aantoonbare effectiviteit over een langere periode
Onafhankelijke beoordeling door geaccrediteerde certificerende instanties of auditors
Organisatorische volwassenheid en toewijding aan voortdurende verbetering
Zie Servicebeperkingen en Disclaimers voor volledige details.
Naleving van de EU AI-verordening
ISMS Copilot voldoet aan de transparantievereisten van de EU AI-verordening (Verordening 2024/1689) voor AI-systemen met een beperkt risico:
Artikel 50(1): Gebruikers worden via deze disclaimer en in-app meldingen geïnformeerd dat zij interactie hebben met AI
Artikel 50(2): Door AI gegenereerde tekstuitvoer is gemarkeerd als kunstmatig gegenereerd in de metadata en in disclaimers voor gebruikers
Transparantie: AI-mogelijkheden, beperkingen en gegevensverwerking zijn gedocumenteerd in het Helpcenter en het Trust Center
ISMS Copilot is ontworpen en wordt geëxploiteerd in de EU (Frankrijk) met volledige naleving van de AVG en de AI-verordening. Zie ons Privacybeleid en Trust Center voor gedetailleerde informatie over governance.
Hoe we AI-risico's beperken
ISMS Copilot implementeert meerdere waarborgen om AI-interactie veiliger en betrouwbaarder te maken:
Dynamische kader-kennisinjectie (v2.5): Detecteert vermeldingen van kaders (ISO 27001, SOC 2, AVG, enz.) en injecteert geverifieerde kennis voordat antwoorden worden gegenereerd om hallucinaties te verminderen
Gespecialiseerde training: De AI is getraind op een eigen compliance-kennisbank uit echte consultancyprojecten, niet op generieke internetgegevens
Geen training op gebruikersgegevens: Uw gesprekken en documenten worden nooit gebruikt om AI-modellen te trainen of te verbeteren
Erkenning van onzekerheid: De AI geeft expliciet aan wanneer informatie onzeker is en vraagt u om deze te verifiëren
Beperking van de scope: AI is beperkt tot compliance-onderwerpen en weigert verzoeken die buiten het onderwerp vallen of schadelijk zijn
Zie het Overzicht AI-veiligheid & Verantwoord Gebruik voor volledige details.
Gegevensprivacy & Beveiliging
Wanneer u communiceert met de AI van ISMS Copilot:
Uw prompts en geüploade documenten worden verwerkt om antwoorden te genereren
Gespreksgegevens worden bewaard volgens uw instellingen voor gegevensbewaring (1 dag tot 7 jaar, of voor altijd)
Gegevens worden gehost in de EU (Frankfurt, Duitsland) met end-to-end versleuteling
Isolatie van de werkomgeving zorgt voor scheiding van klant- en projectgegevens
AI-providers (Mistral, OpenAI, xAI) werken onder overeenkomsten voor 'zero data retention' — zij slaan uw gegevens niet op en trainen er niet op
Zie het Privacybeleid en Uw rechten onder de AVG voor volledige details.
Melden van AI-problemen
Als u door AI gegenereerde inhoud tegenkomt die onjuist of ongepast is, auteursrechten schendt of veiligheidsproblemen oproept, meld dit dan onmiddellijk:
Klik op het gebruikersmenu-icoon (rechtsboven) → Help Center → Contact Support
Beschrijf het probleem, inclusief uw prompt, het AI-antwoord en waarom u zich zorgen maakt
Support zal de zaak onderzoeken en binnen 48 uur reageren
Uw meldingen helpen de veiligheid en betrouwbaarheid van de AI voor alle gebruikers te verbeteren.
Waar u meer kunt leren
Overzicht AI-veiligheid & Verantwoord Gebruik — Gedetailleerde waarborgen, preventie van hallucinaties en governance
Servicebeperkingen en Disclaimers — Juridische basis voor AI-gebruik en verificatievereisten
Algemene Voorwaarden — Volledige juridische voorwaarden voor het gebruik van ISMS Copilot
Trust Center — AI-governance, beveiligingsbeleid en compliancedocumentatie
EU AI Act Artikel 50 — Transparantieverplichtingen voor AI-systemen met een beperkt risico