ISMS Copilot
Juridisch

AI-systeem Disclaimer

ISMS Copilot is een kunstmatige intelligentie (AI) systeem. Deze kennisgeving legt uit wat dat betekent voor uw interactie met het platform en uw verantwoordelijkheden bij het gebruik van door AI gegenereerde content.

U heeft interactie met AI

Wanneer u berichten verstuurt, documenten uploadt of antwoorden ontvangt in ISMS Copilot, heeft u interactie met een AI-systeem — niet met een menselijke expert. Het systeem maakt gebruik van grote taalmodellen gecombineerd met een gespecialiseerde kennisbank voor compliance om begeleiding te bieden bij ISO 27001, SOC 2, AVG/GDPR en andere kaders.

Deze openbaarmaking is vereist onder de EU AI-verordening (Verordening 2024/1689, Artikel 50). ISMS Copilot is geclassificeerd als een AI-systeem met een beperkt risico dat rechtstreeks met gebruikers communiceert en tekstuele inhoud genereert.

Door AI gegenereerde content

Alle antwoorden, concepten voor beleid, procedurele documenten, risicobeoordelingen en andere outputs die u van ISMS Copilot ontvangt, zijn gegenereerd door AI. Dit betekent:

  • Geen menselijke expertise: De output is niet geschreven door compliance-consultants, auditors of juridische professionals

  • Verificatie vereist: U moet alle inhoud controleren en valideren voordat u deze gebruikt voor audits, certificeringen of indieningen bij regelgevende instanties

  • Kan fouten bevatten: AI kan onjuiste, onvolledige of verouderde informatie produceren, ondanks de ingebouwde waarborgen

  • Standaard generiek: De output moet worden aangepast aan de specifieke context, risico-omgeving en vereisten van uw organisatie

Dien nooit door AI gegenereerde beleidsregels, procedures of beoordelingen rechtstreeks in bij auditors of certificerende instanties zonder een grondige menselijke beoordeling door gekwalificeerde compliance-professionals.

Uw verantwoordelijkheden

Bij het gebruik van ISMS Copilot bent u verantwoordelijk voor:

  1. Verificatie: Vergelijk AI-outputs met officiële normen (ISO 27001:2022, SOC 2 TSC, AVG/GDPR-tekst, enz.)

  2. Maatwerk: Pas generieke inhoud aan de omvang, sector, het risicoprofiel en de compliance-scope van uw organisatie aan

  3. Professioneel oordeel: Pas uw expertise toe of raadpleeg gekwalificeerde professionals voor definitieve beslissingen

  4. Implementatie: Zorg ervoor dat door AI opgestelde beheersmaatregelen en procedures daadwerkelijk worden geïmplementeerd en effectief zijn — documentatie alleen leidt niet tot compliance

  5. Transparantie: Als u door AI gegenereerde inhoud extern deelt of publiceert, vermeld dan dat deze met behulp van AI is geproduceerd wanneer de context dit vereist

Beschouw ISMS Copilot als een onderzoeksassistent en hulpmiddel bij het schrijven, niet als een vervanging voor compliance-expertise. Gebruik het om workflows te versnellen, startpunten te genereren en kadervereisten te verkennen — maar pas altijd menselijk toezicht toe.

Beperkingen van AI

De AI van ISMS Copilot heeft specifieke beperkingen:

  • Kennis-cutoff: Trainingsgegevens zijn actueel tot begin 2025; recente wijzigingen in de regelgeving of updates van kaders zijn mogelijk nog niet verwerkt

  • Hallucinaties: Ondanks voorzorgsmaatregelen kan AI informatie genereren die overtuigend klinkt maar onjuist is (zie AI-veiligheid & Verantwoord Gebruik voor details over risicobeperking)

  • Geen realtime gegevens: Heeft geen toegang tot live databases, actuele informatie over dreigingen of de live systemen van uw organisatie

  • Generieke context: Gebrek aan diepgaande kennis van uw specifieke bedrijfsmodel, operationele omgeving of unieke risico's, tenzij u gedetailleerde prompts verstrekt

  • Geen juridisch advies: Kan geen wetten, regels of contractuele verplichtingen interpreteren die specifiek zijn voor uw rechtsgebied of situatie

Geen garantie op certificering

Het gebruik van ISMS Copilot garandeert niet het behalen van een ISO 27001-certificering, SOC 2-compliance, AVG/GDPR-geschiktheid of enig ander resultaat op het gebied van regelgeving. Certificering en compliance zijn afhankelijk van:

  • Feitelijke implementatie en werking van de beheersmaatregelen (niet alleen documentatie)

  • Aantoonbare effectiviteit over een langere periode

  • Onafhankelijke beoordeling door geaccrediteerde certificerende instanties of auditors

  • Organisatorische volwassenheid en toewijding aan voortdurende verbetering

Zie Servicebeperkingen en Disclaimers voor volledige details.

Naleving van de EU AI-verordening

ISMS Copilot voldoet aan de transparantievereisten van de EU AI-verordening (Verordening 2024/1689) voor AI-systemen met een beperkt risico:

  • Artikel 50(1): Gebruikers worden via deze disclaimer en in-app meldingen geïnformeerd dat zij interactie hebben met AI

  • Artikel 50(2): Door AI gegenereerde tekstuitvoer is gemarkeerd als kunstmatig gegenereerd in de metadata en in disclaimers voor gebruikers

  • Transparantie: AI-mogelijkheden, beperkingen en gegevensverwerking zijn gedocumenteerd in het Helpcenter en het Trust Center

ISMS Copilot is ontworpen en wordt geëxploiteerd in de EU (Frankrijk) met volledige naleving van de AVG en de AI-verordening. Zie ons Privacybeleid en Trust Center voor gedetailleerde informatie over governance.

Hoe we AI-risico's beperken

ISMS Copilot implementeert meerdere waarborgen om AI-interactie veiliger en betrouwbaarder te maken:

  • Dynamische kader-kennisinjectie (v2.5): Detecteert vermeldingen van kaders (ISO 27001, SOC 2, AVG, enz.) en injecteert geverifieerde kennis voordat antwoorden worden gegenereerd om hallucinaties te verminderen

  • Gespecialiseerde training: De AI is getraind op een eigen compliance-kennisbank uit echte consultancyprojecten, niet op generieke internetgegevens

  • Geen training op gebruikersgegevens: Uw gesprekken en documenten worden nooit gebruikt om AI-modellen te trainen of te verbeteren

  • Erkenning van onzekerheid: De AI geeft expliciet aan wanneer informatie onzeker is en vraagt u om deze te verifiëren

  • Beperking van de scope: AI is beperkt tot compliance-onderwerpen en weigert verzoeken die buiten het onderwerp vallen of schadelijk zijn

Zie het Overzicht AI-veiligheid & Verantwoord Gebruik voor volledige details.

Gegevensprivacy & Beveiliging

Wanneer u communiceert met de AI van ISMS Copilot:

  • Uw prompts en geüploade documenten worden verwerkt om antwoorden te genereren

  • Gespreksgegevens worden bewaard volgens uw instellingen voor gegevensbewaring (1 dag tot 7 jaar, of voor altijd)

  • Gegevens worden gehost in de EU (Frankfurt, Duitsland) met end-to-end versleuteling

  • Isolatie van de werkomgeving zorgt voor scheiding van klant- en projectgegevens

  • AI-providers (Mistral, OpenAI, xAI) werken onder overeenkomsten voor 'zero data retention' — zij slaan uw gegevens niet op en trainen er niet op

Zie het Privacybeleid en Uw rechten onder de AVG voor volledige details.

Melden van AI-problemen

Als u door AI gegenereerde inhoud tegenkomt die onjuist of ongepast is, auteursrechten schendt of veiligheidsproblemen oproept, meld dit dan onmiddellijk:

  1. Klik op het gebruikersmenu-icoon (rechtsboven) → Help CenterContact Support

  2. Beschrijf het probleem, inclusief uw prompt, het AI-antwoord en waarom u zich zorgen maakt

  3. Support zal de zaak onderzoeken en binnen 48 uur reageren

Uw meldingen helpen de veiligheid en betrouwbaarheid van de AI voor alle gebruikers te verbeteren.

Waar u meer kunt leren

  • Overzicht AI-veiligheid & Verantwoord Gebruik — Gedetailleerde waarborgen, preventie van hallucinaties en governance

  • Servicebeperkingen en Disclaimers — Juridische basis voor AI-gebruik en verificatievereisten

  • Algemene Voorwaarden — Volledige juridische voorwaarden voor het gebruik van ISMS Copilot

  • Trust Center — AI-governance, beveiligingsbeleid en compliancedocumentatie

  • EU AI Act Artikel 50 — Transparantieverplichtingen voor AI-systemen met een beperkt risico

Was dit nuttig?