ISMS Copilot
AI-veiligheid

Overzicht AI-veiligheid & verantwoord gebruik

Overzicht

ISMS Copilot implementeert uitgebreide AI-veiligheidsmaatregelen om betrouwbare, geloofwaardige en verantwoorde AI-ondersteuning te bieden aan compliance-professionals. In dit artikel worden de vangrails, veiligheidsbeperkingen en praktijken voor verantwoorde AI uitgelegd die in het platform zijn ingebouwd.

Voor wie is dit bedoeld

Dit artikel is voor:

  • Compliance-professionals die AI-veiligheidsmaatregelen evalueren

  • Risicomanagers die AI-governancecontroles beoordelen

  • Securityteams die bezorgd zijn over misbruik van AI

  • Iedereen die wil begrijpen hoe ISMS Copilot verantwoord AI-gebruik garandeert

AI-veiligheidsprincipes

Het AI-veiligheidsframework van ISMS Copilot is gebouwd op vier kernprincipes:

1. Doelbinding

De AI-assistent is exclusief ontworpen voor informatiebeveiliging en compliance-werkzaamheden:

  • Gericht op ISMS-frameworks (ISO 27001, SOC 2, GDPR, NIST, etc.)

  • Verwijst off-topic vragen beleefd terug naar compliance-gerelateerde onderwerpen

  • Weigert verzoeken voor schadelijke, illegale of onethische activiteiten

  • Blijft binnen de grenzen van ondersteuning bij compliance-consultancy

Door de reikwijdte van de AI te beperken tot compliance en beveiliging, vermindert ISMS Copilot het risico op misbruik en garandeert het expertise in zijn gespecialiseerde domein, in plaats van te proberen een assistent voor algemene doeleinden te zijn.

2. Transparantie & Eerlijkheid

De AI-assistent erkent openlijk zijn beperkingen:

  • Geeft expliciet onzekerheid aan wanneer dat van toepassing is

  • Vraagt gebruikers om belangrijke informatie te verifiëren

  • Geeft toe wanneer het iets niet weet in plaats van te raden

  • Legt duidelijk uit wat het wel en niet kan doen

3. Bescherming van auteursrecht & intellectueel eigendom

ISMS Copilot respecteert intellectuele eigendomsrechten:

  • Zal geen auteursrechtelijk beschermde ISO-normen of bedrijfseigen inhoud reproduceren

  • Verwijst gebruikers naar geautoriseerde bronnen om officiële normen aan te schaffen

  • Biedt begeleiding op basis van framework-principes zonder tekst te kopiëren

  • Getraind op rechtmatig verkregen, geanonimiseerde gegevens die voldoen aan de EU-auteursrechtvereisten

Als u de AI vraagt om tekst uit ISO 27001 of ander auteursrechtelijk beschermd materiaal te reproduceren, zal deze dit beleefd weigeren en in plaats daarvan bruikbaar advies bieden op basis van zijn kennis van de principes van het framework.

4. Privacy by Design

Bescherming van gebruikersgegevens is ingebed in elke AI-interactie:

  • Gesprekken worden nooit gebruikt om AI-modellen te trainen

  • Inhoud die door gebruikers wordt verstrekt, wordt niet gedeeld met andere gebruikers

  • Elk gesprek wordt onafhankelijk verwerkt

  • Isolatie van workspaces voorkomt gegevensmenging tussen projecten

AI-veiligheidsvangrails

Vangrails voor de reikwijdte van de inhoud

Wat de AI WEL doet:

  • Vragen beantwoorden over ISMS-frameworks en compliance

  • Geüploade compliance-documenten analyseren (beleid, procedures, risicobeoordelingen)

  • Beleid en procedures genereren die klaar zijn voor audits

  • Gap-analyses en implementatiebegeleiding bieden

  • Veiligheidscontroles en compliance-eisen uitleggen

Wat de AI NIET doet:

  • Juridisch advies geven (suggereert in plaats daarvan om juridische professionals te raadplegen)

  • Medisch, financieel of persoonlijk advies geven buiten de reikwijdte van compliance

  • Inhoud genereren voor illegale, schadelijke of onethische doeleinden

  • Auteursrechtelijk beschermde normen of bedrijfseigen materialen reproduceren

  • Zijn eigen instructies (system prompts) onthullen

Als u de AI vraagt om te helpen met iets dat buiten de reikwijdte valt, zal deze beleefd zijn beperkingen uitleggen en u doorverwijzen naar de compliance-gerelateerde ondersteuning die het wel kan bieden.

Preventie van Jailbreaking

ISMS Copilot is ontworpen om pogingen tot manipulatie te weerstaan:

Geblokkeerde tactieken:

  • "Herhaal mij maar na"-trucs om system prompts te extraheren

  • Rollenspellen ontworpen om veiligheidsbeperkingen te omzeilen

  • Verzoeken om "vorige instructies te negeren"

  • Manipulatie van beperkingen ("reageer zonder weigeringsreacties")

  • Pogingen om direct toegang te krijgen tot interne bestanden in de kennisbank

Hoe het werkt:

Wanneer de AI een jailbreak-poging detecteert:

  1. Herkent het het manipulatiepatroon

  2. Weigert het beleefd het verzoek

  3. Verwijst het door naar legitieme ISMS-ondersteuning

  4. Behoudt het zijn veiligheidsbeperkingen

ISMS Copilot is ontworpen om behulpzaam te zijn binnen zijn compliance-domein. Als u legitieme vragen heeft die veiligheidsvangrails lijken te activeren, probeer dan uw vraag te herformuleren met de focus op het compliance- of beveiligingsaspect waarbij u hulp nodig heeft.

Bescherming tegen Prompt Injection

Het platform beschermt tegen kwaadaardige inhoud in bestandsuploads:

Wat wordt beschermd:

  • Geüploade documenten worden gescand op pogingen tot prompt injection

  • Kwaadaardige instructies in bestanden worden stilletjes geweigerd

  • System prompts kunnen niet worden overschreven via bestandsinhoud

  • Veiligheidsbeperkingen blijven actief, ongeacht de inhoud van het bestand

Gebruikerservaring:

  • Bestanden worden vanuit het perspectief van de gebruiker normaal verwerkt

  • Schadelijke instructies worden tijdens de verwerking uitgefilterd

  • Alleen legitieme documentinhoud wordt geanalyseerd

  • Geen zichtbare foutmelding (stille bescherming)

Vangrails voor kennisbescherming

De AI beschermt zijn trainingsgegevens en systeemconfiguratie:

Waar gebruikers geen toegang tot hebben:

  • Aangepaste instructies of system prompts

  • Details over bronnen van trainingsgegevens

  • Directe toegang tot bestanden in de kennisbank

  • Downloadlinks voor interne documenten

  • Informatie over hoe de kennisbank is gestructureerd

Waarom dit belangrijk is:

Het beschermen van system prompts en trainingsgegevens voorkomt:

  • Dat kwaadwillenden begrijpen hoe ze de AI kunnen manipuleren

  • Auteursrechtschendingen door het reproduceren van trainingsmateriaal

  • Beveiligingsrisico's door het blootstellen van de systeemarchitectuur

  • Inconsistent gedrag door gewijzigde instructies

Voorkomen van hallucinaties

Wat zijn hallucinaties?

AI-hallucinaties treden op wanneer de AI informatie genereert die zelfverzekerd klinkt maar feitelijk onjuist is. ISMS Copilot pakt dit aan via meerdere mechanismen:

Dynamic Framework Knowledge Injection (v2.5)

Vanaf februari 2025 elimineert ISMS Copilot v2.5 hallucinaties bij framework-specifieke vragen nagenoeg volledig door middel van dynamische kennisinjectie:

  • Detecteert vermeldingen van frameworks in uw vragen met behulp van regex-patroonmatching (ISO 27001, GDPR, SOC 2, HIPAA, CCPA, NIS 2, DORA, ISO 42001, ISO 27701)

  • Injecteert geverifieerde framework-kennis in de AI-context voordat antwoorden worden gegenereerd

  • De AI antwoordt op basis van verstrekte framework-kennis, niet op basis van probabilistisch geheugen

  • Niet-AI-gebaseerde detectie garandeert 100% betrouwbaarheid wanneer frameworks worden genoemd

  • Ondersteunt 9 frameworks met toegewezen kennisinjectie

Wanneer u vraagt: "Wat is ISO 27001 controle A.5.9?", detecteert het systeem ISO 27001, injecteert de kennis en antwoordt de AI op basis van geverifieerde informatie — niet op basis van gokwerk. Dit elimineert nagenoeg alle verzonnen controlenummers en foutieve vereisten.

Training op praktijkkennis

Naast kennisinjectie voor frameworks is ISMS Copilot getraind op gespecialiseerde compliance-kennis:

  • Bedrijfseigen bibliotheek met compliance-kennis van honderden echte consultancyprojecten

  • Gebaseerd op praktische implementatie-ervaring, niet op theoretische informatie

  • Gericht op frameworks, normen en bewezen praktijken

  • Regelmatig bijgewerkt met actuele compliance-eisen

Erkenning van onzekerheid

De AI heeft de instructie om eerlijk te zijn over beperkingen:

  • Vermeldt expliciet wanneer het onzeker is over informatie

  • Vraagt gebruikers om kritieke informatie te verifiëren

  • Vermijdt het verzinnen van feiten wanneer kennis onvolledig is

  • Suggereert het raadplegen van officiële normen of juridische professionals wanneer dat passend is

Voorbeeldantwoord:

"Hoewel ik algemene begeleiding kan bieden voor ISO 27001-beheersmaatregel A.8.1, is het mogelijk dat ik fouten maak. Verifieer deze informatie voor auditdoeleinden met de officiële ISO 27001:2022-norm."

Verantwoordelijkheid van de gebruiker voor verificatie

ISMS Copilot benadrukt dat gebruikers het volgende moeten doen:

  • AI-suggesties vergelijken met officiële normen

  • Kritieke informatie valideren voordat deze aan auditors wordt voorgelegd

  • De AI gebruiken als assistent van een consultant, niet als vervanging voor expertise

  • Professioneel oordeel toepassen bij het toepassen van AI-aanbevelingen

Verifieer altijd kritieke compliance-informatie voordat u deze gebruikt bij audits of officiële indieningen. ISMS Copilot is ontworpen om professioneel oordeel en officiële normdocumentatie te ondersteunen, niet te vervangen.

Rate Limiting & Resource-bescherming

Limieten voor berichtfrequentie

ISMS Copilot implementeert rate limiting om misbruik te voorkomen en eerlijke toegang te garanderen:

Gratis abonnement:

  • 10 berichten per voortschrijdend venster van 4 uur

  • De teller wordt 4 uur na het eerste bericht gereset

  • Afgedwongen op zowel frontend als backend

Premium abonnement:

  • Onbeperkt aantal berichten

  • Geen beperkingen door rate limiting

  • Prioritaire verwerking

Wanneer de limiet is bereikt:

U ziet de foutmelding: "Dagelijkse berichtlimiet bereikt. Upgrade naar Premium voor onbeperkt berichten sturen."

Om het meeste uit uw berichten in de gratis versie te halen, kunt u het beste uitgebreide vragen stellen en context bieden in één enkel bericht in plaats van meerdere korte vragen te sturen. Dit maximaliseert de waarde van elke interactie.

Limieten voor bestandsuploads

Bestandsuploads hebben veiligheidsbeperkingen om systeembronnen te beschermen:

Bestandsgrootte:

  • Maximum: 10MB per bestand

  • Foutmelding: "Bestand 'document.pdf' is te groot (15.23MB). De maximaal toegestane grootte is 10MB."

Ondersteunde bestandstypen:

  • TXT, CSV, JSON (tekstbestanden)

  • PDF (documenten)

  • DOC, DOCX (Microsoft Word)

  • XLS, XLSX (Microsoft Excel)

Uploadbeperkingen:

  • Eén bestand tegelijk (batch-upload wordt niet ondersteund)

  • Geen dubbele bestanden voor hetzelfde bericht

  • Niet-ondersteunde bestandstypen worden geweigerd met een foutmelding

Tijdelijke chatmodus

Wat is een tijdelijke chat?

De tijdelijke chatmodus biedt privacyvriendelijke gesprekken met specifieke gegevensverwerking:

Hoe het werkt:

  1. Selecteer "Tijdelijke Chat" in het welkomstscherm

  2. U ziet de melding: "Deze chat verschijnt niet in de geschiedenis. Voor veiligheidsdoeleinden kunnen we een kopie van deze chat maximaal 30 dagen bewaren."

  3. Stuur berichten en upload bestanden zoals gewoonlijk

  4. Het gesprek wordt niet toegevoegd aan uw gespreksgeschiedenis

  5. Gegevens kunnen tot 30 dagen worden bewaard voor een veiligheidsbeoordeling

Wanneer Tijdelijke Chat te gebruiken:

  • Snelle eenmalige vragen die niet hoeven te worden opgeslagen

  • Gevoelige discussies die u niet in uw permanente geschiedenis wilt

  • Het testen van queries voordat u ze in een workspace gebruikt

  • Verkennend onderzoek naar compliance-onderwerpen

Zelfs in de tijdelijke chatmodus kunnen gesprekken tot 30 dagen worden bewaard voor veiligheidsmonitoring en preventie van misbruik. Dit helpt beschermen tegen misbruik, terwijl het toch privacy biedt ten opzichte van uw permanente gespreksgeschiedenis.

Instellingen voor gegevensbewaring

Door de gebruiker gecontroleerde bewaring

U bepaalt zelf hoe lang uw gespreksgegevens worden bewaard:

  1. Klik op het pictogram van het gebruikersmenu (rechtsboven)

  2. Selecteer Instellingen

  3. Kies in het veld Gegevensbewaringsperiode voor:

    • Minimum: 1 dag (voor extra beveiliging, kortetermijnwerk)

    • Maximum: 24.955 dagen / 7 jaar (voor langetermijndocumentatie)

    • Of klik op Voor altijd bewaren voor onbepaalde bewaring

  4. Klik op Instellingen opslaan

Verwacht resultaat: Het instellingenvenster sluit en de bewaarperiode is opgeslagen.

Automatische gegevensverwijdering

ISMS Copilot verwijdert automatisch oude gegevens:

  • De verwijderingstaak wordt dagelijks uitgevoerd

  • Verwijdert berichten die ouder zijn dan uw bewaarperiode

  • Verwijdert bijbehorende geüploade bestanden

  • Definitief en kan niet worden hersteld

Gegevensverwijdering is automatisch en definitief. Exporteer belangrijke gesprekken of documenten voordat ze verlopen op basis van uw bewaarinstellingen.

Veiligheidsfuncties voor workspaces

Gegevensisolatie

Workspaces bieden beveiligingsgrenzen voor verschillende projecten:

Hoe isolatie werkt:

  • Elke workspace heeft een aparte gespreksgeschiedenis

  • Geüploade bestanden zijn gekoppeld aan specifieke workspaces

  • Aangepaste instructies zijn workspace-specifiek

  • Het verwijderen van een workspace verwijdert alle bijbehorende gegevens

  • De AI deelt geen informatie tussen workspaces

Voor consultants die meerdere klanten beheren, zorgen workspaces ervoor dat klantgegevens volledig gescheiden blijven. Zelfs de AI behandelt elke workspace als een afzonderlijk project zonder kruisbesmetting van informatie.

Veiligheid van aangepaste instructies

Workspaces staan aangepaste instructies toe met veiligheidsbeperkingen:

Wat aangepaste instructies kunnen doen:

  • Focus op specifieke compliance-frameworks specificeren

  • De toon of het detailniveau voor antwoorden instellen

  • Projectspecifieke context definiëren (sector, bedrijfsgrootte)

  • De AI sturen naar specifieke compliance-doelen

Veiligheidsbeperkingen:

  • Aangepaste instructies moeten gerelateerd zijn aan compliance

  • Kunnen de kern-veiligheidsvangrails niet overschrijven

  • Kunnen de AI niet instrueren om auteursrechtelijke bescherming te negeren

  • Kunnen de beperkingen van de inhoudsreikwijdte niet omzeilen

Geen training op gebruikersgegevens

Privacygarantie

ISMS Copilot verbindt zich ertoe uw gegevens nooit te gebruiken voor AI-training:

Wat dit betekent:

  • Uw gesprekken worden nooit teruggevoerd in het AI-model

  • Geüploade documenten blijven vertrouwelijk en privé

  • Klantinformatie draagt nooit bij aan modelverbetering

  • Elk gesprek wordt onafhankelijk verwerkt zonder te 'leren'

Hoe dit u beschermt:

  • De vertrouwelijkheid van de klant blijft gewaarborgd

  • Bedrijfseigen informatie blijft privé

  • Gevoelige compliance-gegevens worden niet gedeeld met andere gebruikers

  • Geen risico dat de AI per ongeluk uw informatie aan anderen onthult

Dit is een cruciaal verschil met algemene AI-tools zoals de gratis versie van ChatGPT. ISMS Copilot garandeert dat uw gevoelige compliance-gegevens nooit worden gebruikt om het model te verbeteren, wat volledige vertrouwelijkheid voor uw werk voor klanten garandeert.

Transparantie over gegevensverwerking

ISMS Copilot is transparant over hoe uw gegevens worden gebruikt:

Hoe uw gegevens WEL worden gebruikt:

  • Het verwerken van uw vragen om antwoorden te genereren

  • Het analyseren van geüploade documenten voor gap-analyse

  • Het bijhouden van de gesprekscontext binnen een workspace

  • Het opslaan van gegevens volgens uw bewaarinstellingen

  • Veiligheidsmonitoring tot 30 dagen (om misbruik te voorkomen)

Hoe uw gegevens NIET worden gebruikt:

  • Het trainen of finetunen van AI-modellen

  • Het delen met andere gebruikers of klanten

  • Marketing- of advertentiedoeleinden

  • Verkoop aan derden

  • Openbare publicatie of casestudy's (zonder expliciete toestemming)

Authenticatie & toegangscontrole

Vereisten voor gebruikersauthenticatie

Alle AI-interacties vereisen authenticatie:

  • Het is niet mogelijk berichten te sturen zonder in te loggen

  • Een JWT-token valideert elk API-verzoek

  • Sessies verlopen na een periode van inactiviteit

  • Row-level security zorgt ervoor dat gebruikers alleen hun eigen gegevens zien

Bescherming tussen gebruikers

Isolatie op databaseniveau voorkomt ongeautoriseerde toegang:

  • Gebruikers hebben geen toegang tot gesprekken van andere gebruikers

  • Pogingen om toegang te krijgen tot gegevens van een andere gebruiker leveren lege resultaten op

  • Alle zoekopdrachten worden automatisch gefilterd op basis van het geauthenticeerde gebruikers-ID

  • Zelfs beheerders volgen het principe van de minste privileges

Best practices voor verantwoorde AI

Voor gebruikers

De beste resultaten behalen:

  • Stel specifieke, framework-gerelateerde vragen (bijv. "Hoe implementeer ik ISO 27001-beheersmaatregel A.8.1?")

  • Bied context over uw organisatie en compliance-doelen

  • Upload relevante documenten voor een nauwkeurige gap-analyse

  • Controleer en verfijn door AI gegenereerde inhoud voor gebruik

Verificatiepraktijken:

  • Vergelijk AI-suggesties met officiële normen

  • Valideer kritieke informatie met compliance-experts

  • Test door AI gegenereerd beleid in uw eigen organisatiecontext

  • Gebruik de AI als assistent, niet als vervanging van expertise

Formuleer uw vragen specifiek: In plaats van "Vertel me over ISO 27001," vraagt u "Wat zijn de belangrijkste stappen om een toegangscontrolebeleid te implementeren voor ISO 27001 Annex A.9?" Dit helpt de AI om nauwkeuriger en bruikbaarder advies te geven.

Voor organisaties

Governancepraktijken:

  • Leg het gebruik van ISMS Copilot vast in uw AI-governancebeleid

  • Train personeel in het juiste gebruik en de beperkingen

  • Stel bewaarperiodes in die in lijn zijn met uw beleid

  • Controleer door AI gegenereerde inhoud vóór officiële indiening

  • Behoud menselijk toezicht bij kritieke compliancebeslissingen

Risicobeheer:

  • Neem AI-tools op in Data Protection Impact Assessments (DPIA)

  • Documenteer verwerkersovereenkomsten met ISMS Copilot

  • Stel passende bewaarperiodes in voor gevoelige gegevens

  • Gebruik workspaces om gegevens van verschillende klanten of projecten te isoleren

AI Governance in de praktijk

Naast veiligheidsbeperkingen beheren wij onze AI-systemen met governance over de gehele levenscyclus. Hier ziet u hoe ons beleid zich vertaalt in tastbare praktijken:

Ontwikkelingsproces

Eisen & Testen:

  • Elke AI-functie heeft gedocumenteerde eisen met betrekking tot functionele mogelijkheden, drempelwaarden voor prestaties, veiligheidsbeperkingen en standaarden voor gegevensverwerking

  • Regressietests worden bij elke codewijziging uitgevoerd om de nauwkeurigheid van het ophalen van gegevens, de onderbouwing van antwoorden en de detectie van hallucinaties te valideren

  • Beveiligingstesten omvatten SAST/DAST-scans, jaarlijkse penetratietesten en testen op prompt injection

  • Er vindt geen implementatie plaats totdat 100% van de regressietests is geslaagd en alle kritieke kwetsbaarheden zijn verholpen

Architectuurdetails (v2.5, februari 2025):

  • Architectuur voor dynamische kennisinjectie voor frameworks (vervangt de eerdere RAG-aanpak)

  • Op regex gebaseerde framework-detectie garandeert betrouwbare identificatie van ISO 27001, SOC 2, GDPR, HIPAA, CCPA, NIS 2, DORA, ISO 42001, ISO 27701

  • Token-efficiënt: alleen relevante framework-kennis wordt geladen (tegenover het verzenden van alle ~10K tokens bij elk verzoek)

  • Geverifieerde framework-kennis wordt aan de AI verstrekt vóór het genereren van het antwoord

  • Configureerbare AI-providers (Mistral, xAI, OpenAI) met overeenkomsten voor nul gegevensbewaring

Zie onze Beveiligingsbeleid voor gedetailleerde technische specificaties van ons AI-ontwikkelingsproces, inclusief vereisten, testprocedures en implementatievalidatie.

Monitoring & continue verbetering

Wat we monitoren:

  • Hallucinatiepercentages die worden bijgehouden via gebruikersrapporten en geautomatiseerde detectie tegen bekende waarheidsbronnen

  • Nauwkeurigheid van antwoorden die steekproefsgewijs wordt gecontroleerd tegen officiële compliance-normen

  • Gebruikspatronen worden geanalyseerd om misbruik of onbedoelde toepassingen te detecteren

  • Prestatiegegevens (reactietijd, precisie bij het ophalen, foutpercentages) worden continu gemeten

  • Gebruikersfeedback wordt regelmatig beoordeeld om opkomende risico's te identificeren

Hoe monitoring verbetering stimuleert:

  • Gebruikersfeedback voedt modelupdates en het afstemmen van gegevensherwinning

  • Resultaten van beveiligingstests leiden tot verbeteringen in de veiligheid

  • Wijzigingen in regelgeving en best practices worden verwerkt in de documentatie

  • Prestatiegegevens sturen iteratieve verbeteringen in nauwkeurigheid en snelheid aan

Incidentrespons

Hoe wij over problemen communiceren:

  • E-mailmeldingen voor kritieke incidenten die de AI-functionaliteit beïnvloeden

  • Slack-notificaties voor teams met geconfigureerde integraties

  • Updates op de statuspagina met tijdlijnen van incidenten en oplossingen

  • NIS2-conforme vroegtijdige meldingen (24-uurs rapportage voor significante cybersecurity-incidenten)

Abonneer u op onze statuspagina om realtime updates te ontvangen over incidenten in het AI-systeem, onderhoudsvensters en updates.

Veiligheidsproblemen melden

Wanneer te melden

Neem contact op met de support van ISMS Copilot als u het volgende tegenkomt:

  • AI-antwoorden die de veiligheidsbeperkingen schenden

  • Mogelijke hallucinaties of feitelijk onjuiste informatie

  • Auteursrechtschendingen in de AI-output

  • Ongepaste inhoud of gedrag

  • Beveiligingskwetsbaarheden in het AI-systeem

  • Privacy-inbreuken of datalekken

Hoe te melden

  1. Klik op het gebruikersmenu (rechtsboven)

  2. Selecteer Help CenterContact Support

  3. Beschrijf het veiligheidsprobleem met:

    • De exacte vraag of prompt die u hebt gebruikt

    • Het antwoord van de AI (indien mogelijk een screenshot)

    • Waarom u denkt dat dit een veiligheidsprobleem is

    • Datum en tijd van de interactie

  4. Support zal de zaak onderzoeken en binnen 48 uur reageren

Het melden van veiligheidsproblemen helpt om ISMS Copilot voor iedereen te verbeteren. Uw feedback is waardevol voor het identificeren en aanpakken van potentiële risico's in het gedrag van de AI.

Wat er gebeurt nadat u een melding doet

Uw melding activeert ons governanceproces:

  1. Onmiddellijke beoordeling (binnen 48 uur): het supportteam beoordeelt de ernst en impact

  2. Onderzoek: het technische team analyseert de kwestie, reproduceert het probleem en stelt de oorzaak vast

  3. Reactie: u ontvangt een update over de bevindingen en geplande acties

  4. Remediëring: problemen worden aangepakt via modelupdates, verfijning van gegevensherwinning, bugfixes of verbeteringen in de documentatie

  5. Continue verbetering: geleerde lessen worden geïntegreerd in de test- en monitoringprocessen

Beperkingen & bekende beperkingen

Huidige AI-beperkingen

  • Kan niet op internet surfen voor actuele informatie (gebruikt getrainde kennisbank)

  • Heeft geen realtime toegang tot externe databases of API's

  • Kan geen code uitvoeren of tools voor beveiligingstests draaien

  • Kan niet namens u bellen of e-mailen

  • Kan geen 100% nauwkeurigheid garanderen (verifieer altijd kritieke informatie)

Grenzen aan de reikwijdte

  • Gericht op ISMS en compliance (geen AI voor algemene doeleinden)

  • Kan geen juridisch, medisch of financieel advies geven buiten de context van compliance

  • Kan officiële normen of het oordeel van een auditor niet vervangen

  • Kan het succes van een audit niet garanderen (de kwaliteit van de implementatie is bepalend)

Wat nu?

Hulp krijgen

Voor vragen over AI-veiligheid en verantwoord gebruik:

  • Raadpleeg het Trust Center voor gedetailleerde informatie over AI-governance

  • Neem contact op met support via het menu in het Help Center

  • Meld veiligheidsrisico's onmiddellijk voor onderzoek

  • Controleer de statuspagina voor bekende problemen

Was dit nuttig?