75% van de medewerkers gebruikt al AI-tools.
Gebruik van ongeautoriseerde AI-tools onder deze groep is
Terwijl organisaties de voordeur beveiligen, zetten medewerkers massaal de achterdeur open.
Ontdek waarom Shadow AI de nieuwe realiteit is.
75% van de medewerkers gebruikt al AI-tools.
Gebruik van ongeautoriseerde AI-tools onder deze groep is
Klikratio phishing stijgt door AI.
Toename klikken op AI-phishing mails sinds 2003.
De valstrik van het Halo-effect
Bij 56% wint de eerste indruk het van de feitelijke veiligheid.
Het verbieden van ChatGPT en andere AI-tools werkt averechts. In ons nieuwste trendrapport duiken we in de psychologie achter 'Shadow AI' en onthullen we waarom medewerkers massaal de regels omzeilen.
89% weet de regels, maar 54% handelt er niet naar. Ontdek waarom kennis alleen niet genoeg is
Meer dan de helft van je collega's denkt onterecht dat een "mooie" website ook een veilige website is.
Leer hoe je de nieuwsgierigheid van medewerkers omzet in veilige innovatiekracht met AI-geletterdheid.
Het managen van AI voelt vaak als dweilen met de kraan open: 75% van de medewerkers gebruikt AI-tools, terwijl IT op minder dan 11% daarvan daadwerkelijk zicht heeft. Hoe pak je dit aan? In dit rapport leggen we je uit hoe je de inzichten uit het rapport direct vertaalt naar een sterke business case, scherper beleid en een weerbare organisatiecultuur.
Vergelijk jouw organisatie met de markt: wist je dat de AI-phishingvallen 5x vaker succesvol zijn dan twee jaar geleden?
Gebruik onze analyse van 33.690 respondenten om aan de directie te tonen dat AI awareness hard nodig is in een wereld waar 75% van het personeel al AI-tools inzet.
Medewerkers experimenteren sneller dan je policy toestaat. Ontdek hoe je de regie behoudt zonder innovatie te remmen.
Veilige adoptie begint bij gedrag. Leer hoe je kritisch denken en digitale handigheid verankert in je cultuur.
Veelgestelde vragen
over Ransomware
en Security Awareness Training
Shadow AI is het ongeautoriseerd gebruik van AI-tools voor werkdoeleinden. Terwijl traditionele Shadow IT vaak beperkt blijft tot opslagdiensten, draait het bij AI om het verwerken van intellectueel eigendom en bedrijfsgevoelige data. De risico’s groeien exponentieel: het klikpercentage op AI-gerelateerde phishing is in twee jaar tijd vervijfvoudigd.
Klassieke trainingen richten zich vaak op theoretische kennis, terwijl 89% van de medewerkers de regels al kent. Er bestaat echter een kloof tussen weten en doen: 56% van de professionals laat zich leiden door het Halo-effect, waarbij een professioneel ogende interface onterecht als veilig wordt beschouwd. Effectieve beveiliging vereist daarom een psychologische benadering gericht op gedragsverandering.
Het blokkeren van AI-tools werkt averechts en stimuleert een schaduwcultuur waarin risico's onzichtbaar worden. Bovendien beïnvloedt de toegang tot AI de keuze van talent voor een werkgever. De oplossing ligt in het faciliteren van veilig gebruik door het vergroten van de AI-geletterdheid, zodat medewerkers zelfstandig risico's leren inschatten.
Het rapport analyseert ruim 100.000 datapunten uit diverse sectoren, waaronder de zorg, zakelijke dienstverlening en overheid. Deze kwantitatieve inzichten bieden professionals een fundament om budget en draagvlak te creëren voor integrale gedragsprogramma’s. Het vertaalt complexe security-uitdagingen naar concrete acties voor een weerbare digitale cultuur.
De focus moet verschuiven van strikte controle naar menselijke weerbaarheid en digitale behendigheid. Dit omvat het overbruggen van de kennis-actie kloof door medewerkers te leren hoe zij data correct classificeren en de betrouwbaarheid van tools zelfstandig beoordelen. Organisaties moeten investeren in deze behendigheid om van Shadow AI een veilige en productieve innovatiekracht te maken.
Sociaal Psycholoog