EW03 omslag 600
Oktober 2025

De 7 risico’s van ­AI-gebruik op de werkvloer

Van gemak naar gevaar

24 01

Sinds de introductie van ChatGPT eind 2022 is generatieve AI in razend tempo doorgedrongen tot het dagelijks werk van veel professionals – ook in de installatietechniek. Maar terwijl de productiviteitswinst lonkt, groeit ook het besef dat AI niet zonder risico’s is. Vooral als er geen duidelijke richtlijnen zijn.

Uit recente cijfers blijkt dat het gebruik van AI op de werkvloer met 485 procent is toegenomen in slechts een jaar tijd. En dat gaat lang niet altijd via bedrijfsaccounts. Meer dan 70 procent van de ChatGPT-gebruikers doet dat via persoonlijke accounts, buiten het zicht van IT-afdelingen. Dit fenomeen, ook wel ‘shadow AI’ genoemd, kan leiden tot gevoelige datalekken, onbetrouwbare informatie, juridische problemen en zelfs cyberaanvallen. Wat betekent dit concreet voor installatiebedrijven? Welke risico’s zijn relevant? En hoe kunnen bedrijven zich beschermen?

1. Hoe veilig is het gebruik van AI-tools zoals ChatGPT of Copilot?

Op het eerste gezicht lijken tools zoals ChatGPT, Gemini en Copilot betrouwbaar en gebruiksvriendelijk. Maar achter het gebruiksgemak schuilen risico’s. Veel gratis versies van deze tools verzamelen en gebruiken de ingevoerde gegevens voor trainingsdoeleinden. Als een installateur bijvoorbeeld een bestek, bouwtekening of onderhoudsrapport invoert, kan die informatie – al is het onbedoeld – terechtkomen in een openbaar model of bij derden.
Zo blijkt uit onderzoek van cybersec-bedrijf Cyberhaven dat bijna 83 procent (!) van juridische documenten die via AI-tools worden ingevoerd, terechtkomen in niet-corporate (persoonlijke) accounts. Ook personeelsgegevens en interne communicatie belanden regelmatig op servers buiten de controle van het bedrijf. Daarmee is de kans op een datalek reëel.
Zonder duidelijke regels lopen installatiebedrijven het risico dat medewerkers onbewust vertrouwelijke klant- of projectinformatie delen met partijen die daar geen toegang toe mogen hebben. Dat kan serieuze gevolgen hebben voor de naleving van de AVG, maar ook voor het vertrouwen van klanten en opdrachtgevers.

2. Wat zijn de cyberrisico’s van AI op de werkvloer?

Een groeiend probleem is het gebruik van AI door cybercriminelen. Uit onderzoek van Trend Micro blijkt dat deepfakes – nepvideo’s of -audio gegenereerd met AI – een van de snelst opkomende cyberdreigingen zijn. Het gaat daarbij niet meer alleen om fake nieuwsberichten, maar ook om bijvoorbeeld CEO-fraude via nagebootste videomeetings, gesaboteerde sollicitatieprocedures, nep-emails met het verzoek betalingen te doen of vervalste identiteiten om toegang te krijgen tot systemen.
Het gevaar zit in de laagdrempeligheid. Criminelen hebben geen technische kennis meer nodig. Ze gebruiken dezelfde tools als legitieme gebruikers. Als bedrijven hun AI-gebruik niet goed afbakenen, vergroten ze dus onbewust hun zogeheten digitale aanvalsoppervlak. Anders gezegd: ze vergroten de mogelijkheden voor cybercriminelen om in te breken. AI verhoogt dus niet alleen de productiviteit, maar ook de complexiteit van cybersecurity.

'Op het eerste gezicht lijken tools zoals ChatGPT, Gemini en Copilot betrouwbaar en gebruiksvriendelijk. Maar achter het gebruiksgemak schuilen risico’s'

3. Hoe risicovol is ‘onzichtbaar’ AI-gebruik door medewerkers?

‘Shadow AI’ is het gebruik van AI-tools buiten medeweten van IT of de directie. Medewerkers gebruiken privéaccounts om teksten te genereren, berekeningen te maken of tekeningen te laten controleren. Op zich begrijpelijk – het gaat snel, werkt goed, en niemand houdt hen tegen. Maar juist dit onzichtbare gebruik is problematisch.
In de installatiesector, waar veiligheid, regelgeving en nauwkeurigheid essentieel zijn, kan ongecontroleerd AI-gebruik leiden tot:
• onjuiste berekeningen in technische adviezen,
• verouderde normeringen in gegenereerde instructies,
• risico op ongelukken of foutieve installaties.

Daar komt bij dat veel bedrijven geen zicht hebben op welke tools worden gebruikt, met welke data, en met welk resultaat. Dat betekent: geen audit trail, geen validatie en geen mogelijkheid om achteraf fouten te reconstrueren. Vooral voor gecertificeerde bedrijven kan dat grote gevolgen hebben voor aansprakelijkheid, kwaliteitsborging en verzekerbaarheid.

4. Kan AI voor chaos op de werkvloer zorgen?

In een recent artikel op de website EW Installatietechniek werd al gesproken van een ‘ChatGPT-chaos’ in het mkb: medewerkers die zelfstandig tools gebruiken, teksten herschrijven zonder dat iemand de bron controleert of verkeerde informatie kopiëren zonder dat het opvalt.
Radboud Langenhorst van AI-dienstverlener AI Opener stelde in dat interview dat het ontbreken van beleid en controle leidt tot een ‘wildgroei aan AI-gebruik’ binnen bedrijven. ‘Als iedereen zijn eigen tools kiest, ontstaat er versnippering, verwarring en het risico dat je als organisatie niet meer weet waarop je vertrouwt.’
In de installatietechniek is dat extra risicovol. Als een werkvoorbereider een installatieschema laat genereren door een AI-tool en dat schema klopt net niet – dan is het de monteur die ermee moet werken en uiteindelijk de klant die met de problemen wordt geconfronteerd.

24 03

5. Hoe betrouwbaar is de informatie die AI-tools geven?

Een veelgehoorde waarschuwing: AI kan hallucineren. Dat wil zeggen dat de tool informatie verzint die logisch klinkt, maar feitelijk onjuist is. Zeker bij het opstellen van technische teksten, uitleg over normen (zoals Nen 1010 of ISO-standaarden) of veiligheidsinstructies, is dat een serieus probleem.
AI is getraind op grote hoeveelheden tekst, maar weet niets van de context waarin de gebruiker zich bevindt. Bovendien zijn veel AI-tools gebaseerd op informatie van vóór 2023. Als regelgeving of productinformatie recent is aangepast, loopt men het risico om achterhaalde adviezen te krijgen – met alle gevolgen van dien.
Installateurs die AI inzetten voor technisch advies, ontwerp, of klantcommunicatie, doen er verstandig aan elk resultaat kritisch te controleren. De tool kan een suggestie doen, maar het blijft mensenwerk om die suggestie te toetsen op juistheid, actualiteit en toepasbaarheid.

6. Wie is verantwoordelijk bij fouten of schade?

Een juridisch grijs gebied is de aansprakelijkheid bij AI-gebruik. Stel dat een medewerker een AI-tool gebruikt om een onderhoudsrapport te genereren. De tool bevat een fout waardoor een installatie niet correct wordt afgesteld. Er ontstaat schade, of erger: een veiligheidsincident.
Wie is dan verantwoordelijk? De medewerker, het bedrijf, de maker van de AI-tool..? Verzekeraars wijzen steeds vaker schadeclaims af als blijkt dat er AI is gebruikt zonder gedocumenteerd beleid of toetsing. En in veel gevallen is het juridisch niet duidelijk of gegenereerde content auteursrechtelijk veilig is. Zeker bij hergebruik van teksten, schema’s of grafieken uit AI-tools kan dat tot juridische problemen leiden.

AI kan technische informatie verzinnen die logisch klinkt, maar feitelijk onjuist is

7. Wat kunnen installatiebedrijven doen om risico’s te beperken?

De oplossing ligt niet in het verbieden van AI-gebruik, maar in het organiseren ervan. Net zoals je werkprocedures, veiligheidskleding of normenkaders voorschrijft, geldt dat ook voor AI. Concreet betekent dit:
• Beleid opstellen: bepaal welke AI-tools wel en niet gebruikt mogen worden, voor welke toepassingen, en met welke soorten data.
• Datahygiëne waarborgen: Laat geen vertrouwelijke klant- of projectinformatie invoeren in publieke tools.
• Training en bewustwording: Zorg dat medewerkers weten wat AI wel en niet kan – en waar de risico’s liggen.
• Technische maatregelen: Overweeg het blokkeren van niet-goedgekeurde AI-platforms op het bedrijfsnetwerk.
• Controle op output: Laat altijd een menselijke expert de AI-uitvoer controleren voordat deze wordt gebruikt.

Slim omgaan

AI biedt volop kansen. Monteurs kunnen AI-tools gebruiken voor het schrijven van rapportages, werkvoorbereiders stellen offertes op met behulp van Copilot en bedrijfsleiders laten teksten herschrijven of veiligheidsinstructies genereren door slimme algoritmes. Maar zonder beleid dreigt chaos, datalekken of zelfs ongelukken. Kleine en middelgrote installatiebedrijven die AI serieus nemen, moeten het gebruik ervan net zo professioneel organiseren als ze doen met gereedschap, persoonlijke beschermingsmiddelen of software.

24 02

8 tips voor veilig AI-gebruik binnen jouw installatiebedrijf

AI-tools bieden handige ondersteuning, maar kunnen ook risico’s meebrengen als je ze ondoordacht inzet. Met deze tips kun je als installatiebedrijf de voordelen benutten, zonder grip te verliezen.

1. Gebruik alleen goedgekeurde AI-tools en werk bij voorkeur met zakelijke accounts. Deze bieden betere beveiliging en gebruiken jouw data niet om hun modellen te trainen.
2. Voer nooit vertrouwelijke informatie in, tenzij het zeker is dat de tool geen data opslaat of hergebruikt.
3. Stel een duidelijk AI-gebruiksbeleid op met afspraken over welke tools wel en niet gebruikt mogen worden, voor welke doeleinden ze geschikt zijn en wie verantwoordelijk is voor controle en toezicht.
4. Houd grip op ‘shadow AI’ en overweeg het blokkeren van onbekende AI-sites of het monitoren van gebruik via het bedrijfsnetwerk.
5. Check de output altijd handmatig. AI kan foutieve of verouderde informatie genereren.
6. Train medewerkers in AI-gebruik met uitleg over de risico’s en hoe je veilig en verantwoord werkt met AI-tools.
7. Houd rekening met wet- en regelgeving (AVG, privacywetgeving) en zaken als auteursrecht. AI-tools kunnen content genereren op basis van beschermd bronmateriaal.
8. Documenteer gebruik bij belangrijke projecten. Noteer bij grote en/of kritieke opdrachten of en hoe AI gebruikt is, bijvoorbeeld bij het opstellen van documentatie of adviezen. Dit helpt bij verantwoording richting klant of verzekeraar.

Tekst: Robbert Hoeffnagel
Fotografie: iStock/Imagegap/Dilok Klaisataporn/Gabriel Chow

Lees meer artikelen in het dossier Software

Meer weten over de nieuwste installatietechnieken en de laatste richtlijnen?
Meld u dan nu aan voor onzegratis tweewekelijkse nieuwsbrief.