Het vraagstuk van verantwoord gebruik van AI-toepassingen binnen organisaties

Eddy-Willems-G-Data-Software-Benelux-2-300x200

Artificial intelligence (AI) heeft in korte tijd zijn stempel gedrukt op vrijwel elke afdeling van organisaties. Of het nu gaat om klantenservice, marketing, data-analyse of financiële planning: AI-tools spelen een cruciale rol bij het verhogen van de efficiëntie van bedrijfsprocessen. Maar weten bedrijven hoe vaak en op welke manier hun werknemers deze AI-tools gebruiken? En zijn werknemers voldoende op de hoogte van mogelijke risico’s van het gebruik van AI-oplossingen?

Het gebrek aan exacte data en statistieken met betrekking tot het gebruik van AI binnen organisaties is een kritisch punt van zorg. Bedrijven worstelen met het nauwkeurig bijhouden van welke AI-tools door welke afdelingen worden ingezet. Dit resulteert in een gebrek aan transparantie en overzicht. Terwijl inzicht in welke AI-tools worden gebruikt cruciaal is om regelgeving op te stellen voor de omgang met AI-oplossingen.

Verantwoord gebruik van AI-tools

Het waarborgen van een verantwoord gebruik van AI-tools binnen organisaties vereist een doordachte aanpak. Dit omvat niet alleen het omarmen van AI-technologie, maar ook het implementeren van effectieve beheersmaatregelen. De volgende drie stappen helpen hierbij:

  1. Wees voorzichtig met bedrijfsdata

Een van de absolute don’ts in het AI-beleid van organisaties is het delen van bedrijfskritieke informatie met openbare AI-modellen zoals ChatGPT, Bard of Bingchat. Zelfs met filters kunnen deze modellen dergelijke data onbedoeld 'hergebruiken'. Het implementeren van Data Loss Prevention (DLP)-tools kan een effectieve manier zijn om te voorkomen dat gevoelige bedrijfsinformatie onbedoeld wordt gedeeld.

  1. Bewustwording creëren

Om bewustwording te stimuleren over het verantwoord gebruik van AI-tools, moeten bedrijven AI opnemen in hun security awareness-trainingen. Medewerkers moeten goed geïnformeerd zijn over hoe AI-tools op een veilige en ethische manier kunnen gebruiken. Daarnaast moeten bedrijven communiceren over de best practices en mogelijke valkuilen bij het gebruik van deze tools.

  1. Continu leren

AI-technologie evolueert voortdurend, en organisaties moeten hun medewerkers de mogelijkheid bieden om hun kennis bij te werken en op de hoogte te blijven van de meest recente ontwikkelingen in AI. En vooral up-to-date blijven over de nieuwe dreigingen en beveiligingsmaatregelen die AI met zich meebrengt.

De schokkende voorbeelden

Helaas zijn er schokkende voorbeelden van organisaties waar werknemers per ongeluk bedrijfsgevoelige informatie hebben gedeeld via AI-chatbots. Deze voorbeelden variëren van theoretische dreigingen zoals ‘prompt injection’-aanvallen tot reële gevallen van datalekken en fraude. Een diepgaand inzicht in deze incidenten is van cruciaal belang om te begrijpen hoe bedrijven het best kunnen reageren op de gevaren die AI met zich meebrengt.

Een verontrustend geval was het lek van 38 terabyte aan bedrijfsdata door AI-engineers van Microsoft. Deze situatie onderstreept het belang van strikte beveiligingsmaatregelen en bewustwording rondom de verantwoorde omgang met AI-tools.

Verbieden geen optie

Sommige organisaties overwegen het gebruik van AI-tools te verbieden om veiligheidsrisico’s te minimaliseren. Echter, het verbieden van AI-gebruik is geen praktische oplossing. Dit kan leiden tot problemen, omdat medewerkers dan misschien juist meer fouten gaan maken om de technologie stiekem te gebruiken. In plaats daarvan is het beter om een gebalanceerde aanpak van educatie, bewustwording en veiligheidsmaatregelen te hanteren.

Het gebruik van AI-tools door werknemers in organisaties is onvermijdelijk. Het is daarom van cruciaal belang dat bedrijven actief actie ondernemen om ervoor te zorgen dat deze technologie verantwoord wordt gebruikt door werknemers. Zo kunnen organisaties ervoor zorgen dat AI een positieve kracht blijft binnen hun bedrijfsvoering en geen bron van zorgen wordt. AI zal blijven evolueren en het is aan bedrijven om ervoor te zorgen dat ze gelijke tred houden en zich wapenen tegen de mogelijke risico’s van deze technologie.

Meer over
Lees ook
AI bestrijden met AI

AI bestrijden met AI

Het aantal bedrijven dat kunstmatige intelligentie (AI) toepast, is volgens Gartner sinds 2015 met meer dan 270% gestegen. Deze technologie biedt mogelijkheden om de huidige uitdagingen voor de economie, maatschappij en veiligheid aan te pakken. Maar het biedt ook mogelijkheden voor cyberaanvallers die het aanvalsoppervlak van hun doelwitten zien1

Cyberbedreigingen komen in 2023 van nieuwe kanten

Cyberbedreigingen komen in 2023 van nieuwe kanten

Bedrijfsleiders gaan nadenken over wat 2023 hen zal brengen. Cyberbeveiliging is als gevolg van onder andere de populariteit van thuiswerken, de digitale transformatie en politieke onrust het afgelopen jaar steeds belangrijker geworden. Deze trend zet zich ook in 2023 voort. In een markt die zo snel verandert als deze, is het essentieel om risico’1

Nieuwe versie van i-PRO Active Guard maakt van VMS een krachtige zoekmachine voor realtime alarmmeldingen en zoekacties achteraf

Nieuwe versie van i-PRO Active Guard maakt van VMS een krachtige zoekmachine voor realtime alarmmeldingen en zoekacties achteraf

i-PRO Co., Ltd., wereldleider op het gebied van professionele beveiligingsapparatuur voor bewaking en openbare veiligheid, heeft onlangs de nieuwste versie van zijn Active Guard plug-in aangekondigd. De op AI gebaseerde plug-in kan videomanagementsystemen (VMS) veranderen in krachtige zoekmachines die realtime zoekopdrachten of diepe forensische a1