Wat zie je als de grootste uitdaging bij het handhaven van ethische normen in juridisch werk?
3 minuten leestijd

De evolutie van AI en Productiviteit: Effectief Gebruik van Microsoft Copilot

AI-integratie op de werkvloer is tegenwoordig een onmisbaar onderdeel geworden voor veel bedrijven, en niet zonder reden. Recente studies hebben aangetoond dat werknemers die gebruik maken van ChatGPT meer taken kunnen voltooien, en dit nog efficiënter en effectiever doen. Het gebruik van ChatGPT is slechts het begin. Met de introductie van Microsoft Copilot, dat sinds 1 november 2023 werd uitgerold voor gebruikers van Microsoft 365 Enterprise, neemt de AI-revolutie een volledig nieuwe wending.

Microsoft Copilot doet denken aan ‘Clippy’, de vrolijke paperclip die internetgebruikers tot 2007 bijstond bij het navigeren door de 365-apps. Het verschil met Clippy, die vaak meer in de weg zat dan hielp, is dat Copilot wordt aangestuurd door het meest geavanceerde taalmodel van 2024, GPT-4. Copilot biedt gebruikers niet alleen eenvoudige instructies, maar kan ook zelfstandig taken uitvoeren. Op basis van gebruikersvragen kan Copilot Word-documenten samenvatten, Excel-bestanden analyseren en complete Powerpoints opstellen.

Hoe werkt Microsoft Copilot?

Het proces van vraag tot antwoord begint met een gebruiker die een vraag (ook wel 'prompt') stelt in één van de 365-apps. Deze prompt wordt als eerste naar Microsoft Graph gestuurd. In Microsoft Graph worden alle gedeelde bestanden in 365 Enterprise (zoals Word- en Powerpoint-bestanden) opgeslagen. De prompt wordt naar Graph gestuurd om te verifiëren of de gebruiker gemachtigd is om een antwoord op de prompt te ontvangen. Microsoft Graph onderzoekt hiervoor alle toegepaste toegangsbeperkingen en compliance-systemen zoals Microsoft Purview. Bij goedkeuring wordt bepaald dat de prompt naar het taalmodel (LLM) mag worden gestuurd. Voordat dit gebeurt, wordt de prompt door Microsoft beoordeeld op mogelijke verbeteringen, zodat het LLM een nog beter antwoord kan genereren. De prompt kan op vier verschillende manieren worden verrijkt:

  1. Relevante gegevens uit Microsoft Graph worden toegevoegd aan de prompt. Bijvoorbeeld, als de vraag betrekking heeft op een collega, worden relevante gegevens over die collega toegevoegd.
  2. Online wordt er gezocht (via Bing) naar extra informatie over de prompt die het LLM kan helpen om een beter antwoord te geven.
  3. Gegevens die de gebruiker zelf heeft verstrekt, worden toegevoegd. Dit kunnen bijvoorbeeld eerdere chats zijn uit een conversatie tussen de gebruiker en Word.
  4. Tot slot wordt een 'systeemprompt' toegevoegd, die het LLM vertelt naar welke soort bronnen het moet zoeken en welke stijl het moet hanteren.

 Nadat de prompt volledig is verrijkt, wordt deze naar het LLM gestuurd. Het LLM, de kern van Microsoft Copilot, genereert vervolgens het uiteindelijke antwoord op basis van enorme hoeveelheden data. Het LLM van Microsoft Copilot is gebaseerd op OpenAI's GPT-4, maar de gegevens worden opgeslagen bij Microsoft Azure en de prompts worden niet gebruikt voor het trainen van het LLM. De prompts worden enkel gebruikt voor lokale data-analyse binnen de 365 Enterprise-omgeving en worden niet extern gedeeld.

Na het formuleren van een antwoord door het LLM, wordt dit antwoord nogmaals naar Microsoft Graph gestuurd voor een laatste ethische en inhoudelijke controle. Zowel het antwoord van het LLM als de gebruikte gegevens worden vervolgens opgeslagen in Microsoft Graph.  

Interne en externe beveiligingsrisico's

Hoewel Microsoft Copilot een krachtig hulpmiddel is voor het snel genereren en analyseren van informatie, brengt het ook privacyrisico's met zich mee. Microsoft heeft verschillende maatregelen getroffen om de privacy van gebruikers te beschermen. Zo controleert Copilot of mogelijke toegangsbeperkingen de gebruiker beletten om antwoorden te verkrijgen van het taalmodel.

zijn er praktische risico's, vooral omdat de implementatie van toegangsbeperkingen binnen organisaties niet altijd consistent correct verloopt. Kleine fouten kunnen grote gevolgen hebben. Stel bijvoorbeeld dat HR een map heeft aangemaakt met basisinformatie van werknemers die toegankelijk is voor alle medewerkers. Als HR per ongeluk een bestand met salarisgegevens aan deze map toevoegt, zijn deze gevoelige gegevens plotseling voor iedereen zichtbaar.

Normaal gesproken zouden dergelijke menselijke fouten niet altijd tot problemen leiden, omdat het doorzoeken van gedeelde documenten naar gevoelige informatie geen eenvoudige taak is. Copilot vermindert echter deze praktische obstakels, waardoor een kwaadwillende collega simpelweg kan vragen: "Hoeveel verdient collega X eigenlijk?" om deze informatie te verkrijgen. Dit vormt het belangrijkste interne risico.

Dit interne risico kan ook een extern risico worden. Het is bijvoorbeeld mogelijk dat ontevreden werknemers gevoelige informatie over collega's, klanten of het bedrijf opslaan op persoonlijke locaties die vatbaar zijn voor beveiligingsinbreuken, of deze informatie delen met onbevoegden buiten het bedrijf.

Om dergelijke incidenten te voorkomen, moeten werknemers worden geïnformeerd over de juiste omgang met vertrouwelijke documenten en toegangscontrolesystemen. Een helder intern beleid kan hierbij helpen, waarbij gevoelige documenten worden geïdentificeerd en extra worden beschermd. Het is van belang om te weten waar deze documenten worden opgeslagen en hoe ze worden beveiligd, evenals het opstellen van regels voor het delen van deze gegevens.

Verhoogde interne en externe risico's benadrukken ook het belang van het handhaven van hoogwaardige beveiligingssystemen op alle kantoorcomputers.

Privacyrisico's toepassingen Microsoft Copilot

Voorzichtigheid is belangrijk bij het gebruik van Copilot zelf. Bijvoorbeeld, in Microsoft Teams kan Copilot gebruikers in staat stellen informatie over een vergadering op te vragen, zelfs als ze later deelnemen of volledig afwezig waren, door middel van real-time transcriptie. Ook kan Copilot worden gebruikt om deepfakes te genereren, wat zowel leuke als potentieel problematische situaties kan creëren.

Conclusie

Hoewel Microsoft Copilot ongekende mogelijkheden biedt voor productiviteitsverhoging en innovatie op de werkplek, brengt het ook verschillende privacyrisico's met zich mee. Het is daarom van essentieel belang om goed beveiligde systemen te handhaven, strikte toegangsbeperkingen af ​​te dwingen en bewustzijn te creëren over privacyrisico's op de werkvloer. Door het opstellen van duidelijke richtlijnen en het gebruik van verantwoordelijke toepassingen zoals Copilot Studio, kan uw organisatie op een privacyvriendelijke manier profiteren van de mogelijkheden van Microsoft Copilot.

Deel dit artikel