Kwaliteit & controle: de mens blijft de baas
Copilot is een fantastische assistent, maar het is en blijft een machine. Als stadsbestuur communiceren we met en voor onze inwoners. Dat betekent dat de lat voor kwaliteit, inclusiviteit en feitelijke juistheid enorm hoog ligt.
De gouden regel is simpel: Copilot maakt de eerste versie, jij maakt de eindversie.
1. Pas op voor hallucinaties (check de feiten!)
Zoals we in Fase 1 al zagen, kan AI 'hallucineren'. Als Copilot een antwoord niet weet, zal het soms zelf iets logisch proberen te verzinnen. * Controleer data, jaartallen en budgetten áltijd dubbel. * Check of de regelgeving of het decreet dat Copilot noemt, daadwerkelijk bestaat en actueel is. * Jij bent verantwoordelijk voor de inhoud, niet de tool.
2. Klopt de toon van de stad?
Copilot kan soms wat formeel of "Amerikaans enthousiast" klinken. Wees kritisch op de stijl: * Klinkt dit als de stad Lier? * Is het taalgebruik niet te afstandelijk, of juist té amicaal voor een officieel document? * Is het duidelijk en respectvol geschreven?
3. Vooroordelen en bias
AI-modellen zijn getraind op enorme hoeveelheden tekst van het internet. Helaas zit dat internet vol met menselijke vooroordelen (bias). * Controleer of teksten en voorbeelden inclusief zijn. * Gaat de tekst er onterecht vanuit dat een bepaalde rol door een man of vrouw wordt uitgevoerd? * Sluit de taal geen specifieke groepen inwoners uit?
De 3-seconden check
Voordat je een door Copilot gegenereerde tekst kopieert en plakt in een e-mail of document, stel jezelf deze drie vragen: 1. Zou ik dit zelf zo geschreven kunnen hebben? 2. Staan er geen feitelijke fouten in? 3. Staan er geen vertrouwelijke persoonsgegevens in de prompt of de tekst? (Zie het volgende hoofdstuk over Privacy).
!!! tip "Voor ambassadeurs 🦸♂️: stimuleer de kritische blik" Moedig collega's aan om niet zomaar op 'Accepteren' te klikken. Leer ze om de output van Copilot te behandelen alsof het werk is van een nieuwe stagiair: met vertrouwen, maar altijd met een eindcontrole!