Siden ChatGPT’s lancering i november 2022 har kunstig intelligens været på alles læber. Teknologien har åbnet op for en verden af muligheder. Men er der noget, I som ledere i jeres organisation bør være opmærksomme på? Det er der naturligvis. Vi har sammenfattet det væsentligste nedenfor.
AI, særligt avancerede Large Language Models (LLM) som eksempelvis ChatGPT, BARD og T5, åbner op for ikke mindst at bidrage til øget produktivitet, kreativitet og dermed give en konkurrencemæssig fordel, hvis man er skarpere end sin konkurrent til at få det bedste ud af AI-værktøjet. Ansvarlig, sikker og effektiv anvendelse af AI kræver dog lidt omtanke.
Dansk Erhverv har derfor publiceret en række gode råd for ledere og medarbejdere i forbindelse med brugen af kunstig intelligens. Center for Cybersikkerhed har ligeledes publiceret en række betragtninger om IT-sikkerhed, der også er værd at overveje. Vi har forsøgt at sammenfatte:
- Politik for brug af AI: Vi opfordrer jer til at udarbejde en intern politik, der fastlægger retningslinjer for brugen af AI i jeres organisation. En veldefineret politik vil sikre ansvarlig anvendelse, gennemsigtighed, klare rammer for brugen og ressourceforbruget. Dette vil være afgørende for at sikre en harmonisk integration af AI i jeres arbejdsgange.
- Langsigtet forretningsstrategi: Det er væsentligt at evaluere jeres organisations langsigtede strategi og konkurrenceevne i forhold til AI. Overvej værdien af data, der anvendes til træning af modeller, og vurder fordele og ulemper ved at opbygge intern kapacitet kontra at benytte eksterne modeller.
- Lovgivning på området: Det er vigtigt løbende at holde sig opdateret om lovgivningen på området for at sikre overensstemmelse og fremtidssikre jeres forretningspraksis. Dette gælder ikke blot inden for persondataretten, men også retsområder som ophavsretten og IT-sikkerhed. Det kan nævnes, at der er en vejledning på vej fra European Data Protection Board. Her kan I til enhver tid tage fat i os ved Unitas.
- Beskyttelse af data: Vær opmærksom på, hvilke oplysninger I behandler i modellerne. Flere modeller er ikke lukkede systemer og bør derfor ikke anvendes til at behandle fortrolige eller følsomme personoplysninger eller forretningshemmeligheder. I skal således sikre privatlivets fred, sikkerheden samt beskytte forretningshemmelighederne.
- Ophavsret og immaterielle rettigheder: Vær omhyggelig med ikke at krænke andres immaterielle rettigheder, når I benytter AI-værktøjer. Undgå at bruge andres arbejde, billeder, produkter osv. uden tilladelse. I skal ligeledes være opmærksomme på, at AI-genereret materiale som udgangspunkt ikke opnår ophavsretlig beskyttelse.
- Misbrug af AI-modeller: Vær opmærksom på risikoen for misbrug af AI-modeller. Dette gælder både internt og eksternt. Det er vigtigt at have klare retningslinjer og procedurer på plads for at forhindre utilsigtet eller bevidst misbrug af AI-modeller. Dette kan omfatte adgangskontrol, sporbarhed af handlinger og løbende overvågning af systemet for at identificere potentielle misbrugsscenarier.
- Uddannelse af medarbejdere: Med den øgede brug af AI-modeller er det vigtigt at sikre, at jeres medarbejdere er korrekt uddannet og har de nødvendige færdigheder til at arbejde med disse teknologier, men også forstå risici forbundet med. Overvej workshops, der fokuserer på at øge medarbejdernes forståelse af AI samt AIs anvendelsesområder.
- IT-sikkerhed: AI-modellerne anvendes af hackere til at gøre deres angreb hyppigere og mere effektive. Modellerne kan blandt andet anvendes til at generere troværdige phishing-mails eller malware. CFCS anbefaler derfor, at alle systemer, programmer og enheder holdes opdateret, at der implementeres basale sikkerhedsforanstaltninger, at der etableres og testes en procedure for hændelseshåndtering, og at der tages backup af data og konfigurationer i særskilt miljø.
Der er mange forhold at tage højde for, og udviklingen på området går stærkt. Overordnet set kan Unitas hjælpe gennem analyse, udarbejdelse af politikker og procedurer samt rådgivning på alle de nævnte områder.
Fra et databeskyttelsesperspektiv bør I inddrage Unitas tidligt i implementeringen af AI, idet processen kan omfatte behandling af persondata, som skal kortlægges i jeres compliancesystem, herunder også udarbejdelse af DPIA (konsekvensanalyse) og TIA’er (transfer impact assessment).
Hvis I ønsker rådgivning omkring informationssikkerhed, GDPR, NIS2 m.v., er I altid velkomne til at kontakte os. Du kan læse flere gode råd til brugen af AI i artiklerne fra Dansk Erhverv og Center for Cybersikkerhed.
Referencer:
Dansk Erhverv (2023), Gode råd til virksomheders brug af kunstig intelligens: https://www.danskerhverv.dk/siteassets/mediafolder/dokumenter/09-gode-rad-om/gro_kuntig-intelligens.pdf
Center for Cybersikkerhed (2023), Temaartikel: AI og cybersikkerhed: https://www.cfcs.dk/da/temasider/ai-og-cybersikkerhed/
Sikker Digital (2020): Tiltag til at sikre brugen af kunstig intelligens: PowerPoint Presentation (sikkerdigital.dk)