Introduktion
Denne politik beskriver, hvordan IT Minds (Vi, Vores) håndterer brug af AI/LLM under udvikling. Vi ønsker at give mulighed for effektivitet, samtidig med at vi beskytter kunders IP, persondata, og produkt.
Udgangspunktet
AI er et værktøj — ikke en arbejdsmetode, og ikke en undskyldning. Vi er rådgivere og udviklere. Vores faglighed og vores omdømme hviler på kvaliteten af det vi leverer, ikke på hvilke værktøjer vi brugte til at komme dertil.
AI kan forstærke dit arbejde markant. Det kan hjælpe dig med at skrive hurtigere, tænke klarere og udforske løsninger du ellers ikke ville nå. Men det kræver, at du bruger det bevidst — og at du aldrig slipper din faglige vurdering.
Shadow AI er det reelle problem. Den største risiko ved AI er ikke at folk bruger det. Det er at folk bruger det i det skjulte — uden at kunden ved det, uden at der er taget stilling til databeskyttelse, og uden at outputtet er gennemgået kritisk. Det er den adfærd denne politik skal forhindre.
Anvendelsesområde
Denne politik gælder for alle medarbejdere, konsulenter og leverandører der bruger, konfigurerer, udvikler eller deployerer software for IT Minds eller på vegne af vores kunder.
Det gælder for AI og LLM uanset om det er et chat-interface, en IDE-integration, en agent eller et internt automatiseringssetup.
Chat-only som standard
Vores udgangspunkt er chat-only: Claude, ChatGPT eller tilsvarende chat-interfaces. Det er den sikre default, fordi du er i fuld kontrol over hvad der sendes, og fordi der ikke sker utilsigtet adgang til filer eller systemer.
Chat-only betyder konkret:
- Ingen agenter med filsystemadgang
- Ingen IDE-integrationer med workspace-adgang til kundeprojekter
- Ingen autonome workflows
— medmindre det er eksplicit godkendt. Se næste afsnit.
Hvorfor det giver mening. Agenter opererer med guardrails på applikationsniveau, ikke procesniveau. For konsulenter der arbejder på tværs af kunder, udgør det en reel risiko for krydskontaminering af kundedata. Chat er forudsigeligt. Agenter er ikke — ikke uden ordentlig opsætning og tilsyn.
Agenter — hvornår og under hvilke betingelser
Agenter (Claude Code, Copilot med workspace-adgang, custom MCP-setups og lignende) er tilladt, men kræver eksplicit godkendelse — per projekt, ikke generelt.
Godkendelse kræver at tre ting er på plads:
- Kunden er informeret og har accepteret det. Mundtligt er fint, skriftligt er bedre.
- Der er vurderet hvad agenten kan tilgå, og hvad den i princippet kan sende ud. Hvis svaret skaber usikkerhed, er det et nej.
- Der er udpeget én ansvarlig der vedligeholder opsætningen og kan stå inde for den.
Mens du bruger en agent
- Du reviewer alt. En agent der committer, pusher eller deployerer uden dit review er ikke tilladt. Du er gatekeeper — altid.
- Kontekstgrænser er dit problem. Agenter glemmer ting i store opgaver. Jo større opgaven, jo mere tjekker du output. Forkerte interfaces, ignorerede typechecks og glemt logik er klassiske symptomer.
- Aldrig direkte mod produktion. Agenter må ikke operere mod produktionsmiljøer eller produktionsdata.
- Isoleret miljø. Agenten må kun have adgang til det aktuelle projekt. Har du to kunder på samme maskine, er adskillelse dit ansvar.
Forbud — uanset godkendelse
Ingen agent må automatisk og uden menneskelig godkendelse:
- installere software eller opdateringer
- ændre i produktions- eller driftsmiljøer
- opsætte netværk, infrastruktur eller adgangsrettigheder
- tilgå interne databaser eller eksterne API’er med licensbegrænsninger
- håndtere miljøvariabler eller hemmelige nøgler
- operere mod betalingssystemer, HR-systemer eller kundekonti
- generere og sende e-mails eller beskeder til kunder automatisk
Interne agenter og MCP-opsætninger
Sætter du en intern agent op med datakilder eller custom workflows:
- Der skal være én navngiven ansvarlig — ikke “teamet”
- Agenten må ikke have bredere rettigheder end nødvendigt for dens specifikke formål
- En halvvedligeholdt agent er værre end ingen agent. Hvis der ikke er kapacitet til at vedligeholde den, lader vi være
Kundens kode, data og IP
Ingen undtagelser her. Kundens kode og data må aldrig pastes ind i et AI-værktøj uden kundens eksplicitte accept. Kode skrevet i forbindelse med kundearbejde — herunder kode genereret eller valideret af AI — betragtes som kundens intellektuelle ejendom og behandles med samme fortrolighed som kundedata.
Tjek altid: har kunden en AI-politik? Hvis ja, følger du den — også hvis den er strengere end vores.
Når kunden tilbyder AI-værktøjer
Nogle kunder har egne AI-setups — Copilot i deres tenant, interne chatbots, agent-værktøjer. Det er fint. Kundens hus, kundens regler.
Men uanset hvad kunden stiller til rådighed, gælder det stadig:
- Du reviewer alt inden det committes, sendes eller deployes
- Dit navn og IT Minds’ navn er på det du afleverer — AI-genereret eller ej
- Faglig dømmekraft er ikke valgfrit. Forstår du ikke hvad AI’en foreslår, er det ikke klar til aflevering
Hemmeligheder og miljøvariabler
AI-udvikling — inkl. eksperimentelle opsætninger og prototyper — må ikke bruge miljøvariabler eller hemmelige nøgler uden at:
- Der er en dokumenteret, sikker placering for dem
- Der er udpeget en ansvarlig for håndteringen
- Adgangen er gennemgået og godkendt inden implementering
Hemmelighederne er ikke AI’ens problem — de er dit.
Det må du
AI er en del af vores værktøjskasse og brug er velkomment. Du må:
- Bruge chat-baseret AI til syntakshjælp, boilerplate og generel sparring
- Bruge AI til at udforske løsningsmuligheder og diskutere arkitektur
- Bruge AI til tekst, mails og referater — så længe du læser og godkender output inden det sendes
- Bruge AI til idéudvikling, dokumentation, datavisualisering og kodegennemgang — uden brug af kundedata eller hemmelige oplysninger
Proportionalitet. Overvej om opgaven retfærdiggør AI’s ressourcetræk. Til en hurtig syntakstjek? Fint. Til noget du kunne løse på 2 minutter selv? Brug hovedet.
Det må du ikke
- Paste kundens kode, data eller forretningslogik ind i et AI-værktøj uden kundens accept
- Bruge agenter eller IDE-integrationer med filadgang på kundeprojekter uden godkendelse
- Sende AI-genereret output videre uden at have verificeret det
- Antage at AI-output er korrekt — du står inde for det du afleverer, uanset hvem eller hvad der skrev det
- Give AI-værktøjer adgang til filsystemet, lokale processer eller netværkskald mod IT Minds’ egne produkter, systemer og API’er på en intern IT Minds-maskine
- Omgå eksisterende sikkerhedsprocedurer eller ansvarsdelegering via AI
Ansvar — det enkle princip
Du er ansvarlig for det du afleverer. Hvis AI skrev det, og det er forkert, er det stadig dit ansvar. AI er en assistent — ikke en undskyldning. Vi er rådgivere og udviklere, ikke prompte-maskiner. Brug AI til at forstærke din faglighed, ikke til at erstatte din forståelse.
Det gælder på tværs af alt: kodegennemgang, dokumentation, mails, arkitekturbeslutninger. Faglig dømmekraft er ikke et tilvalg.
Menneskelig godkendelse i agentic workflows
Hver handling en AI-agent foreslår eller udfører, skal godkendes af en udpeget ansvarlig inden den sker.
Skriftlig godkendelse gives af:
- Projektansvarlig
- Teamleder
- Sikkerhedsansvarlig
- Complianceansvarlig
Det gælder for både intern udvikling og kundeleverancer.
Compliance og dokumentation
Alle AI- og agentprojekter skal dokumenteres med:
- Formål og afgrænsning
- Datakilder og hvad agenten har adgang til
- Sikkerhedsrestriktioner og godkendelser
- Navngiven ansvarlig
Dokumentationen skal være tilgængelig ved revision og kan bruges af juridiske og compliance-interessenter.
IT Minds’ sikkerhedsteam godkender brug af nye agent- og AI-platforme, særligt når de interagerer med datakilder, systemer eller hemmeligheder. Compliance og DPO inddrages ved behandling af persondata eller ved direkte kundeindvirkning.
Revision
Politikken revideres mindst én gang om året og ved væsentlige ændringer i teknologi, lovgivning eller forretningspraksis.
Spørgsmål? Kontakt CTO Office eller skriv til contact@it-minds.dk