← Politikker

AI-politik for brug og udvikling

Fastlægger rammer for ansvarlig brug og udvikling af AI i IT Minds med fokus på data, sikkerhed, faglig integritet og gennemsigtighed.

AIEthicsGovernanceDevelopment
Sidst opdateret: 2. april 2026

Introduktion

Denne politik beskriver, hvordan IT Minds (Vi, Vores) håndterer brug af AI/LLM under udvikling. Vi ønsker at give mulighed for effektivitet, samtidig med at vi beskytter kunders IP, persondata, og produkt.

Udgangspunktet

AI er et værktøj — ikke en arbejdsmetode, og ikke en undskyldning. Vi er rådgivere og udviklere. Vores faglighed og vores omdømme hviler på kvaliteten af det vi leverer, ikke på hvilke værktøjer vi brugte til at komme dertil.

AI kan forstærke dit arbejde markant. Det kan hjælpe dig med at skrive hurtigere, tænke klarere og udforske løsninger du ellers ikke ville nå. Men det kræver, at du bruger det bevidst — og at du aldrig slipper din faglige vurdering.

Shadow AI er det reelle problem. Den største risiko ved AI er ikke at folk bruger det. Det er at folk bruger det i det skjulte — uden at kunden ved det, uden at der er taget stilling til databeskyttelse, og uden at outputtet er gennemgået kritisk. Det er den adfærd denne politik skal forhindre.


Anvendelsesområde

Denne politik gælder for alle medarbejdere, konsulenter og leverandører der bruger, konfigurerer, udvikler eller deployerer software for IT Minds eller på vegne af vores kunder.

Det gælder for AI og LLM uanset om det er et chat-interface, en IDE-integration, en agent eller et internt automatiseringssetup.


Chat-only som standard

Vores udgangspunkt er chat-only: Claude, ChatGPT eller tilsvarende chat-interfaces. Det er den sikre default, fordi du er i fuld kontrol over hvad der sendes, og fordi der ikke sker utilsigtet adgang til filer eller systemer.

Chat-only betyder konkret:

— medmindre det er eksplicit godkendt. Se næste afsnit.

Hvorfor det giver mening. Agenter opererer med guardrails på applikationsniveau, ikke procesniveau. For konsulenter der arbejder på tværs af kunder, udgør det en reel risiko for krydskontaminering af kundedata. Chat er forudsigeligt. Agenter er ikke — ikke uden ordentlig opsætning og tilsyn.


Agenter — hvornår og under hvilke betingelser

Agenter (Claude Code, Copilot med workspace-adgang, custom MCP-setups og lignende) er tilladt, men kræver eksplicit godkendelse — per projekt, ikke generelt.

Godkendelse kræver at tre ting er på plads:

Mens du bruger en agent

Forbud — uanset godkendelse

Ingen agent må automatisk og uden menneskelig godkendelse:

Interne agenter og MCP-opsætninger

Sætter du en intern agent op med datakilder eller custom workflows:


Kundens kode, data og IP

Ingen undtagelser her. Kundens kode og data må aldrig pastes ind i et AI-værktøj uden kundens eksplicitte accept. Kode skrevet i forbindelse med kundearbejde — herunder kode genereret eller valideret af AI — betragtes som kundens intellektuelle ejendom og behandles med samme fortrolighed som kundedata.

Tjek altid: har kunden en AI-politik? Hvis ja, følger du den — også hvis den er strengere end vores.

Når kunden tilbyder AI-værktøjer

Nogle kunder har egne AI-setups — Copilot i deres tenant, interne chatbots, agent-værktøjer. Det er fint. Kundens hus, kundens regler.

Men uanset hvad kunden stiller til rådighed, gælder det stadig:


Hemmeligheder og miljøvariabler

AI-udvikling — inkl. eksperimentelle opsætninger og prototyper — må ikke bruge miljøvariabler eller hemmelige nøgler uden at:

Hemmelighederne er ikke AI’ens problem — de er dit.


Det må du

AI er en del af vores værktøjskasse og brug er velkomment. Du må:

Proportionalitet. Overvej om opgaven retfærdiggør AI’s ressourcetræk. Til en hurtig syntakstjek? Fint. Til noget du kunne løse på 2 minutter selv? Brug hovedet.


Det må du ikke


Ansvar — det enkle princip

Du er ansvarlig for det du afleverer. Hvis AI skrev det, og det er forkert, er det stadig dit ansvar. AI er en assistent — ikke en undskyldning. Vi er rådgivere og udviklere, ikke prompte-maskiner. Brug AI til at forstærke din faglighed, ikke til at erstatte din forståelse.

Det gælder på tværs af alt: kodegennemgang, dokumentation, mails, arkitekturbeslutninger. Faglig dømmekraft er ikke et tilvalg.


Menneskelig godkendelse i agentic workflows

Hver handling en AI-agent foreslår eller udfører, skal godkendes af en udpeget ansvarlig inden den sker.

Skriftlig godkendelse gives af:

Det gælder for både intern udvikling og kundeleverancer.


Compliance og dokumentation

Alle AI- og agentprojekter skal dokumenteres med:

Dokumentationen skal være tilgængelig ved revision og kan bruges af juridiske og compliance-interessenter.

IT Minds’ sikkerhedsteam godkender brug af nye agent- og AI-platforme, særligt når de interagerer med datakilder, systemer eller hemmeligheder. Compliance og DPO inddrages ved behandling af persondata eller ved direkte kundeindvirkning.


Revision

Politikken revideres mindst én gang om året og ved væsentlige ændringer i teknologi, lovgivning eller forretningspraksis.

Spørgsmål? Kontakt CTO Office eller skriv til contact@it-minds.dk

Kontakt os

IT Minds A/S
CVR: 45820629
Ankersgade 12D, 8000 Aarhus C
Gammel Mønt 4 4. 1117 København K
Mandag til fredag
08.00-16.00
Email: contact@it-minds.dk
Telefon: +4571992888
Her finder du vores politikker som vi forpligter os til.