Data og fortrolighed
Hvilke data må forlade EU, og hvordan sikrer I adskillelse, pseudonymisering og kontrollerede flows?
Beslutningsguide
Valget handler om datakontrol, compliance, drift og totaløkonomi frem for abstrakt modelkvalitet. Cloud giver ofte hurtig adgang via API eller SaaS, mens on-premise og selvhostet runtime giver tættere kontrol over dataflow, logging og opdateringer.
Definitioner
Med lokal AI mener vi typisk, at inferens (og ofte finjustering) kører i jeres eget miljø: on-premise i datacenter eller i en selvvalgt privat cloud med klare grænser for, hvor data må befinde sig. Det kan være en privat AI løsning med egne servere og GPU-kapacitet, eller en containeriseret runtime, I selv patcher og overvåger.
Cloud AI dækker SaaS med færdige brugerflader og sky-API'er, hvor en udbyder hoster modellen og skalerer kapaciteten. I betaler ofte pr. brug, abonnement eller tokens og får kort time-to-value, men også afhængighed af udbyderens roadmap, subprocessorer og datahåndtering.
Når I sammenligner on-premise AI vs SaaS AI, er kernen ikke kun modellens rå kvalitet, men om data må forlade jeres kontrollerede miljø, og hvordan I kan dokumentere det overfor ledelse, kunder og myndigheder.
Et praktisk scan af de dimensioner, der typisk afgør om data må ud af huset, og hvad det koster at holde kontrollen.
Hvilke data må forlade EU, og hvordan sikrer I adskillelse, pseudonymisering og kontrollerede flows?
Krav fra kunder, sektor og intern politik til dokumentation, revision og databehandleraftaler skal kunne efterprøves.
GPU, licenser og dedikerede folk kontra løbende API-forbrug, integration og løbende kvalitetssikring.
Hvem patcher runtime og modeller, og hvor låst bliver I af API'er, kontrakter og integrationslag?
Tre mønstre I ofte ser, når generativ AI skal ind i forretningskritiske flows uden ad hoc-brug uden logning.
Applikationer kalder en cloud-API med prompts og får svar tilbage. Det er fleksibelt og skalerbart, men kræver klare regler for, hvilke data der må sendes, og hvordan I håndterer inferens latency og kapacitet i spidsbelastning.
Modellen kører på jeres hardware eller hos en udvalgt partner med fast aftalt dataresidency. I får mere kontrol og forudsigelig performance internt, men I påtager jer patchning, overvågning og ofte højere kapitalomkostninger. Læs mere om ejerskab og hosting på siden om selvhostet runtime.
Følsomme flows forbliver lokale, mens mindre kritiske opgaver sendes til skyen. Det kræver konsekvent dataklassifikation, netværkssegmentering og politik for, hvilke prompts og bilag der må forlade miljøet.
Et ChatGPT alternativ virksomhed behøver ikke være ét produkt: det kan være en arkitektur, hvor generativ AI integreres i egne systemer med kontrollerede udgange frem for ad hoc-brug i forbruger-værktøjer uden logning og godkendelse.
Lokal drift er ikke automatisk mere sikkert end sky: det afhænger af patchning, segmentering, adgangskontrol og disciplineret vedligehold af modeller og afhængigheder.
Brug en fælles beslutningsmatrix, så I ikke vælger arkitektur ud fra modellens demo-kvalitet alene.
Start smalt med tydelige succeskriterier og en politik for hvornår sky er acceptabel, og hvornår sager skal køre lokalt.
Matrix og compliance
Valget styres næsten altid af en matrix af krav. Her er et kompas til jeres facilitering:
| Dimension | Typiske spørgsmål I bør afklare |
|---|---|
| Data og fortrolighed | Må tekst, bilag eller logdata forlade EU? Kræves pseudonymisering eller streng adskillelse? |
| Compliance | Hvilke krav stiller kunder, sektor og intern politik til dokumentation, revision og databehandleraftaler? |
| Omkostninger og TCO | Hvad koster GPU, licenser og dedikerede folk kontra løbende API-forbrug og integrationsarbejde? |
| Drift og sikkerhed | Hvem patcher modeller og runtime? Hvordan håndteres adgang, nøgler og incident response? |
| Leverandør og låsning | Hvor stort er risikoen for vendor lock-in ved sky-API, og kan I skifte model eller udbyder uden at omskrive hele platformen? |
AI hosting sikkerhed er sjældent enten-eller: skyen kan være stærk på identitetsstyring og logning, mens lokal drift giver kontrol over fysiske grænser og intern trafik. Det afgørende er, om kontrollerne matcher den data, I faktisk behandler.
En anden misforståelse er, at ingen data til tredjepart er et entydigt check. Ofte findes der subprocessorer, analyseværktøjer og supportflows, som juridisk set stadig berører data. Data residency og AI løser ikke alt, hvis administration og nøgler stadig åbner for bred adgang.
Endelig undervurderer mange skjulte omkostninger: integration til CRM, dokumenthåndtering og sagsystemer, samt behovet for MLOps, kvalitetssikring af svar og løbende evaluering. Her kan en ren API-løsning føles billig i starten, men blive dyr, når volumen og krav til stabilitet vokser.
Start med en snæver pilot med tydelige succeskriterier: hvad må modellen hjælpe med, hvilke datasæt er tilladt, og hvordan eskaleres fejl? Opsæt logging, godkendelsesflows og en politik for, hvornår cloud er acceptabel, og hvornår sager skal køre lokalt.
Kobl beslutningen til jeres eksisterende vidensbase uden at duplikere dybden: modelvalg og runtime-detaljer hører naturligt til sider om lokale AI modeller, mens køb og infrastruktur til implementering typisk samles på lokal AI infrastruktur. Denne artikel fungerer bedst som beslutningslag: et overblik over lokal AI vs cloud AI, mens specialiserede sider bærer primære søgeord og produktfokus.
Når I er klar til at lande piloten i en konkret plan og prioritering, er næste naturlige skridt at læse mere om fra strategi til pilot.
Beslut hvilke flows der er følsomme, hvilke bilag der må forlade miljøet, og hvilke opgaver der kan løses generelt i skyen.
Match latency, kapacitet og kontrol til jeres trusselsmodel. Hybrid kræver segmentering og konsekvent politik på tværs.
Sørg for sporbarhed, nøglehåndtering og klare eskalationsveje, så drift og sikkerhed kan dokumenteres.
Når volumen stiger, stiger integrations- og kvalitetskrav typisk også. Revisit vendor lock-in og omkostninger tidligt.
Fem felter teams ofte glemmer at holde synkroniseret, når AI flyttes fra demo til produktion.
Hvis I ikke kan forklare hvor data lander, og hvem der kan læse med, bliver compliance og kundeforhold svære uanset valg af lokal eller cloud.
Kontrakter, subprocessorer og evidens for kontroller skal kunne stå en revision for uden huller i kæden.
Latency i spidsbelastning og patch-rytme er ofte det, der vælter en ellers god arkitektur.
Regn integration, fejlretning og kvalitetssikring med fra dag ét.
Kan I skifte model eller udbyder uden at omskrive hele platformen?
Et typisk forløb for teams, der vil undgå både analyseparalyse og usikker shadow-AI.
Vælg 1-2 use cases, definer tilladte datasæt, og beslut om cloud er acceptabel for netop disse flows.
Kør med logging og godkendelsesflows. Mål kvalitet, fejl og omkostninger før I skalerer.
Stram politikker for prompt og bilag, og planlæg patchning, nøgler og hændelseshåndtering som fast drift.
Juster fordelingen mellem lokalt og sky når krav, volumen og leverandørlandskabet ændrer sig.
Korte svar til de spørgsmål, der typisk kommer op i workshop og sikkerhedsgennemgang.
Brug disse sider som specialiseret dybde og lad denne URL forblive et sammenlignings- og beslutningslag.
Modelvalg og inferens tæt på egne systemer, når kontrol og dataflow er i centrum.
Ejerskab, hosting, kapacitet og TCO når runtime skal ligge hos jer eller en udvalgt partner.
Regulatorisk retning og dokumentationskrav der påvirker jeres AI-indførsel og governance.
Persondata, databehandlerkæder og kontroller under AI og GDPR i praksis.
Fra retning og prioritering til pilot der kan forankres i organisationen.
Korte guides og beslutningsmønstre til danske virksomheder. Ingen støj, kun det der hjælper jer videre.
Vi behandler din mail ansvarligt. Afmeld når som helst.