Indkøb og leverandørkrav
Kriterier for valg af model, dokumentation og kontraktsmæssige kontrolpunkter bliver en del af indkøbsdesignet.
Viden
EU AI Act er en risikobaseret ramme, der binder markedskontrol, dokumentation og drift sammen. For enterprise betyder det roller, bevis, test og styring på tværs af indkøb, udvikling og drift.
Strategi og ramme
EU AI Act er en forordning, der regulerer AI-systemer med fokus på risiko, sporbarhed og ansvarlig brug frem for kun at tale om god etik. Den er ikke en erstatning for juridisk rådgivning, men den giver et fælles sprog for ledelse, produkt, sikkerhed og compliance: hvornår er et system højrisiko, hvornår skal der dokumenteres og verificeres noget konkret, og hvordan skal leverandørledet kunne efterprøves.
Strategisk er den vigtig, fordi den ændrer indkøbskriterier, arkitekturvalg og kontraktsmønstre. Når I køber modeller via API, indfører beslutningsstøtte i HR, eller bygger kundevendte assistenter, er spørgsmålet ikke kun om modellen virker, men om I kan forklare, overvåge og dokumentere brugen i overensstemmelse med risikoklassen. Det binder til budget, tempo og teknisk gæld: et compliance-setup der kommer sent, bliver ofte dyrere end et, der er designet ind fra starten.
Kort fortalt: reglerne flytter beslutninger fra principper til konkrete krav og sporbarhed i kæden.
Kriterier for valg af model, dokumentation og kontraktsmæssige kontrolpunkter bliver en del af indkøbsdesignet.
Beslutninger om API, hosting og integration skal kunne forklares og overvåges i forhold til risiko og ændringer over tid.
Compliance handler om at kunne vise hvad der er udrullet, hvordan det testes, og hvordan ændringer godkendes.
Rammen er bygget op om kategorier, der styrer pligterne. Her er et kort overblik til enterprise-arbejde.
Minimal risiko: Typisk færre formelle krav, men stadig behov for god styring og ansvarlig brug.
Begrænset risiko: Gennemsigtighed og information til brugere bliver centralt, fx når indhold kan ligne menneskeligt.
Højrisiko stiller krav om dokumentation, risikostyring, datasæt-kvalitet, overvågning, menneskelig kontrol og robusthed i det omfang forordningen foreskriver for den konkrete anvendelse.
I enterprise-projekter er det ofte kombinationen af anvendelse, teknologi og data der afgør placeringen. En intern chatbot kan ligne ét produkt i indkøb, men risikoen følger anvendelsen: samme model kan være lav risiko ét sted og høj risiko et andet, hvis den bruges til en reguleret eller kritisk funktion.
Visse praksisser er forbudt. Her gælder det om at undgå udvikling og indførelse af løsninger, der falder i de forbudte kategorier.
GPAI (generelle formålsmodeller) har særregler for bredt anvendelige modeller og for, hvordan leverandører stiller information og dokumentation til rådighed for nedstrøms aktører.
EU AI Act opererer med roller som udbyder, importør, distributør og bruger afhængigt af, hvad I faktisk gør i værdikæden.
Mange virksomheder kombinerer egen udvikling med cloud, API og tredjepartsmodeller.
Persondata og AI-systemkrav overlapper i mange leverancer.
To organisationer kan bruge samme værktøj forskelligt.
Myter og realiteter
Myte: Vi bruger kun en stor sprogmodel via API, så reglerne gælder ikke for os.
Realitet: Brug er stadig brug. GPAI-reglerne og kravene til højrisiko kan ramme afhængigt af, hvordan og hvor modellen indgår. Undgå at lægge ansvaret blindt hos leverandøren uden kontraktsmæssige og tekniske kontrolpunkter.
Myte: EU AI Act er bare GDPR 2.0.
Realitet: GDPR handler om persondata og rettigheder. AI Act handler om AI-systemer, markedskrav, risiko og dokumentation. De overlapper, men løser forskellige problemer. Behandl dem som to lag i samme program, ikke som én checkliste.
Myte: Vi laver politik og et etisk charter, så er vi compliant.
Realitet: Dokumentation uden drift og uden evidens bliver compliance-teater. I skal kunne vise sporbarhed: hvad er udrullet, hvordan testes det, hvad logges, og hvem godkender ændringer?
Myte: Compliance er et juridisk projekt, ikke et teknikprojekt.
Realitet: Uden teknik får I ikke logning, versionering, evaluering og adgangskontrol på plads. Juridisk ramme og teknisk implementering hænger sammen.
Kortlæg alle AI-brug: interne værktøjer, kundevendte flows, beslutningsstøtte og integrationer. Udgangspunktet er at koble use cases til risiko, data og kontrol.
Sæt <a href="/ai-konsulent/ai-organisationsstruktur">Roller og RACI</a> for dokumentation, godkendelse, drift og leverandørstyring. Gør det konkret pr. system og pr. leverance.
Bind vurdering til anvendelse og domæne. Beslut hvilke kontroller der skal gælde for API-brug, hosting, versionering og adgang.
Saml teknisk dokumentation, testresultater og ændringslog, så I kan forklare hvad der kører i produktion, og hvorfor det er acceptabelt i forhold til risiko.
Sæt overvågning, hændelseshåndtering og periodisk review op, så modeller og integrationer ikke ændrer risikoen uden at blive fanget.
Når rammerne er sat, bliver kvaliteten af styringen målt på sporbarhed og drift - ikke på antal slides.
Kan I vise hvad der er i drift, hvordan det testes, og hvordan ændringer godkendes?
Aftal hvornår et menneske skal træde til, og hvordan I logger og følger op.
API og cloud gør kæden lang. Dokumentation skal kunne følge med.
Samme model kan være lav risiko ét sted og høj risiko et andet.
Et typisk forløb er at flytte organisationen fra principper til konkrete kontroller og dokumentation over tid.
Kortlæg AI-brug, data og roller, og placer systemer i forhold til risikokategorier og leverandørkrav.
Beslut RACI, krav til dokumentation, og hvilke kontrolpunkter der gælder ved indkøb og ændringer.
Implementer versionering, logning, test og adgangskontrol, så drift kan understøtte compliance-kravene.
Gennemgå ændringer i modeller, integrationer og use cases, og opdater risikovurdering når noget flytter sig.
Korte svar til ledelse og teknik, baseret på artiklens hovedpointer.
Tre interne sider der supplerer denne artikel, hvis I vil dykke ned i anvendelse, hosting og GDPR-krydsfeltet.
Beslutningsmatrix når samme model kan have forskellig risiko i forskellige anvendelser og driftsmodeller.
Persondata og AI-systemkrav i praksis, når begge regimer mødes i samme leverance.
Roller, ansvar og governance, når AI skal ud i organisationen uden at miste sporbarhed.
Korte artikler til ledelse og teknik: risiko, dokumentation og drift - uden unødig jargon.
Vi behandler din e-mail efter vores privatlivspolitik. Afmeld når som helst.