EU:s AI-lag 2026: Vad CTO:er och produktteam måste ändra på innan de börjar använda AI i Europa

22 april 2026

Under de senaste två åren har de flesta samtal om EU:s AI-lag till stor del hållits mellan jurister, compliance-chefer och policyspecialister. Den 2 augusti 2026 kommer detta att förändras på ett mycket mer praktiskt sätt för produkt-, teknik- och plattformsteam.

Det är då som de flesta av AI-lagens regler börjar tillämpas, inklusive ramverket för högrisk-AI-system enligt bilaga III och transparensskyldigheterna enligt artikel 50 för vissa AI-system och AI-genererat innehåll. Lagen trädde i kraft den 1 augusti 2024. Reglerna om förbjudna AI-metoder och AI-kunskap har tillämpats sedan den 2 februari 2025 och skyldigheterna för AI-modeller för allmänt bruk har tillämpats sedan den 2 augusti 2025. Vissa skyldigheter för högrisk-AI som ingår i reglerade produkter gäller senare, den 2 augusti 2027.

Det här är inte ännu en översikt över efterlevnad. Det är en praktisk guide för de team som designar, bygger, integrerar och levererar AI-system: vad som ska granskas i arkitekturen, produktflödena, loggningen, dokumentationen, leverantörsberoendena och de operativa kontrollerna innan AI används i Europa.

Varför detta är viktigt för CTO:er och produktteam - inte bara för juridik och compliance

EU:s AI-akt är uppbyggd som en produktsäkerhetslagstiftning som tillämpas på AI. De skyldigheter som åläggs är inte i första hand dokumentationsövningar eller policyuttalanden. De är tekniska krav.

För AI-system med hög risk kräver lagen att automatisk händelseloggning byggs in i systemet från grunden. Den kräver mänskliga övervakningsmekanismer som inte är tilläggsfunktioner. Det krävs teknisk dokumentation som upprätthålls under systemets hela livscykel. Det krävs att bedömningar av överensstämmelse genomförs innan systemet släpps ut på marknaden. Det här är inte saker som ett juridiskt team kan ta fram i efterhand. Det är saker som ingenjörsteam måste utforma, bygga och underhålla.

De brister i efterlevnaden som uppstår till följd av 2026 års tillämpning kommer inte att komma från team som utarbetade ofullständig dokumentation. De kommer att komma från team som aldrig klassificerade sina system, som levererade utan styrningsgrindar i sin utvecklingsprocess och som behandlade tredje part AI-integrationer som mjukvaruberoenden snarare än reglerade AI-komponenter.

Produktteam är på samma sätt exponerade. Öppenhetsskyldigheter enligt artikel 50 kräver att användarna informeras när de interagerar med AI. Om ditt system genererar innehåll, manipulerar media eller fattar beslut som påverkar användarna kan dina produktflöden behöva ändras. Beröringspunkter för samtycke, informationsmekanismer, reservvägar och mänskliga eskaleringsvägar är frågor som rör produktdesign - och de behöver besvaras före driftsättning.

Slutsatsen: Efterlevnaden av EU:s AI-lag 2026 är först och främst ett produkt-, teknik- och upphandlingsproblem. Juridisk granskning är en del av processen, men den kan inte ersätta designbeslut som borde ha fattats i samband med sprintplaneringen.

Vad tidsfristen i augusti 2026 faktiskt innebär

Lagen har rullats ut i faser sedan den trädde i kraft i augusti 2024. Här är hur saker och ting står:

Datum Vad gäller
Februari 2025 Förbjudna AI-metoder (artikel 5) och skyldigheter avseende AI-kunskap
Augusti 2025 Skyldigheter enligt GPAI-modellen och krav på infrastruktur för styrning
augusti 2026 Majoriteten av återstående regler - inklusive AI med hög risk (bilaga III), transparens enligt artikel 50, nationell verkställighet
augusti 2027 AI med hög risk inbäddad i reglerade produkter (medicintekniska produkter, maskiner etc.)

EU-kommissionen föreslog ett “Digital Omnibus”-paket i slutet av 2025 som skulle kunna förlänga vissa högriskfrister med upp till 16 månader, förutsatt att harmoniserade standarder finns tillgängliga. Detta förslag har inte bekräftats som lag. Försiktig planering behandlar augusti 2026 som den bindande tidsfristen.

Lagen gäller extraterritoriellt. Precis som GDPR följer den räckvidden för ditt systems utgångar, inte ditt företags registreringsadress. Om ditt AI-system används i EU eller påverkar EU-invånare gäller lagen - oavsett om du bygger i London, Austin eller Dubai.

Förstå din roll i AI-leverantörskedjan

En av de operationellt viktigaste - och mest underskattade - aspekterna av lagen är att dina skyldigheter beror på din roll, och inte bara din teknik.

I lagen görs åtskillnad mellan:

  • Leverantörer - enheter som bygger eller beställer ett AI-system och släpper ut det på EU-marknaden i eget namn
  • Distributörer - enheter som använder ett AI-system i ett professionellt sammanhang

Ett SaaS-företag som bygger ett AI-drivet rekryteringsverktyg och säljer det till europeiska företag är ett leverantör. Ett företag som integrerar detta verktyg i sitt HR-arbetsflöde är en Distributör. Båda har olika skyldigheter.

Denna skillnad är mycket viktig när AI från tredje part ska integreras:

  • Om du bäddar in en tredjepartsmodell (via API) i en produkt som du levererar till europeiska kunder, kan du ta på dig skyldigheter på leverantörsnivå för systemet nedströms - även om du inte har utbildat den underliggande modellen.
  • Om du finjusterar, anpassar eller väsentligen ändrar en tredjepartsmodell förändras din efterlevnadsposition.
  • Om du använder en GPAI-modell som en LLM via API har modellleverantören separata GPAI-skyldigheter - men det system du bygger ovanpå det är ditt ansvar att klassificera och styra.

I praktiken är det många produktteam som samtidigt leverantörer för de system de bygger och Distributörer av GPAI-kapacitet som de integrerar. Båda uppsättningarna av skyldigheter kan gälla.

Riskklassificering: Den fråga du måste besvara först

Lagens skyldigheter ökar med risken. Innan något annat - innan dokumentation, innan loggningsinfrastruktur, innan produktdesign - måste du klassificera dina AI-system.

Risknivå Vad den omfattar Förpliktelsenivå
Oacceptabelt Subliminal manipulation, social poängsättning, biometrisk övervakning i realtid Förbjudet (sedan februari 2025)
Hög risk Rekryteringsscreening, kreditbedömning, kritisk infrastruktur, biometrisk kategorisering, utbildningsbedömning Fullständiga efterlevnadskrav
Begränsad risk Chatbots, AI-genererat innehåll Endast krav på transparens
Minimal risk Spamfilter, AI-spel Inga obligatoriska skyldigheter

Den kritiska beslutspunkten för de flesta ingenjörsteam är huruvida ett system faller under Bilaga III hög risk. Kommissionen var enligt lag skyldig att offentliggöra riktlinjer om artikel 6-klassificering senast i februari 2026 och missade den tidsfristen. Slutlig vägledning förväntas under de kommande månaderna. Om du är osäker på om ditt system kvalificerar sig är avsaknaden av officiell vägledning inte ett skäl att vänta - det är ett skäl att göra din egen dokumenterade bedömning och bygga mot den högre standarden.

Vad teknikteam behöver granska före driftsättning

Om ditt system klassificeras som högrisk är de tekniska konsekvenserna betydande. Det är här som teamen vanligtvis hittar de största luckorna.

Loggning och granskningsbarhet

Artikel 12 kräver att AI-system med hög risk tekniskt möjliggör automatisk registrering av händelser under systemets livstid. “Automatisk” innebär att systemet genererar loggar på egen hand - manuell dokumentation uppfyller inte detta krav. “Livslängd” innebär från driftsättning till avveckling, inte bara den aktuella versionen.

Loggarna måste omfatta följande: situationer där systemet kan utgöra en risk eller genomgå en väsentlig ändring, uppgifter för övervakning efter utsläppandet på marknaden och uppgifter för driftövervakning av installatören. Enligt artikel 18 ska loggarna bevaras i minst sex månader.

De flesta loggningspipelines fångar upp utdata men inte beslutslogik. Det är i det gapet som efterlevnaden riskerar att äventyras.

I praktiken bör teamen granska:

  • Om loggar registrerar inmatningar, utmatningar, mellanliggande beslutssteg, tidsstämplar och operatörsinteraktioner
  • Huruvida agenternas arbetsflöden i flera steg spåras från början till slut
  • Om loggar lagras på ett sätt som visar att de inte har manipulerats

Teknisk dokumentation

För högrisk-system anges i bilaga IV nio kategorier av obligatorisk teknisk dokumentation som måste utarbetas innan systemet släpps ut på marknaden och som ska bevaras under systemets hela livscykel - inklusive systemarkitektur, utbildningsmetodik, prestandamätvärden, kända begränsningar och riskhanteringsdokumentation. Enligt artikel 18 ska denna dokumentation bevaras under 10 år.

I praktiken bör teamen granska:

  • Om dokumentationen är versionerad tillsammans med modellversionerna
  • Om den täcker prestanda på representativa dataset inklusive gränsfall
  • Om den är strukturerad så att en tillsynsmyndighet kan bedöma efterlevnaden utan att behöva göra en omvänd konstruktion av modellen

Modellens ursprung och tredjepartsberoenden

Om ditt system är beroende av en grundmodell från tredje part måste du förstå vilken dokumentation som leverantören tillhandahåller och var dina skyldigheter börjar. När du bygger en applikation ovanpå en GPAI-modell och distribuerar den i ett högriskkontext, faller leverantörens skyldigheter på applikationsnivå på Du.

I praktiken bör teamen granska:

  • Den dokumentation om AI-styrning som tillhandahålls av varje tredjepartsleverantör av modeller
  • De avtalsmässiga gränserna kring ansvar
  • Huruvida ditt användningsfall ligger inom ramen för vad modellleverantören dokumenterat

Mänskliga övervakningsmekanismer

AI-system med hög risk måste utformas så att de kan övervakas av människor. Detta är en krav på arkitektur, inte en processförklaring. Systemet måste kunna pausas, åsidosättas eller flaggas av en mänsklig operatör.

I praktiken bör teamen granska:

  • Om ditt system har konfigurerbara konfidensgränser som utlöser mänsklig granskning
  • Om åsidosättningsvägar finns i användargränssnittet och i backend
  • Huruvida mänskliga övervakningsinterventioner loggas

Åtkomstkontroll och rollbaserat ansvarstagande

Lagen kräver underförstått att du kan identifiera vem som fattade beslut, modifierade systemet eller godkände driftsättningar. Shadow AI - anställda som använder externa AI-verktyg som påverkar produktionsdata utan central insyn - skapar en exponering för efterlevnad som de flesta teknikteam inte mäter för närvarande.

I praktiken bör teamen granska:

  • Om alla AI-komponenter i din produktionsstack inventeras centralt
  • Om rollbaserade åtkomstkontroller styr vem som kan distribuera, modifiera eller inaktivera AI-komponenter
  • Om er incidenthanteringsprocess specifikt omfattar AI-systemfel

Vad produktteam behöver granska före driftsättning

Öppenhet och information

Transparensskyldigheter enligt artikel 50 gäller för vissa AI-system, inklusive vissa interaktiva AI-system, system för syntetiskt innehåll, system för igenkänning av känslor/biometrisk kategorisering och vissa deepfake-relaterade användningar - inte bara högrisk - från och med augusti 2026. Om din produkt interagerar med användare genom ett konversationsgränssnitt, genererar innehåll eller fattar synliga beslut som påverkar användarna kan du behöva informera om att AI är inblandat.

I praktiken bör teamen granska:

  • Huruvida AI-genererat innehåll identifieras som sådant i gränssnittet
  • Huruvida användarna informeras när de interagerar med en chatbot eller AI-assistent
  • Om kontaktpunkterna för information är synliga och tydliga - inte begravda i tjänstevillkoren

Mänsklig eskalering och reservvägar

För system med hög risk behöver användarna en väg att eskalera till en människa när AI-systemet fattar ett beslut som påverkar dem. Detta är inte valfritt.

I praktiken bör teamen granska:

  • Om varje AI-drivet beslut som kan påverka en användare har en motsvarande eskalering eller granskningsväg
  • Huruvida reservvägar fungerar när AI-komponenten inte är tillgänglig
  • Om reservlösningen är dokumenterad som en del av systemets operativa krav

Samtycke och datapraxis

För team som använder AI som behandlar personuppgifter överlappar skyldigheterna enligt GDPR och AI-lagen varandra i hög grad. Automatiserat beslutsfattande, laglig grund för utbildningsdata och den registrerades rättigheter gäller samtidigt.

I praktiken bör teamen granska:

  • Huruvida samtyckesflödena är anpassade till hur AI-komponenten behandlar data
  • Huruvida registrerade kan utöva rättigheter (åtkomst, radering, invändning) som sprids genom din AI-pipeline
  • Huruvida ditt system kan hantera återkallande av samtycke utan att lämna inaktuella utbildningsdata i produktionen

En praktisk checklista för CTO:s och produktteams beredskap

Denna checklista återspeglar praktiska rekommendationer baserade på lagens krav, inte etablerad juridisk tolkning. Använd den som en utgångspunkt för intern bedömning, inte som en ersättning för formell juridisk granskning.

Inventering och klassificering av system

  • [ ] Alla AI-komponenter i produktion och i färdplanen har inventerats
  • [ ] Varje system har en dokumenterad bedömning av risknivån
  • [ ] System nära territorium som omfattas av bilaga III har bedömts mot specifika kriterier för användningsfall
  • [ ] AI-integreringar från tredje part har identifierats och deras efterlevnad har granskats
  • [ ] Rollfördelningen mellan leverantör och distributör har fastställts för varje AI-komponent

Teknik och arkitektur

  • [ ] Loggningsinfrastrukturen registrerar inmatningar, utmatningar, beslutssteg, tidsstämplar och operatörsåtgärder
  • [ ] Loggarna sparas i minst sex månader och förvaras på ett sätt som gör att de inte kan manipuleras
  • [ ] Teknisk dokumentation finns för varje system och versioneras i enlighet med modellversionerna
  • [ ] Mekanismer för mänskligt åsidosättande är inbyggda i systemarkitekturen
  • [ ] Rollbaserade åtkomstkontroller styr vem som kan distribuera, modifiera eller inaktivera AI-komponenter
  • [ ] Modellens ursprung och dokumentation från tredje part granskas och lagras
  • [ ] Processen för hantering av incidenter omfattar fel i AI-system och negativa resultat

Produkt och UX

  • [ ] Kontaktpunkter för offentliggörande finns på plats där lagen kräver öppenhet
  • [ ] Det finns mänskliga eskaleringsvägar för AI-drivna beslut som påverkar användarna
  • [ ] Reservflöden fungerar när AI-komponenten inte är tillgänglig
  • [ ] Samtyckesflödena överensstämmer med AI:s databehandlingspraxis
  • [ ] Produktdokumentationen omfattar AI-komponenternas kapacitet, begränsningar och avsedda användning

Styrning och process

  • [ ] Det finns en namngiven ägare för AI-efterlevnad i din organisation
  • [ ] AI-styrning är integrerad i utvecklingsprocessen och behandlas inte som en juridisk granskning i slutskedet
  • [ ] Plan för övervakning efter utsläppande på marknaden finns för högrisk-system
  • [ ] Bedömning av överensstämmelse har genomförts (eller planerats) för högrisk-system
  • [ ] Registrering i EU-databas planeras för tillämpliga högrisk-system

Kopplingen mellan arkitektur och styrning

Det finns ett mönster som är värt att lyfta fram: de team som är mest utsatta för efterlevnadsrisker enligt EU:s AI-lag är inte nödvändigtvis de som bygger den mest sofistikerade AI:n. Det är de som agerade snabbt, integrerade AI-funktioner på ett opportunistiskt sätt och aldrig byggde den underliggande arkitekturen för att stödja observerbarhet, spårbarhet och styrning på systemnivå.

Loggningsinfrastruktur som producerar bevis av revisionskvalitet. Pipelines för modellorkestrering med spårbara beslutsvägar. Dokumentationsramverk som följer med systemet genom hela dess livscykel. Krokar för mänsklig tillsyn inbyggda i kärnflödet. Det här är inte efterlevnadsfunktioner - det är god teknisk praxis som tillämpas på AI-system. Lagen kodifierar i många avseenden vad produktionsklassade Utbyggnad av AI bör se ut som.

Team som investerat i plattformsdisciplin kommer att upptäcka att förberedelserna för efterlevnad till stor del är en dokumentations- och bedömningsövning, inte en ombyggnad. Team som inte gjorde det kommer att möta en svårare väg.

Detta är den väsentliga skillnaden mellan experimenterar med AI och Utnyttja AI. Experimenterande är till sin natur lågt ställt. Produktionsutbyggnad på reglerade marknader innebär att varje komponent i systemet har en ägare, ett syfte, en gräns och en verifieringskedja.

Frågor att ställa innan man börjar använda AI i Europa

Detta är praktiska rekommendationer, inte en slutgiltig juridisk checklista.

  1. Har vi klassificerat det här systemet? Är det en hög risk enligt bilaga III? Har vi dokumenterat vår bedömning?
  2. Är vi den som levererar, den som distribuerar eller både och? Förstår vi våra skyldigheter i varje roll?
  3. Vilken AI från tredje part är detta system beroende av? Var slutar deras ansvar och var börjar vårt?
  4. Kan vi rekonstruera vad systemet gjorde och varför? Producerar vår infrastruktur för loggning bevis som skulle tillfredsställa en revisor?
  5. Om det här systemet fattar ett beslut som påverkar en användare, vad händer då? Finns det en mänsklig eskaleringsväg? Fungerar den?
  6. Upplyser vår produkt om AI:s medverkan där så krävs? Återspeglas transparensskyldigheterna i användargränssnittet, inte bara i sekretesspolicyn?
  7. Har vi genomfört en DPIA eller FRIA? För högrisk-system som hanterar personuppgifter kan båda krävas.
  8. Är vår tekniska dokumentation aktuell och versionshanterad? Skulle en tillsynsmyndighet kunna bedöma efterlevnaden utifrån detta?
  9. Innehåller vår utvecklingsprocess en styrande gateway för AI-implementering? Eller är efterlevnad fortfarande en eftertanke vid lanseringen?

Har vi en plan för övervakning efter marknadsintroduktion? Vad utlöser en granskning eller en incidentrapport?

Vanliga misstag som företag gör

Behandla efterlevnad som en juridisk granskning i slutskedet. De krav som lagen ställer - loggning, dokumentation, mänsklig tillsyn, öppenhet - är designbeslut. De kan inte eftermonteras i en levererad produkt utan betydande omarbetning.

Ignorering av tredje parts modellförpliktelser. Integrering av en LLM via API överför inte ditt efterlevnadsansvar till modellleverantören. Om du bygger en produkt ovanpå en GPAI-modell och distribuerar den i ett högriskkontext, sitter högriskleverantörens skyldigheter med dig.

AI-kompetens och AI-styrning blandas ihop. Att veta vad lagen säger är inte detsamma som att ha infrastrukturen för att visa att man följer den. Dokumentation, loggning, övervakningsmekanismer och bedömningar av överensstämmelse är operativa prestationer, inte politiska ställningstaganden.

Väntar på förlängningen av Digital Omnibus. Förslaget finns. Det kan gå igenom. Men det har inte bekräftats som lag, och det eliminerar inte de underliggande efterlevnadsskyldigheterna - det justerar bara potentiellt tidslinjen för specifika kategorier i bilaga III.

Tillämpa GDPR-logiken och anta att den är tillräcklig. Ramverken överlappar varandra men är inte identiska. AI-lagen lägger till specifika krav - loggning, teknisk dokumentation, mänsklig tillsyn, bedömning av överensstämmelse - som GDPR inte täcker.

Hur en teknikledd implementeringspartner kan hjälpa till

Att gå från AI-experiment till produktionsklar driftsättning på reglerade marknader är en teknisk utmaning, inte bara en övning i att kontrollera efterlevnaden. Arbetet är konkret: bygga upp en infrastruktur för loggning som producerar bevis av revisionskvalitet, utforma mekanismer för mänsklig tillsyn som fungerar på arkitekturnivå, upprätta ramverk för dokumentation som följer med systemet genom hela dess livscykel, granska modellorkestrering pipelines för spårbarhet, bedömning av tredjepartsberoenden och integrering av styrningsgrindar i utvecklingsarbetsflöden.

På Carmatec har vi arbetat med detta tillsammans med våra kunder inom AI-integration, plattformsteknik, och affärssystem. Vi har byggt RAG rörledningar, genomfördes AI-driven automatisering, och hjälpt företag att gå från proof-of-concept till produktion. De infrastrukturkrav som följer med efterlevnaden av EU:s AI Act är inte en ny kategori av arbete - det är så här produktionsanpassad AI-distribution ser ut när den görs på rätt sätt.

Om ditt team bygger AI-system för den europeiska marknaden och arbetar med beredskapsfrågorna ovan är vi väl positionerade för att hjälpa dig att bedöma var du befinner dig, identifiera vad som behöver förändras och bygga upp distribuerbara system med en arkitektur som stöder efterlevnad.

FAQ

Gäller EU:s AI-lag för mitt företag om vi är baserade utanför EU?

Lagen gäller extraterritoriellt. Om ditt AI-system används inom EU eller om dess resultat påverkar personer som är bosatta inom EU, gäller lagen - oavsett var ditt företag är registrerat eller var modellen finns. Detta speglar GDPR:s territoriella modell.

Vad räknas som ett AI-system med hög risk enligt EU:s AI-lag?

System med hög risk förtecknas i bilaga III och omfattar specifika användningsområden, t.ex. rekrytering och CV-granskning, kreditbedömning, hantering av kritisk infrastruktur, biometrisk kategorisering och verktyg för utbildningsbedömning. Om ditt system faller inom eller i närheten av dessa kategorier bör du genomföra en dokumenterad riskklassificeringsövning.

Om vi använder en LLM från tredje part via API, har vi då skyldigheter att följa reglerna?

Ja. Om du bygger en applikation ovanpå en GPAI-modell och distribuerar den i ett högriskkontext, är högriskleverantörens skyldigheter dina. Modellleverantörens efterlevnad ersätter inte din som applikationsbyggare.

Vad är bötesbeloppet för bristande efterlevnad?

För högrisköverträdelser av AI-system kan sanktionerna uppgå till 15 miljoner euro eller 3% av den globala årsomsättningen - beroende på vilket som är högst. För förbjudna AI-metoder är taket 35 miljoner euro eller 7% av den globala årsomsättningen. GDPR-exponering för automatiserat beslutsfattande kan tillkomma utöver dessa belopp.

Digital Omnibus-förslaget kan försena vissa tidsfrister. Bör vi vänta?

Förslaget har inte bekräftats som lag, och även om det går igenom justerar det bara potentiellt tidslinjen för specifika kategorier i bilaga III - det eliminerar inte de underliggande skyldigheterna. Att planera för tidsfristen i augusti 2026 är det klokaste tillvägagångssättet.

Gäller lagen för interna AI-verktyg, inte bara för produkter som riktar sig till kunder?

Det beror på användningsfallet. Interna AI-verktyg som fattar beslut som påverkar arbetstagare - utvärdering av prestationer, fördelning av arbetsuppgifter, övervakning av arbetsplatsen - kan omfattas av högriskkategorier i bilaga III och motivera en granskning av klassificeringen.

Slutsats

EU:s AI-lag är inte en framtida efterlevnadsbörda. Det är ett aktuellt tekniskt krav med ett tillämpningsdatum den 2 augusti 2026.

De organisationer som kommer att navigera mest effektivt är de som behandlar den som vad den faktiskt är: en produktsäkerhetsbestämmelse som kräver samma tekniska noggrannhet som alla produktionssystem förtjänar. Systemklassificering, loggning av revisionsklass, versionshanterad dokumentation, arkitektur för mänsklig övervakning, transparenta produktflöden och styrning som är integrerad i utvecklingsprocessen - det här är byggstenarna för en kompatibel AI-distribution. Det är också, inte helt oväntat, byggstenarna i AI-system som är tillförlitliga, underhållbara och trovärdiga i produktion.

Om ditt team för närvarande håller på att implementera AI-funktioner i Europa och ännu inte har genomfört en systematisk klassificering, granskat din infrastruktur för loggning eller utvärderat dina modellberoenden från tredje part - är det dags att börja nu.

Om Carmatec

Carmatec har byggt mjukvaruplattformar i 23 år. Vi arbetar med teknikledda företag i Storbritannien, Europa, Nordamerika, Mellanöstern och Indien för att ta AI från experiment till produktionsklar implementering - med den arkitektur, observerbarhet och leveransdisciplin som produktionssystem kräver.

Om du förbereder AI-system för utrullning i Europa och behöver en teknikledd partner som hjälper dig att bedöma beredskapen, granska arkitekturen och bygga upp en leverans som uppfyller kraven - prata med vårt team.