
Att navigera risker och regleringar kring Artificiell Intelligens – Så följer du EU:s AI-förordning
Etisk AI-utveckling visar vägen framåt inom Europeiska unionen
Artificiell intelligens förändrar både affärsverksamheter och vårt dagliga liv, men det snabba införandet ger upphov till etiska och säkerhetsmässiga problem. EU:s AI-förordning utgör det första globala ramverket för att reglera AI, vilket tvingar organisationer att förbättra säkerheten för sina AI-modeller och AI-applikationer.
Artificiell intelligens (AI) är begreppet som diskuteras inom alla företag idag, från startups till teknikjättar - och även vid mormors middagsbord. AI, som hyllas som porten till framtiden, förändrar både branscher och vardagsliv genom att automatisera uppgifter och lösa ett brett spektrum av komplexa problem med hjälp av människoliknande intelligens och beslutsfattande.
Genom att utnyttja kraften i AI kan organisationer utveckla ledande lösningar, optimera processer och nå nya innovationshöjder på ett effektivt och kostnadsbesparande sätt. Som en återspegling av trenden under det senaste decenniet mot AI-utveckling, är det nuvarande globala marknadsvärdet för AI-teknik över 185 miljarder US-dollar – en ökning med nästan 50 miljarder jämfört med 2023 (Statista, 2024).
Men världens omfamnande av AI är inte okontroversiell. I debatter ställs ofta behovet av etisk användning och utveckling mot behovet av att upprätthålla en obehindrad anda av innovation.

EU:s AI-förordning banar väg för etisk innovation och reglering
EU har svarat på denna kontrovers genom att införa lagstiftning – den första i sitt slag – för att ta itu med de inneboende riskerna med AI-teknik och inrätta en ram för etisk AI-utveckling, samtidigt som man uppmuntrar innovation och skyddar mot de skadliga effekterna av AI-system i unionen.
EU:s lagstiftning för artificiell intelligens (AI-förordning) publicerades i Europeiska unionens officiella tidning den 12 juli 2024 och trädde i kraft den 1 augusti 2024. Syftet är att fastställa harmoniserade regler för placering, användning och tjänsteinitiering av AI-system. Det innehåller också förbud mot vissa AI-metoder och specificerar krav för AI-system med hög risk, tillsammans med skyldigheter för deras operatörer (Commission, 2024).
Förordningen harmoniserar dessutom transparensreglerna för specifika AI-system och reglerna för lansering av AI-modeller för allmänna ändamål på EU-marknaden. I lagen fastställs även regler för marknadsövervakning, tillsyn, styrning och verkställighet, samt åtgärder för att stödja innovation, särskilt bland små och medelstora företag och nystartade företag.
Den nya lagstiftningen förväntas vara fullt implementerad och i drift före den 31 december 2030. Ytterligare bestämmelser i lagen, såsom uppförandekoder för GPAI och Europeiska kommissionens riktlinjer om efterlevnad av AI-standarder med hög risk och dess skyldigheter, ska definieras ytterligare senast 2026.

Att navigera AI-risker: Etiska, samhälleliga och cybersäkerhetsutmaningar
Medan EU-kommissionen ytterligare definierar och fastställer riktlinjer är det avgörande att vi undersöker och förstår de risker och farhågor som omger dagens AI-teknik. Det finns risker relaterade till etiska problem, såsom bias i AI-algoritmer, brist på transparens och potentiellt missbruk av AI-teknik.
Dessutom finns det samhällsrisker såsom förlorade eller förändrade arbetsmöjligheter, ökade sociala skillnader på grund av orättvis tillgång till AI, känslomässig AI-manipulation och bekräftelse av social bias/diskriminering.
Utan tvekan är de säkerhetsrisker, så som dataintrång, obehörig åtkomst och potentiella sårbarheter som kan leda till cyberattacker, av största vikt för att säkra samhällets infrastruktur.
Som svar på dessa utmaningar kan en organisation implementera cybersäkerhetsstrategier genom att kombinera kunskap från AI-forskning, kontradiktorisk maskininlärning (AML) och allmän cybersäkerhet.

Stärk din AI-säkerhet med bästa praxis för säker och etisk AI-implementering
Genom att implementera en grundnivå för säkerhet med följande metoder kan organisationer förstärka och förbättra säkerheten för sina AI-modeller och program.
- Inför "zero trust" för AI genom bland annat följande principer, åtkomst till modeller/data endast för specifikt auktoriserade användare och med behörigheter baserade på Least privilege, tidsbegränsad åtkomst, stark autentisering samt för kontinuerlig övervakning.
- Skapa en AI-Bill of Materials (AIBOM) inklusive datakällor för träning, pipelines, modellutveckling, träningsprocedurer och prestanda för att förbättra transparens, reproducerbarhet, ansvarsskyldighet och etiska AI-överväganden.
- Implementera en omfattande data försörjningskedja med hjälp av AI-pipelines för företag och MLOps-lösningar för att automatisera och förenkla arbetsflöden och distributioner av maskininlärning eftersom ren, omfattande data är avgörande i AI-modeller.
- Tillhandahålla cybersäkerhetsutbildning regelbundet till personer som bygger och stöder AI-system för att säkerställa kontinuerliga förbättringar av AI-processer och modeller.
- Anpassa alltid cybersäkerhetsstrategin till företagets prioriteringar.
Dessutom kan organisationer använda ramverk som NIST: Artificial Intelligence Risk Management Framework samt ISO/IEC 42001: 2023 Information technology – Artificial intelligence – Management system för att få vägledning om efterlevnad av EU:s AI-lag.

Ligg steget före AI-risker med cybersäkerhetslösningar som uppfyller kraven
Även om den tidslinje som föreskrivs i lagen sträcker sig över några år, ökar riskerna kring användning av AI-system. För att proaktivt anpassa sig till och upprätthålla cybersäkerhetskraven i EU:s AI-förordningen, rekommenderar vi organisationer att i ett tidigt skede:
- Implementera/uppdatera policyer och procedurer för att stärka styrningen av AI-säkerhet.
- Genomföra gapanalyser/revisioner för att förstå den nuvarande mognaden i AI-användningen.
- Göra AI-relaterade ansvar en del av organisationen genom riskbedömningar, incidentrapportering, AIBOM, utbildning och medvetenhet.
- Utbilda organisationens interna intressenter om dokumentationskrav.
- Testning av tekniska krav för säker användning av AI-system.
AFRY kan hjälpa företag att navigera i AI-regelverk för att följa reglerna
Trots utmaningarna är AFRYs konsulter redo att hjälpa organisationer att navigera i det komplexa landskapet av AI-regler för att säkerställa efterlevnad och främja förtroende för AI-användning. Vi förstår de utmaningar som företag står inför när det gäller att navigera komplexiteten i regelverk, och samtidigt driva tillväxt och effektivitet genom innovation med hjälp av AI-teknik.
Från planerings- och kravstadiet till design och implementering har vårt team av experter hjälpt kunder att integrera kraven i den kommande EU:s AI-akt i varje fas av sina senaste AI-projekt.

Vår kompetens inkluderar:
- Regelefterlevnad: Se till att AI-system överensstämmer med lagens juridiska och etiska standarder.
- Riskhantering: Stödja organisationer i att identifiera och mildra risker i samband med implementering av AI-system, inklusive bias, transparens och datasekretess.
- Teknisk implementering: Utveckla AI-system för organisationer genom att tillämpa bästa praxis inom AI-utveckling, inklusive datainsamling, algoritmdesign, modellering och testning/validering.
- Utbildning och stöd: Vägleda och coacha organisationer och deras personal i att förstå nyanserna i lagen och implementera AI-teknik i enlighet med de nya förordningarna.