Den 2 februari börjar den spanska byrån för övervakning av artificiell intelligens (Aesia) utöva sina inspektionsfunktioner om användningen av artificiell intelligens i egenföretagare. Och från och med den 2 augusti kommer det att sanktionera de som överskrider sina gränser i användningen av det för att kränka rättigheter.
Uttalanden som de som gjordes av minister Yolanda Díaz och arbetsmarknadsministern Joaquín Pérez Rey, som lyfter fram vikten av algoritmiska granskningar för att säkerställa öppenhet och undvika diskriminering i användningen av algoritmer i arbetsrelationer, De förutspådde redan att administrationen har för avsikt att övervaka användningen av AI på alla nivåer.
Sanningen är att driftsättningen av den nya organisationen, beroende av ekonomi- och digital transformationsministeriet, har markerat en milstolpe i regleringen av ny teknik. Och inte bara i Spanien utan även i Europa. Så det kommer att vara den offentliga enheten som ansvarar för att garantera att AI-baserad utveckling följer de etiska, juridiska och säkerhetskrav som fastställts av EU:s bestämmelser.
Efter sommaren kommer Aesia dessutom att ta över sina sanktionsbefogenheter. Detta betyder det får ålägga böter upp till 30 miljoner euro eller 6 % av den årliga omsättningen till dem som bryter mot reglerna. Några regler som för tillfället ingår i förordning (EU) 2024/1689, mer känd som AI-lagen. Detta är en förordning som syftar till att balansera den tekniska utvecklingen med skyddet av grundläggande rättigheter, en aspekt som direkt påverkar näringslivet, inklusive egenföretagare och småföretag i hela Europa.
Fyra risknivåer som Aesia kommer att ta hänsyn till för att sanktionera egenföretagare
Ramen för denna lag bestämmer vilka AI-metoder och system som kommer att bli föremål för övervakning. I denna mening klassificerar den europeiska förordningen AI-verktyg efter den ”risk de representerar”, såväl som deras effekt på ”säkerhet, försörjning och rättigheter för människor”. Denna klassificering tillåter ett mer precist förhållningssätt till reglering.
Texten bygger på en bred definition av vad som förstås med artificiell intelligens, vilket gör att den täcker en stor mångfald av tekniska tillämpningar, från statliga tjänster för ”social scoring” till leksaker som använder rösthjälp.
Vissa specifika system ligger dock utanför regleringsområdet, till exempel de som uteslutande är avsedda för militära, försvars- eller nationella säkerhetsändamål. Samt sådana som utvecklats enbart för vetenskaplig forskning och utvecklingsändamål som inte används i verkliga miljöer.
Därmed skiljer regelverket fyra risknivåer för artificiell intelligens: otillåtet, högt, lågt och null. Varje nivå är designad för att återspegla den potentiella effekten av systemet.
- På nivån med oacceptabel risk, praxis som anses strida mot EU:s värderingar på grund av sin negativa inverkan på grundläggande rättigheter grupperas tillsammans. Dessa metoder är uttryckligen förbjudna. Exempel på dem är användningen av subliminala tekniker för att manipulera beteende, utnyttjande av sårbarheter hos människor i särskilt känsliga situationer, social poängsättning för både offentliga och privata ändamål och användningen av känslomässigt erkännande i arbets- eller utbildningsmiljöer (förutom av medicinska eller säkerhetsmässiga skäl).
- Systemen hög risk Det är sådana som kan ha en betydande inverkan på människors säkerhet eller grundläggande rättigheter. omfatta från medicintekniska produkter till personalvalsverktyg. Dessa inkluderar å ena sidan produkter som redan är reglerade av specifika europeiska bestämmelser, såsom medicintekniska produkter, fordon, leksaker eller maskiner. Å andra sidan omfattar det också system som de som används inom socialpolitik, immigration, liv- och sjukförsäkring eller i personalvalsprocesser. Dessa system måste uppfylla strikta tekniska och operativa krav för att anses överensstämma med lagen, inklusive säkerhetsbedömningar, transparens, datakvalitet, spårbarhet, mänsklig övervakning och motståndskraft mot fel eller cyberattacker.
- System klassificerade som låg risk De representerar majoriteten av nuvarande användningar av AI. Även om de är föremål för färre rättsliga skyldigheter, fastställs särskilda åtgärder relaterade till transparens för att undvika manipulation eller förvirring av användare. Chatbots måste tydligt ange att de är maskiner. Till exempel, i fallet med system som använder konversationsrobotar (som en chatbot) eller genererar artificiellt manipulerat innehåll, måste det tydligt rapporteras att detta är interaktioner med maskiner eller material skapade av AI. Medan texter om ”ärenden av allmänt intresse” som genereras av AI måste markeras som sådana.
- Slutligen tillåter AI-lagen fri användning av de system som anses vara minimal eller ingen risk. Exempel inkluderar applikationer som AI-aktiverade videospel eller filter. spam. Dessa applikationer kommer att ha en mindre inverkan på regleringen.
Generativa modeller anses vara potentiellt farliga om de lämnas okontrollerade
Förordningen tar också hänsyn till de risker som härrör från allmänna AI-system, såsom stora generativa modeller, som ChatGPT från Open IA eller Gemini, som kan användas i olika uppgifter. Dessa system, på grund av sin kraft och kapacitet för massiv påverkan, De anses vara potentiellt farliga om de inte kontrolleras ordentligt. Detta innebär en högre nivå av tillsyn för att undvika risker.
De är därför skyldiga att genomföra en noggrann riskbedömning, begränsningsåtgärder och kommunikationsprotokoll vid eventuella incidenter. Dessutom, De måste visa att de uppfyller höga cybersäkerhetsstandarder och god praxis för att undvika missbruk i sammanhang som cyberattacker eller skadliga applikationer.
Inom ramen för detta ramverk kommer Aesia inte bara att övervaka efterlevnaden av dessa bestämmelser, utan kommer också att samordna med de aktörer som är involverade i värdekedjan för AI-system: från leverantörer till distributörer. Denna samordning kommer att vara nyckeln till säkerställa efterlevnad.
Det vill säga att tillämpningen av dessa regler kommer att ha en direkt inverkan på små och medelstora företag, av vilka många redan använder AI-system för att förbättra sina processer och tjänster.
Europeiska kommissionen rekommenderar att man hjälper företag att anpassa sig till AI-regler
För dessa företag kan det vara en utmaning att möta nya krav, särskilt när det gäller att investera i teknikuppgraderingar och utbildning för att säkerställa att deras system uppfyller de krav som krävs.
Till exempel kommer företag som verkar inom sektorer som sjukvård, där algoritmer används för medicinsk diagnos, att behöva visa att dessa system är säkra och korrekta. Inom utbildning måste plattformar som anpassar lärande undvika partiskhet och garantera lika möjligheter. Inom området för mänskliga resurser måste system som automatiserar urvalsprocesser vara transparenta och icke-diskriminerande, vilket kan kräva regelbundna revisioner för att verifiera efterlevnaden. Dessa skyldigheter De kräver ytterligare resurser för företagen.
Därför har EU-kommissionen framhållit vikten av att stödja småföretag i denna anpassningsprocess, med målet att de kan följa reglerna utan att förlora konkurrenskraft. Externt stöd kommer att vara avgörande för att möta dessa förändringar. I denna mening kommer Aesia, i väntan på att specifika riktlinjer ska publiceras och verktyg för att underlätta övergången till ett mer reglerat tekniskt ramverk, erbjuda utbildning och rådgivning till små och medelstora företag och startups.