Finansministeriet döljer algoritmen med vilken den väljer ut egenföretagare för en framtida inspektion

Skatteverket har börjat använda algoritmiska system och artificiell intelligens (AI) för att välja ut skattebetalare – inklusive egenföretagare – som ska bli föremål för kontroll. Det gör det med löfte om att få effektivitet, men det har öppnat en juridisk debatt om motiven och kriterierna som leder till att statskassan fokuserar på vissa skattebetalare samtidigt som andra utelämnas.

Den ”svarta lådan” av offentliga algoritmer, varnar doktor i juridik och transparensexpert Miguel Ángel Blanes Climent, ”kan gömma ochfel, fördomar eller till och med orättvisa beslut om det inte är öppet för allmänheten”.

De Högsta domstolens dom nyligen i BOSCO-algoritmfallet –används av ministeriet för ekologisk omställning för att hantera energistöd från den sociala bonusen – utgör ett avgörande prejudikat, enligt experter.

För första gången har High Court erkänt medborgarnas rätt att få veta hur ett system för artificiell intelligens som används av administrationen fungerar. ”Högsta domstolen har sagt att offentlig makt inte kan gömma sig bakom teknik,” Blanes förklarade. ”Om en institution använder AI måste den garantera dess transparens.”

Medborgare har rätt att veta vilka kriterier som Treasury AI följer

Trots att Högsta domstolens dom hänvisade till ett socialt program ansåg experten det kan utvidgas till skatteområdet. När det gäller egenföretagare hanterar den statliga skatteförvaltningen (AEAT) enorma databaser och tillämpar algoritmer för att korshänvisa skatte-, redovisnings- och bankinformation, för att avgöra vem som ska undersökas och inte.

Dock, Ingen utanför byrån vet vilka kriterier denna artificiella intelligens använder. Är vissa sektorer prioriterade? Övervägs storleken på verksamheten? Antalet fakturor? Leverantörernas sammanträffande? Ingen vet. ”Det är logiskt att egenföretagare vill veta vilka skäl som finns för att de, och inte andra, ska väljas ut för inspektion”, sa Transparensexperten. ”För att om dessa algoritmer inte kan granskas öppnas dörren till hjälplöshet,” tillade han.

Enligt Blanes åsikt, Den nuvarande rättsliga ramen erbjuder inte tillräckliga garantier eftersom öppenhetslagen från 2013 inte ens överväger förekomsten av artificiell intelligens, och den allmänna skattelagen nämner inte heller automatiserade beslutssystem.

Öppenhet och skattehemlighet är förenliga

För Blanes innebär lösningen en rättsreform i två faser. – Det första är att Skatteverket – och alla andra förvaltningar – är skyldiga att publicera på sin portal i vilka beslut den använder artificiell intelligens, förklarade han. ”Och den andra, erbjuda en minimal förklaring av hur dessa algoritmer fungerar, på ett begripligt och tillgängligt sätt”.

En av Skatteverkets vanliga invändningar är risken att avslöjandet av källkoden eller driften av algoritmen äventyrar säkerheten för skatteuppgifter.

Blanes betonade det dock Skattesekretess, inkluderad i artikel 95 i den allmänna skattelagen, kan inte bli en förevändning för att upprätthålla opaciteten.

Han förklarade det Öppenhet och skattehemlighet är perfekt förenliga om algoritmerna är utformade med tillräckliga garantier. ”Om jag ska använda en algoritm kommer jag inte att kunna säga hur det fungerar eftersom de kan häck”Jag borde inte använda den”, sa han.

Enligt hans åsikt, Administrationen bör endast tillämpa system som kan granskas utan att äventyra skattebetalarnas personuppgifterskilja mellan att avslöja programlogik och exponera individuella data.

Fast Blanes insåg det skatteuppgifter är särskilt känsliga och måste skyddas med högsta säkerhetsnivå, ansåg han också att det inte betyder att det inte kan vara transparent.

”Idag tillåter tekniken oss att förena båda sakerna”, sa han, ”att ett system är kontrollerbart och samtidigt osårbart. Vad Det kan inte vara så att sekretess fungerar som en ursäkt för att dölja statens handlingskriterier.”.

Bristen på insyn i finansförvaltningens algoritmer kan vara diskriminerande för egenföretagare.

Algoritmer kan också särskilja

Juridiska doktorn gick vidare och förklarade att bristen på tydlighet i kriterierna för offentliga algoritmer också påverkar principen om likhet inför lagen eftersom Alla skattebetalare, inklusive egenföretagare, har rätt att behandlas rättvist och icke-diskriminerande.

Till exempel, om en algoritm använder dåligt utformade variabler (kopplade till plats, typ av aktivitet, skattebetalarens ålder etc.) kan det vara att införa fördomar utan att någon märker det.

”Algorithmer gör också misstag och kan särskilja utan att mena det”Blanes varnade. ”Det är därför de måste kunna övervakas. Annars blir artificiell intelligens en sköld av opacitet.”

Högsta domstolen underströk detta redan i sin nyligen gjorda dom genom att säkerställa det Automatiserade system kan inte fungera utanför medborgarnas kontroll. Och även om domstolen i det fallet betonade skyddet av utsatta grupper, är principen universell enligt de experter som konsulterats eftersom alla algoritmiska verktyg som påverkar rättigheter eller offentliga beslut måste kunna granskas.

Administrationen kräver mer av skattebetalarna än av sig själv

Det paradoxala, illustrerade Blanes, är att medan regeringen snabbt har lagstiftat för medborgare eller privata företag för att ange om en bild eller text har genererats av artificiell intelligens, Administrationen tillämpar inte samma krav på sig själv.

”Det är betydelsefullt”, reflekterade han, ”att staten påtvingar den privata sektorn öppenhet, men inte utövar det. Det finns ingen anledning att motivera denna ojämlika behandling, utöver de offentliga befogenheternas motvilja att bli föremål för revision”.

Experten påpekade att detta motstånd leder till bristande strukturell ansvarighet. Politiska myndigheter är ovilliga att utsätta sina handlingar för medborgarnas granskning, även när användningen av teknik direkt påverkar grundläggande rättigheter. ”Offentlig makt är alltid svår att kontrollera”Blanes sa ironiskt, ”men om den gömmer sig bakom en algoritm blir kontroll omöjlig.”

Debatten mellan jurister har precis börjat, men det föreslås redan att samma argument som har belyst algoritmen som beviljade socialbidrag kommer att hamna i Högsta domstolen och tvinga finansministeriet att förklara hur dess program fungerar för att välja ut de egenföretagare som måste inspekteras.

Som Blanes avslutade, ”artificiell intelligens är ett faktum som har överträffat oss, administrationen använder den och måste säga när den använder den och redogöra för hur den fungerar. Jag vill inte tänka på ett scenario där jag kan använda det utan ansvar; det skulle vara katastrofalt”.