Prof Sam Illingworth från Edinburgh Napier University diskuterar hur kritisk AI-läskunnighet är en grundpelare i etisk AI-användning.
De flesta AI-träningar lär dig hur du får resultat. Skriv en bättre uppmaning. Förfina din fråga. Generera innehåll snabbare. Detta tillvägagångssätt behandlar AI som ett produktivitetsverktyg och mäter framgång utifrån hastighet. Det missar poängen helt.
Kritisk AI-läskunnighet ställer olika frågor. Inte ”hur använder jag det här?” men ”ska jag använda det här överhuvudtaget?” Inte ”hur gör jag det här snabbare?” men ”vad förlorar jag när jag gör det?”
AI-system har fördomar som de flesta användare aldrig ser. Forskare som analyserar British Newspaper Archive 2025 fann att digitaliserade viktorianska tidningar representerar mindre än 20 st av vad som faktiskt trycktes. Provet snedställs mot öppet politiska publikationer och bort från oberoende röster.
Den som drar slutsatser om det viktorianska samhället från dessa data riskerar att reproducera förvrängningar som bakats in i arkivet. Samma princip gäller för de datamängder som driver dagens AI-verktyg. Vi kan inte förhöra det vi inte ser.
Litteraturvetare har länge förstått att texter hjälper till att konstruera, snarare än att bara reflektera, verkligheten. En tidningsartikel från 1870 är inte ett fönster mot det förflutna utan en kurerad representation formad av redaktörer, annonsörer och ägare.
AI-utgångar fungerar på samma sätt. De syntetiserar mönster från träningsdata som speglar speciella världsbilder och kommersiella intressen. Humaniora lär oss att fråga vems röst som är närvarande och vems som är frånvarande.
Forskning publicerad i Lancet Global Health tidskriften 2023 visar detta. Forskare försökte invertera stereotypa globala hälsobilder med hjälp av AI-bildgenerering, vilket fick systemet att skapa bilder av svarta afrikanska läkare som ger vård till vita barn.
Trots att den genererade över 300 bilder visade sig AI:n oförmögen att producera denna inversion. Vårdtagare gjordes alltid svarta. Systemet hade absorberat befintliga bilder så grundligt att det inte kunde föreställa sig alternativ.
AI slask är inte bara artiklar späckade med ”delve” och em-streck. Det är bara stilistiska berättar. Det verkliga problemet är utgångar som vidmakthåller fördomar utan förhör.
Tänk på vänskap. Filosoferna Micah Lott och William Hasselberger argumenterar att AI inte kan vara din vän eftersom vänskap kräver att man bryr sig om andras bästa för deras egen skull. Ett AI-verktyg saknar en intern nytta. Den finns till för att tjäna användaren.
När företag marknadsför AI som en följeslagare erbjuder de simulerad empati utan friktion av mänskliga relationer. AI:n kan inte avvisa dig eller utöva sina egna intressen. Relationen förblir ensidig; en kommersiell transaktion förklädd som anknytning.
AI och professionellt ansvar
Lärare måste skilja på när AI stöder inlärning och när det ersätter det kognitiva arbetet som skapar förståelse. Journalister behöver kriterier för att utvärdera AI-genererat innehåll. Vårdpersonal behöver protokoll för att integrera AI-rekommendationer utan att avsäga sig kliniskt omdöme.
Det är det här arbetet jag ägnar mig åt Långsam AIen gemenskap som utforskar hur man engagerar sig med AI effektivt och etiskt. Den nuvarande banan för AI-utveckling antar att vi alla kommer att röra oss snabbare, tänka mindre och acceptera syntetiska utdata som standardtillstånd. Kritisk AI-läskunnighet motstår den farten.
Inget av detta kräver att tekniken förkastas. Ludditerna (textilarbetare som organiserade sig mot fabriksägare över engelska Midlands i början av 1800-talet) som slog sönder vävramar var inte emot framsteg. De var skickliga hantverkare som försvarade sin försörjning mot de sociala kostnaderna för automatisering.
När Lord Byron reste sig i House of Lords 1812 till hålla sitt jungfrutal mot det rambrytande lagförslaget (som gjorde att förstörelse av ramar kunde straffas med döden), hävdade han att dessa inte var okunniga förbrytare utan människor som drivs av omständigheter med oöverträffad nöd.
Ludditerna såg tydligt vad maskinerna betydde: utplånandet av hantverk och reduceringen av mänsklig skicklighet till mekanisk upprepning. De förkastade inte teknik. De avvisade dess okritiska antagande. Kritisk AI-läskunnighet ber oss att återfå denna urskillning. Att gå bortom ”hur man använder” mot en förståelse av ”hur man tänker”.
Insatserna är inte hypotetiska. Beslut som fattas med hjälp av AI formar redan anställning, sjukvård, utbildning och rättvisa. Om vi saknar ramverk för att utvärdera dessa system kritiskt lägger vi ut bedömningar på algoritmer vars begränsningar förblir osynliga.
I slutändan handlar kritisk AI-kunskap inte om att bemästra uppmaningar eller optimera arbetsflöden. Det handlar om att veta när man ska använda AI och när man ska lämna det ifred.
Av Sam Illingworth
Sam Illingworth är professor i kreativ pedagogik vid Edinburgh Napier University och är en internationellt erkänd expert på tvärvetenskapliga studier och vetenskapskommunikation. Hans forskning handlar om att använda poesi och spel för att skapa meningsfull dialog mellan forskare och samhället. Han har en MA i högre utbildning och är rektor vid Högskoleakademin, med mer än 100 publikationer. Han är verkställande redaktör för Geoscience Communication och grundaren av vetenskaps- och poesitidskriften Consilience.
