Skapar 'AI worklop' onödigt arbete för anställda?

Steven Lockey och Nicole Gillespie från Melbourne Business School och University of Melbourne diskuterar hur dåligt distribuerad AI kan skapa ytterligare arbete för användarna.

Har du någonsin använt artificiell intelligens (AI) i ditt jobb utan att dubbelkolla kvaliteten eller noggrannheten på dess utdata? Om så är fallet, skulle du inte vara den enda.

Vår global forskning visar att häpnadsväckande två tredjedelar (66 procent) av de anställda som använder AI på jobbet har förlitat sig på AI-utdata utan att utvärdera det.

Detta kan skapa mycket extraarbete för andra att identifiera och korrigera fel, för att inte tala om ryktesträffar. Bara denna vecka, konsultföretaget Deloitte Australien bad formellt om ursäkt efter att en rapport på 440 000 USD som utarbetats för den federala regeringen hade visat sig innehålla flera AI-genererade fel.

Mot denna bakgrund har termen ”workslop” kommit in i konversationen. Populäriserad i en nyligen publicerad Harvard Business Review artikeldet hänvisar till AI-genererat innehåll som ser bra ut men ”saknar substansen för att på ett meningsfullt sätt föra fram en given uppgift”.

Förutom att slösa tid, tär worklop också på samarbete och förtroende. Men AI-användning behöver inte vara så här. När den tillämpas på rätt uppgifter, med lämpligt mänskligt samarbete och tillsyn, AI kan förbättra prestandan. Vi har alla en roll att spela för att få detta rätt.

Uppkomsten av AI-genererad ”workslop”

Enligt a nyligen genomförd undersökning rapporterat i Harvard Business Review-artikeln, har 40 procent av amerikanska arbetare fått arbete från sina kamrater under den senaste månaden.

Undersökningens forskargrupp från BetterUp Labs och Stanford Social Media Lab I genomsnitt tog varje fall mottagarna nästan två timmar att lösa, vilket de uppskattade skulle resultera i 9 miljoner USD (cirka 13,8 miljoner USD) per år i förlorad produktivitet för ett företag med 10 000 personer.

De som hade fått worklop rapporterade irritation och förvirring, och många uppfattade personen som hade skickat den till dem som mindre pålitlig, kreativ och pålitlig. Detta speglar tidigare fynd att det kan finnas förtroendestraff för att använda AI.

Osynlig AI, synliga kostnader

Dessa fynd stämmer överens med våra egna nyare forskning om AI-användning på jobbet. I en representativ undersökning av 32 352 arbetare i 47 länder fann vi självbelåten övertillit till AI och hemlig användning av tekniken är vanliga.

Medan många anställda i vår studie rapporterade förbättringar i effektivitet eller innovation, sa mer än en fjärdedel att AI hade ökat arbetsbelastningen, pressen och tiden på vardagliga uppgifter. Hälften sa att de använder AI istället för att samarbeta med kollegor, vilket ger upphov till oro för att samarbetet kommer att bli lidande.

För att göra saken värre, många anställda döljer sin AI-användning; 61pc undvek att avslöja när de hade använt AI och 55pc skickade ut AI-genererat material som sitt eget. Denna brist på transparens gör det utmanande att identifiera och korrigera AI-drivna fel.

Vad du kan göra för att minska worklop

Utan vägledning kan AI generera lågvärdigt, felbenäget arbete som skapar upptaget arbete för andra. Så, hur kan vi stävja worklop för att bättre inse AI:s fördelar?

Om du är anställd kan tre enkla steg hjälpa.

  1. Börja med att fråga ”Är AI det bästa sättet att utföra denna uppgift?”. Vår forskning tyder på att detta är en fråga som många användare hoppar över. Om du inte kan förklara eller försvara resultatet, använd den inte
  2. Om du fortsätter, verifiera och arbeta med AI-utdata som en redigerare; kontrollera fakta, testa kod och skräddarsy utdata till sammanhanget och publiken
  3. När insatserna är höga, var transparent om hur du använde AI och vad du kontrollerade för att signalera rigor och undvika att uppfattas som inkompetent eller opålitlig

Vad arbetsgivare kan göra

För arbetsgivare är det viktigt att investera i styrning, AI-kunskap och samarbetsförmåga mellan människor och AI.

Arbetsgivare måste förse anställda med tydliga riktlinjer och skyddsräcken för effektiv användning, och precisera när AI är och inte är lämpligt.

Det innebär att utforma en AI-strategi, identifiera var AI kommer att ha det högsta värdet, vara tydlig med vem som är ansvarig för vad och spåra resultat. Bra gjort, detta minskar risken och nedströms omarbetning från worklop.

Eftersom worklop kommer från hur människor använder AI – inte som en oundviklig konsekvens av själva verktygen – fungerar styrning bara när den formar vardagliga beteenden. Det kräver att organisationer bygger AI-läskunnighet vid sidan av policyer och kontroller.

Organisationer måste arbeta för att minska gapet med AI-läskunnighet. Vår forskning visar att AI-kunskap och utbildning är förknippade med mer kritisk AI-engagemang och färre fel, men mindre än hälften av de anställda rapporterar att de har fått någon utbildning eller policyvägledning.

Anställda behöver kompetens att använda AI selektivt, ansvarsfullt och i samarbete. Att lära dem när de ska använda AI, hur man gör det effektivt och ansvarsfullt och hur man verifierar AI-utdata innan den cirkulerar kan minska arbetstiden.

Av Steven Lockey och Nicole Gillespie

Steven Lockey är en postdoktorand forskare vid Melbourne Business School. Han är en förtroendeforskare som för närvarande undersöker förtroende för artificiell intelligens. Han är också intresserad av organisatoriskt förtroende och förtroendereparation, och har tidigare arbetat med polisstyrkor i England och Wales, med att undersöka ämnen som polisväsende.

Nicole Gillespie är ordförande för förtroende och proffs för management vid University of Melbourne. Hon är en ledande internationell auktoritet för förtroende för organisationer, fellow vid Academy of Social Sciences i Australien och internationell forskare vid Centre for Corporate Reputation vid University of Oxford.