Kunstig autenticitet? Kan man bruge AI-genererede billeder i analyser?

juli 9, 2024

Er billedegenerering med generativ AI en sjov gimmick eller åbner det nye muligheder indenfor analyse og rådgivning?

 

Om pingvingiraffer og andre fabeldyr 

Vi sidder om aftenmadsbordet og finder på skøre dyr. Mine drenge på 3 og 5 år synes, det er det sjoveste i verden.

En snehyæne.

En girafpingvin.

En ulvehvalros.

Jeg synes også, det er sjovt. De tegninger, jeg forsøger mig med, ligner dog mest noget, der er løgn.

”Far, prøv lige at tegne det”. Det blev ikke godt. Men jeg ved, hvad måske kan blive godt.

”Øjeblik. Fortæl mig lige, hvordan en girafpingvin ser ud?” 

2 minutter senere:

”Er det sådan her?”

”Ej, far, findes den virkelig?”

Nej, den findes ikke… 

De fleste, der læser dette, ved godt, at pingvingiraffer ikke findes. Formoder jeg. Men billedegenereringsteknologier som OpenAI’s DALL-E, Midjourney og Stable Diffusion har bragt os ind i en tid, hvor den slags fantasifulde skabninger kan visualiseres på 20 sekunder. Siden deres lancering for få år siden, har teknologierne accelereret – og min fascination er bare fulgt med.  

Men det store spørgsmål er – kan vi bruge det til noget? Altså andet end til at skabe sjove dyr eller Shibaer med baretter. I min professionelle verden, hvor jeg arbejder med data i alle dets former, bl.a. gennem surveys, begyndte jeg at spekulere: Kan jeg inkorporere pingvingiraffer i mit arbejde?

Diffusion did it 

Grundteknologien bag billedegenerering i kunstig intelligens er det, der kaldes diffusionsteknologi. Diffusionsteknologi i AI-billedgenerering er en metode, hvor AI gradvist forvandler tilfældig støj til klare billeder ved hjælp af mønstergenkendelse1,2. Den teknologi har revolutioneret vores evne til at fremstille imponerende billeder fra simple tekstbeskrivelser selv med én hurtig kommando – såkaldt “zero-shot”-prompting. Det er som en magisk pensel, der kan omsætte min 3-åriges beskrivelse af en “ulvehvalros” til noget, der kunne forveksles med et stillbillede fra en BBC-naturdokumentar. Spørgsmålet rejser sig igen: Er det kun sjovt, eller er det også brugbart? 


Kan det bruges alligevel?
 

Mit korte svar er: Ja. Men her står vi med et paradoks: Ideen om at bruge kunstighed til at skabe autenticitet. Det lyder måske som et oxymoron, men ved at dirigere AI kan vi genskabe realistiske scener, som potentielt kan højne autenticiteten – eller økologisk validitet – eks. i vores surveys eller i kvalitative undersøgelser. Men det kræver som altid, når man anvender generativ AI, indsigter fra en domæneekspert, der nøjagtigt ved, hvad der skal visualiseres for at afspejle virkeligheden korrekt. 

En dansk, offentlig kvindelig leder med hhv. lys og mørk hudfarve

For effektivt at anvende AI i praktisk arbejde er det nødvendigt at kunne formulere præcise prompts. Prompts er penslerne på papiret. De kan dramatisk ændre det visuelle output på 0,5. Detaljerede instruktioner, som undgår negationer og præcist definerer ønsket output, stil og stemning er vigtige for at opnå de bedste resultater. Med hastigheden på den nuværende udvikling, behøver du nok ikke blive ”prompt ingeniør” for at kunne finde ud af det. Systemerne bliver mere intuitive og bedre til at forstå naturligt sprog, hvilket mindsker behovet for omhyggeligt konstruerede prompts3.

Eksempler fra praksis: De famøse use-cases

Forestil dig et survey designet til at undersøge holdninger til køn i forskellige offentlige roller. Ved at anvende AI-genererede billeder kan respondenterne præsenteres for autentiske og varierede scenarier, som ville være vanskelige eller meget omkostningsfulde at skabe i virkeligheden. I Epinion har vi både med forskere fra Københavns Universitet og med Videnscenter for God Arbejdslyst brugt netop AI-genererede billeder til at undersøge diskrimination. Det kunne vi ikke have gjort ligeså effektivt og godt foruden billedegenereringsteknologi.

Ny indretning af togkupé

 

Men det er stadig en ny teknologi, så der kan være både potentialer og faldgruber, som vi endnu ikke har set. Men bud på anvendelsesmuligheder kan være:

Potentialer for brug

  • Diskrimination: Undersøgelse af bias mod køn, alder eller etnicitet ved hjælp af AI-genererede “afsendere” i forskellige variationer med ”alt andet lige”-setting som eks. samme kontormiljø el. kulturelle setting i et eksperimentalt set-up
  • Situationsbestemte valg: Simulering af realistiske situationer for bedre at forstå forbrugeradfærd eks. genkalde travlhed i indkøbssituation
  • Følsomme situationer: Simulering situationer som kræver høj grad af fortrolighed eller sikkerhed og derfor gør billeder vanskelige eks. på hospitaler el.lign.
  • Produkt/scenarietest i tidligere stadier: Præsentation at mulige produkter/layout/scenarier som er hurtigt udviklede og kan testes bredt eller tidligt inden videreudvikling, eks. indretning af nye togkupéer
  • Personificering af surveys: Muligheden for at respondenter kan vælge en AI-genereret avatar, der leder dem gennem surveyet for at sikre gennemførelse og engagement

 

Knæoperation udføres af læge

Indkøb til aftensmad efter arbejde

Billeder med bias

At eksperimentere med fantasidyr ved middagsbordet er én ting; at anvende teknologien kritisk og ansvarligt er noget helt andet. Teknologiens fejl, såsom biases i træningsdata, kan manifestere sig i stereotyper, som gør det nødvendig at være kritisk og evaluere de billeder, AI genererer4,5. Som alt generativ AI er dét, der genereres et udtryk for det data, modellen er trænet på. Træningsdata. Det er for det meste et lukket land at få adgang til, hvad der præcist er trænet på, men både både OpenAI og Stable Diffusion erkender, at billederne kan overdrive stereotyper set fra et ”hvidt, vestligt menneskesyn”. Det er altså ret grundlæggende ting som race, seksualitet, køn, kropstype og alder, hvor output ikke ikke afspejler diversiteten i verden med mindre man gør en aktiv indsats (og selv ikke her er det sikkert!).

Min pointe er her ikke, at materialet er så problematisk, at man ikke skal bruge det, men at alle brugere skal kende til, at træningsdata er et lille udsnit at verden og at man derfor som bruger skal forsøge at navigere udenom stereotyper og som ikke blot ”stole på” at output er et billede af virkeligheden. Det kræver en ekspert på fagområdet at bruge AI-genererede billeder, og den ekspert er ikke AI selv.

 

Tilbage til aftensmadsbordet and beyond

Vi er i den spæde start. Men både de cases, vi i Epinion allerede har testet, og de andre muligheder, der kommer til at vise sig, gør mig sikker på, at vi gennem anvendelsen af billedegenerering via AI-teknologi i dataindsamling og analyse kan forme nye veje for analyse og rådgivning på mange forskellige områder.

Så næste gang mine drenge beder mig om at tegne en ulvehvalros eller en girafpingvin ved aftensmadsbordet, kan jeg i mit stille sind tænke, at teknologien bag fantasikreationerne ikke kun er sjov men også anvendeligt. Måske er det netop kombinationen, som gør det så fascinerende og skaber potentialer til de næste store analyseprojekter.

 

……………

Alle billeder er genereret via DALL-E 3.
1: ”Co-Intelligence”, 2024, Mollick
2: ”Maskiner der tænker”, 2023, Strümke
3: ”AI Prompt Engineering Isn’t the Future”, 2023, Acar
4: ”AU image generators often give racist and sexist results: can they be fixed?” (Nature, 2024)
5: ”This is how AI images generators see the world (The Wasington Post, 2023)

 

Allan Toft Hedegaard Knudsen
SENIOR DIRECTOR
atk@epinionglobal.com