Ny forskning viser at KI har et verdensbilde. Det er hverken tilfeldig eller nøytralt.
Ikke la kunstig intelligens gi deg nye øyne
Hege Bellika HansenAnalytiker i TRY, emneansvarlig ved Høyskolen Kristiania
Ny forskning viser at kunstig intelligens (KI) har et verdensbilde. Det er hverken tilfeldig eller nøytralt.
At noen tekoligarker og teknologisjefer kan ha etiske blindsoner eller svak virkelighetsforståelse, er ikke lenger overraskende.
Det mest aktuelle eksempelet er OpenAI-sjef Sam Altman, som har fått mye oppmerksomhet for et dokumentert mønster. Fra offentlig å advare om KI-risiko mens han privat lobbet mot regulering, til mer generelt sett ikke å la seg «begrense av sannheten», ifølge Sue Yoon, som er et tidligere styremedlem.
Andre eksempler inkluderer Elon Musk, som ved flere anledninger har spredt rasistisk desinformasjon på X. Eller Mark Zuckerberg, som fjernet både faktasjekking og tiltak knyttet til mangfold, likestilling og inkludering (DEI) hos Meta i løpet av én uke. Beslutningene og uttalelsene fra Musk og Zuckerberg er også tett tilknyttet USAs president Donald Trump og hans administrasjons politiske agenda.
Ikke alle teknologisjefer er like. Dario Amodei og Demis Hassabis, lederne av Anthropic og Google DeepMind, skiller seg ut med en langt mer jordnær og selvkritisk tone. De erkjenner maktposisjonen de har, og argumenterer konsekvent for ansvarlig utvikling av KI. Anthropic er også ett av flere teknologiselskaper som ansetter filosofer for å sikre moralsk forankret drift.
Det er allmenn kjent at lederne innen KI kan ha problematiske tendenser og sterke personlige meninger. Til tross for dette er teknologien de bygger, likevel blitt kommunisert som så sofistikert og vitenskapelig tuftet at den er objektiv og nøytral.
Ny forskning fra Universitetet i Oxford peker på hvordan posisjonell og ujevn maktfordeling i teknologibransjen kan ha gjort generativ KI til teknologi med et partisk verdensbilde, kalt «The Silicon Gaze».
Begrepet er inspirert av filmteoretikeren Laura Mulveys velkjente feministiske teori «The Male Gaze». Det beskriver hvordan filmmediets mannlige, heteroseksuelle blikk portretterer og reduserer kvinner til passive objekter som oppnår verdi ved å tilfredsstille menns visuelle begjær. Teorien viser hvordan et slikt perspektiv former tilskuerens virkelighet utenfor kinosalen og normaliserer et patriarkalsk kvinnesyn.
Forskerne argumenterer for at «The Silicon Gaze» oppstår fordi teknologibransjen er ledet og driftet av hovedsakelig hvite, mannlige og vestlige utviklere, og fordi teknologien (ChatGPT i dette tilfellet) er trent på data som favoriserer USA, Vest-Europa og deler av Asia. Det er dette forskerne mener skaper «The Silicon Gaze» i sosiale, økonomiske og politiske sammenhenger.
ChatGPTs resulterende bias – som studien viser rangerer vestlige nasjoner og regioner med høy inntekt over andre innen alt fra nivå på utseende til intelligens – kan ifølge forskerne heller ikke refereres til som en feil. Den er en iboende funksjon på grunn av historisk skjevfordelt datautvalg og aktive designvalg.
Dette er det viktig å vite fordi generativ KI øker i bruk. Det er likevel forbausende mye vi ikke vet om teknologien eller hvordan den påvirker oss.
Det vi derimot vet, er at teknologisk bias er ikke et nytt fenomen. Fra ansiktsgjenkjenningssystemer som konsekvent feilidentifiserer mørkhudede ansikter, til algoritmer som nedprioriterer kvinner i jobbsøk, så viser historien at fordommer blir implementert i teknologi når mangfold mangler i utviklingsprosessen.
Selv om «The Silicon Gaze» utvilsomt må testes mer, gir begrepet oss et bedre språk for å beskrive hvordan språkmodeller kan forskjellsbehandle, som igjen er et forskningsfelt som allerede har produsert studier med lignende funn. Av naturlige årsaker har teknologisk forskjellsbehandling en tendens til å bli lagt merke til av dem som rammes av forskjellsbehandlingen.
Og når denne teknologien blir mer brukt, kan potensielle innebygde fordommer påvirke hvordan vi ser på verden rundt oss. Dette understreker først og fremst hvor viktig mangfold er i alt fra lavterskel teknologibruk til sofistikert KI-utvikling. Det viser også hvor viktig det er å være oppmerksom på hva slags verdensbilde KI maler for deg hvis du bruker det i en sosial, økonomisk eller politisk kontekst. Og kanskje desto mer hvis man er i nærheten av dem som utgjør Silicon Valley-stereotypien.
Moralsk og kommersielt press
Selv om du bruker andre og mer etiske alternativer til ChatGPT, som Claude fra Anthropic, er selskapet sprunget ut fra OpenAI. Og de fleste KI-selskaper driftes som regel av en relativt homogen gruppe mennesker som alle befinner seg og lever i Silicon Valley.
Så for å bruke og forstå teknologien som i økende grad preger livet vårt, frivillig eller ei, er det essensielt at vi i alle ledd av samfunnet forstår potensielle ringvirkninger av hvordan generativ KI historisk sett er blitt bygget opp.
Å forstå «The Silicon Gaze» og andre KI-relaterte ringvirkninger er ikke bare nyttig for å være informert, men for teknologien i seg selv. Når flere ser og setter ord på disse tendensene, fungerer det både som et moralsk og kommersielt press på KI-selskaper om å gjøre teknologien mer relevant for flere.
KI-bølgen er tross alt avhengig av at så mange som mulig liker og bruker produktene de lager. Og når generativ KI allerede har vunnet Nobelprisen i kjemi for banebrytende og samfunnsnyttige bidrag til medisin, så kan veldig mye mer utrettes når flere er med på å forme og forbedre den.
