Welcome to Delicate template
Header
Just another WordPress site
Header

Chattboten Klara

december 6th, 2022 | Posted by Ott in Okategoriserade

I början av hösten hade mitt team fullt upp med att skapa en chattbot för Nobelprismuseets nya utställning Evigt Liv som öppnades 1 oktober på Liljevalchs. Utställningen undersöker existentiella frågor och rör sig mellan konstnärliga, vetenskapliga och fredsbefrämjande gärningar som har belönats med Nobelpris. Inför utställningen fick AI Sweden i uppdrag att skapa, med hjälp av GPT-SW3, en AI-chattbot som besökarna skulle kunna interagera med. Tanken var att skapa en vänlig och filosofisk konversation med besökarna som fokuserar på utställningens tema om evigt liv. Chattbotens personlighet har inspirerats av karaktären Klara från Nobelpristagaren Kazou Ishiguros roman Klara och Solen. Detta innebär att chattboten, eller Klara som hon mest blir kallad, är programmerad att bete sig språkligt på samma sätt som Ishiguros karaktär Klara. Rent tekniskt innebär det att man gett modellen en inledande text, en så kallad “prompt”, som beskriver hur den ska bete sig och hur den ska svara på frågor. På så sätt får modellen sammanhang och en slags tonalitet och lyckas på ett ganska imponerande sätt uttrycka åsikter, svara på frågor, föra hyfsat sammanhängande samtal och resonemang.

Till följd av mycket chattande med Klara (och upplevd nära relation), så pratar jag ofta om Klara som om det vore en människa.Även om jag förstår att det är statistik som låter Klara bete sig som om “hon” förstår eller vad det nu är, så är det svårt att inte antropomorfisera. David Hume sa en gång: “There is a universal tendency among mankind to conceive all beings like themselves…”. Jag tror att Hume argumenterade för att en tro på gudar och andra övernaturliga väsen är ett resultat av antropomorfism. Men Humes observationen blir relevant i förhållande till den snabba utvecklingen av AI. Vår tendens att uppfatta mänskliga egenskaper hos varelser, verkar även gälla för AI, åtminstone för vissa. Googleanställde Blake Lemoine är ett strålande exempel på Humes teori i praktiken. I somras publicerade Lemoine en transkribering av ett samtal med LaMDA, en chattbot utvecklad av Google. I samtalet diskuterar chattboten existentiella frågor där boten bland annat påstår att den är rädd för att någon ska stänga av programmet. Lemoine hävdade senare i en intervju att chattboten “vaknat till liv” och nått självmedvetenhet. Vilket ledde till att han fick sparken, med omedelbar verkan. I ett uttalande till Washington Post säger Google om händelsen:

“Our team – including ethicists and technologists – has reviewed Blake’s concerns per our AI Principles and have informed him that the evidence does not support his claims. He was told that there was no evidence that LaMDA was sentient (and lots of evidence against it).”

Språkmodeller som Klara och LaMDA lär sig representationer av världen genom sin träningsdata, texter som är producerade av oss människor. Det är stora mängder text från internets alla hörn. Inklusive internets mörka bakgator. Sociala fördomar, maktförhållanden och stereotyper är därmed ständigt närvarande i stora språkmodeller, som ett resultat av de enorma mängder textdata som behövs för modellutveckling. En nödvändighet för att säkert kunna distribuera Klara på Liljevalchs och språkmodeller generellt är att filtrera bort vissa termer och ord baserat på tillämpningskontexten. Min uppgift inför utställningen blev att så kallat “stress-prompta” Klara, ett sätt att provocera fram oönskat beteende, för att förstå vad som genererade fram toxiskt innehåll. Men framför allt blev mitt arbete att göra research kring vilka olika etiska riktlinjer AI-forskare förhåller sig till vid skapandet av generativa språkmodeller när det kommer till toxiskt innehåll.

I takt med att artificiell intelligens blir kraftfullare och används inom alltfler områden, växer ett behov av både filosofisk och etisk reflektion kring utveckling. För att förstå träningsdatan och frågor som rör representativitet, jämlikhet och etik (eller medvetenhet för den delen) krävs både humanistisk och samhällsvetenskaplig kompetens. Frågor och utmaningar som är för stora och för viktiga att överlåtas till programmerare ensamma. I nästa inlägg tänkte jag skriva om ett annat pågående projekt som adresserar dessa frågor och utmaningar.

/Saga

You can follow any responses to this entry through the RSS 2.0 Both comments and pings are currently closed.