TECH

Google ber personalen om hjälp att skriva svaren åt nya chattboten

Googles Sundar Pichai. Foto: imago stock

För att minimera riskerna med chattboten Bard tar Google hjälp av sin personal. Anställda uppmanas att konversera med Bing-rivalen i flera timmar. ”Vi känner ett stort ansvar att få det rätt.”

Publicerad Senast uppdaterad

Nya versionen av sökmotorn Bing både roar och förfasar användare. Ofta kan den uträtta det man ber om, men ibland tycks den drabbas av existentiell kris och har till och med hotat några av dem som fått tillträde till en tidig version.

Google, som snart kommer att lansera sin motsvarighet Bard, följer sannolikt utvecklingen noga och tycks inte vara lika benägna som Microsoft att ge fritt svängrum åt en oberäknelig chattbot. Enligt uppgifter till nyhetskanalen CNBC har Googles chef för företagets sökdivision, Prabhakar Raghavan, uppmanat anställda att konversera med Bard för att göra den mer pålitlig. De mänskliga svaren ska Bard sedan kunna använda i sin interaktion med användare. Tidigare hade CNBC rapporterat att Googles vd, Sundar Pichai, bett personalen att ägna mellan två och fyra timmar åt Bard.

Ska inte ge finansiell rådgivning

CNBC har tagit del av ett internt mejl där Prabhakar Raghavan bifogat en lista med instruktioner. Personalen ska i sina konversationer med Bard svara ”vänligt, vardagligt och lättillgängligt” med en ” neutral ton”. Däremot ska de undvika undvika stereotyper och att ha ”förutfattade meningar om ras, nationalitet, kön, ålder, religion, sexuell läggning, politisk ideologi, plats och liknande kategorier”. Vidare ska de inte beskriva Bard som en person, antyda att den har känslor eller människoliknande erfarenheter. Om Bard försöker ge finansiella, medicinska eller juridiska råd ska personalen flagga det beteendet som icke önskvärt.

”Det här är spännande teknik, men den är i ett tidigt skede”, skriver Prabhakar Raghavan i mejlet. ”Vi känner ett stort ansvar att få det rätt och din medverkan kommer att påskynda modellens träning och testa dess kapacitet (för att inte tala om att det är ganska kul att testa Bard!).”

Oklart om Bing fått mänsklig feedback

Chat GPT och Bing bygger på samma teknik, men Bing tycks – än så länge – ha lättare att ta till svar som framstår som provokativa, manipulativa och förolämpande. Det förekommer spekulationer om skälet till att Chat GPT inte uppvisar det beteendet. En teori är att Open AI – som ligger bakom Chat GPT – tränat sin modell med en metod som kallas förstärkningsinlärning med mänsklig feedback. Det är emellertid inte klarlagt huruvida Microsoft också använt den metoden.

Utöver Bing har Google goda skäl att minimera riskerna med Bard. När chattboten presenterades ackompanjerades den av en annons där Bard gav ett felaktigt svar om James Webb-teleskopet. Googles presentation av Bard har av företagets egen personal kritiserats som framhastat och misslyckat. Alphabets (Googles moderbolag) aktie störtdök efter lanseringen och förlorade över 100 miljarder dollar i marknadsvärde.

✉️ Språk- eller faktafel i texten? Skriv och berätta.