ANNONS FRÅN AWS
Så förbereder du företaget på generativ AI
De stora teknologiska skiftena i historien – som den första tv-sändningen, internets framväxt och de första stegen ut i rymden – upphör aldrig att inspirera och fascinera oss. Gemensamt för alla dessa framsteg är att de gjorde företeelser som tidigare betraktades som mystiska och esoteriska till först något påtagligt, och sedan till något allt mer vardagligt. Det senaste exemplet på den sortens framväxande teknologi är generativ AI.
Detta är en annons. Den är inte skriven av Ny Tekniks redaktion. Vid eventuella synpunkter, vänligen vänd dig till annonsören.
Generativ AI är en typ av artificiell intelligens som kan skapa nytt innehåll och nya ideer, från konversationer och berättelser till bilder, filmer och musikstycken. Dessa möjliggörs av väldigt stora modeller som bygger på maskininlärning (vanligtvis förkortat ML), och som i förväg tränats på jättelika mängder data. De kallas Foundation Models (FM) men brukar på svenska även kallas basmodeller.
Amazon har investerat i och använt basmodeller under flera år inom en rad områden, exempelvis för att förbättra sökfunktionen på e-handelssajten amazon.com eller för att kunna föra verklighetsnära samtal med vår digitala assistent Alexa.
På Amazon Web Services (AWS) har vi lagt fokus på att tillgängliggöra tekniken för fler verksamheter inom nya områden. Idag handlar de samtal vi har med kunder om att använda generativ AI för att exempelvis bidra till innehållsproduktion inom medievärlden, utveckling av nya produkter och affärsprocesser nom bank och finans, prediktivt underhåll av maskinparker inom tillverkningsindustri, intelligent kundrådgivning inom flera olika branscher och mycket mer.
Potentialen är enorm, men den snabba utvecklingstakten gör också att många företagsledare har svårt att se hur och var man ska börja sin AI-resa. Här är några saker att tänka på när du formulerar din strategi – och några av de lösningar AWS har utvecklat för att förenkla resan:
Börja tänka på användningsområden
Uttrycket ”förälska dig i utmaningen, inte i lösningen” passar bra in här. Det påminner oss om att även om teknik är en fantastisk möjliggörare är det också inget annat än en ny uppsättning verktyg som vi kan tillämpa för att lösa problem.
Vilka tidsödande, komplexa eller rentav omöjliga problem skulle generativ AI kunna hjälpa dig med att lösa? Börja i den änden. Var inte rädd för att tänka stort om möjligheterna – för de är stora - men som en startpunkt kan det vara bra att börja i det lilla och det vardagliga, i de moment som skapar mikrostress och spiller lite tid, men många gånger per dag, för många medarbetare. Det är den administrativa motsvarigheten till att skära sig på ett papper.
Om dessa vardagsbesvikelser kan automatiseras bort frigörs tid att lägga på mer värdefulla uppgifter, och det bidrar också till att skapa en bättre förståelse för hur AI kan hjälpa verksamheten. Exempelvis använde Accenture verktyget Amazon Code Whisperer, vars basmodell används för att skapa förslag på programmeringskod, för att minska tidsåtgången för utveckling med upp till 30 procent och nya insikter i generativ AI:s förmåga att främja produktivitet, som sedan kan tillämpas på fler utmaningar.
Experimentera med lösningar och modeller
Amazon har utvecklat AI-applikationer, som till exempel vårt rekommendationssystem för e-handel, i över 20 år vid det här laget. En viktig lärdom är att det bästa sättet för att skapa förståelse för AI – för vi måste förstå AI för att kunna förbättra den – är att ett brett utbud av människor, med olika kunskaper, behov och ingångsvärden, ska ha tillgång för att experimentera, lösa problem och skapa nya färdigheter.
Sedan vi släppte Amazon SageMaker 2017 har vi löpande lanserat en mängd ML- och AI-tjänster med målet att göra tekniken mer tillgängligt. Vi har tagit nästa steg i det arbetet genom lanseringen av Amazon Bedrock, en ny tjänst som gör det möjligt att använda basmodeller från Amazon och ledande AI-startups, som AI21 Labs, Anthropic och Stability AI, genom ett gemensamt utvecklingsgränssnitt, en API.
Bedrock gör det enklare för kunder att bygga och skala upp AI-applikationer. Genom att erbjuda ett brett utbud av basmodeller skapar man bättre förutsättningar att lösa problemet att en enda lösning eller modell sällan är bäst lämpad att lösa alla utmaningar. Vissa basmodeller är specialiserade på att ta fram texter, andra är specialiserade på bilder, och så vidare.
Anpassning gör skillnaden
För många verksamheter kommer de egna, proprietära data man har tillgång till vara den främsta förutsättningen för att skapa värde av AI-tjänster. Data är idag en av verksamhetens mest värdefulla tillgångar – det är ingen tillfällighet att det ofta benämns som ”det nya guldet”. Dina egna data är vad du använder för att finjustera existerande modeller för att vara skräddarsydda för de egna behoven och användningsområdena. Med Bedrock är det enkelt för kunder att anpassa modeller. Det är bara att peka på några namngivna exempel som är lagrade, så kan tjänsten anpassa modellen i detalj för en särskild uppgift utan att behöva katalogisera stora datavolymer. Kunder kan också konfigurera inställningarna i molnet för att göra dessa finjusteringar på ett säkert sätt, med alla deras data krypterade.
Data är grunden – bygg den stark
Det är en gammal sanning att ett pampigt hus som är byggt på en svag grund kommer inte att överleva tidens tand. Samma sak gäller i ML-världen. Med generativ AI är kvaliteten på tillgängliga data viktigare än kvantiteten – om den rådata du använder för att finjustera dina maskininlärningsmodeller innehåller fel, så kan de felen påverka det innehåll och de förutsägelser som genereras.
Att säkerställa att den data som matas in är relevant, komplett och korrekt kan ta mycket tid, ibland veckor. Det är anledningen till att vi skapat en lösning i Amazon SageMaker som låter dig slutföra samtliga steg av dataförberedelsen, från urval, utforskning och felsökning till rensning och visualisering, på bara några minuter.
Förstå infrastrukturens roll
Oavsett vad du försöker uppnå med dina basmodeller genom att bygga, anpassa och driva dem, behöver de högpresterande, kostnadseffektiv och ändamålsenlig infrastruktur. Om den pusselbiten saknas är det inte möjligt för de allra flesta verksamheter att uppnå praktisk nytta av generativ AI.
Under de senaste tio åren har vi invensterat i att bygga egen hårdvara för att förflytta gränserna för vad man förvänta sig i fråga om prestanda och kostnadseffekivitet för krävande processer. Våra chip AWS Trainium och AWS Inferentia erbjuder hög prestanda och låg kostnad för att träna modeller med data och lära dem dra slutsatser.
Dröm bortom dagens gränser
Sist men inte minst – närma dig generativ AI med ett öppet och nyfiket sinne, och tillåt dig själv att känna spänd förväntan. Det här är bara början av vad vi tror kommer att vara nästa våg av maskininlärning, med en kraft att ge oss alla nya förmågor och möjligheter. Och vi ser det som vårt uppdrag att göra det möjligt för alla verksamheter, oavsett storlek, och för alla utvecklare, oavsett förkunskaper, att ta vara på de möjligheterna.
Lär dig mer om generativ AI med AWS.
Besök vår hub för att läsa hela serien “Reinventing with the cloud”.