DEBATT
”Reglering av ai skyddar inte barn mot skadligt innehåll”
DEBATT. Barn och unga kommer alltmer i kontakt med generativ ai i form av chattbotar, virtuella assistenter och ai-influerare. Men nuvarande EU-reglering skyddar inte tillräckligt mot de negativa sidorna av ai, skriver Heidi Lund, Kommerskollegium.
Det här är en debattartikel. Åsikterna som framförs är skribentens egna.
Det talas vitt och brett om att Sverige inte får missa ai-tåget. Ur ett innovations- och konkurrensperspektiv är det förståeligt. Ai-utvecklingen skapar enorma möjligheter – nya tekniska lösningar, produkter och tjänster, samt en potential för effektivisering, även av viktiga samhällsfunktioner.
Medvetenheten är utbredd kring att ökad användning av digital innovation innebär komplexa risker. Hela världen söker febrilt efter sätt att hantera dessa, framför allt genom nya regleringar. EU:s AI-akt är banbrytande då den skapar harmoniserade krav för ai i hela Europa. Ansatsen är ambitiös, men skiljer sig från andra marknader.
Nuvarande regelverk skyddar inte effektivt mot skadligt innehåll som påverkar barns motoriska och kognitiva utveckling. Inte heller erbjuder det ett tillräckligt skydd mot beroendeframkallande algoritmer.
Ai är komplext att reglera som teknik – riskerna varierar kraftigt mellan olika användarområden och användare och konsumenter. Hur barn och unga påverkas är en fråga som måste tas på allvar. Svenska företrädare måste gå i bräschen och driva den aktivt på EU-nivå. Det är påfallande tyst om saken från ett konsumentskyddsperspektiv i Sverige.
Digital reglering skiljer sig markant från traditionell reglering av icke-digitala och icke-uppkopplade varor. Egenskaperna hos digitala produkter, även de säkerhetskritiska, kan förändras under hela produktens livscykel, särskilt genom mjukvaruuppdateringar.
Digitala risker påverkas också av komplexa leverantörskedjor, vilket gör ansvaret diffust. Därtill påverkas digitala varor av cybersårbarheter som kan vara svåra att upptäcka och åtgärda i tid, både för företagen själva och myndigheter. Kommerskollegiums rapport om innovation, ai, teknisk reglering och handel lyfter dessa utmaningar.
Diskussionen kring ai-risker i medier kretsar ofta kring falsk information, personlig integritet samt ai:s påverkan på utbildning och sysselsättning. Något som har kommit i skymundan är de samhälleliga riskerna, särskilt när det gäller barn och ungdomar.
Unga har i dag, via mobiler och datorer, tillgång till digitalt innehåll som de inte alltid kan förstå eller bearbeta på samma sätt som vuxna, särskilt utan tillsyn. Barn och ungdomar kommer också alltmer i kontakt med generativ ai via plattformar och verktyg som chattbotar, virtuella assistenter, sociala medier, spel, virtuella influerare och utbildningsverktyg. Det är en kraftfull teknik som kan bidra till kreativitet, lärande och underhållning. Samtidigt finns risker kopplade till desinformation, i exponering för manipulerande eller olämpligt innehåll.
Vissa chattbotar har syftet att hålla användaren engagerad, vilket kan leda till överdriven användning och beroende. Brist på social interaktion kan över tid hämma utvecklingen av empati och förståelse för andras känslor och kroppsspråk. Bristfälligt programmerade chattbotar kan sprida felaktig information, påverka barns förståelse av olika ämnen och leda till en tillit till felaktiga källor samt hämma förmågan att kritiskt granska information.
Lagstiftning som den europeiska förordningen om leksakers säkerhet och förordningen om digitala tjänster finns, men dessa beaktar inte långsiktiga effekter av användningen av digitala produkter och tjänster bland barn och ungdomar.
Nuvarande regelverk skyddar inte effektivt mot skadligt innehåll som påverkar barns motoriska och kognitiva utveckling. Inte heller erbjuder det ett tillräckligt skydd mot beroendeframkallande algoritmer som kan bidra till psykisk ohälsa.
Låt mig peka på fyra punkter:
1. Politiska beslut måste baseras på en djupare förståelse för teknologins användning och effekter, inte enbart på ”ai-hajp”.
2. Regleringar har begränsningar kring att garantera säker digital innovation. Kunskapen måste öka på ett brett plan – till exempel genom att specifika ai-användarfall studeras mer noggrant för att förstå olika risker kopplade till användningen både på kort och lång sikt och agera därefter.
3. De samhälleliga riskerna med ai, särskilt för barn och ungdomar, måste prioriteras och utredas ordentligt. Sverige som digitaliserat land med starkt konsumentskydd kan gå i täten för att driva dessa frågor på EU-nivå.
4. Länder med seriöst konsumentskydd bör överväga begränsning eller förbud av användning av mobiler eller andra it-produkter och tjänster för barn under viss ålder.
Verktygen för att kontrollera, spåra och hantera digitala risker genom reglering är långt ifrån färdigutvecklade och har svårt att hinna i kapp de konsekvenser som digital exponering i samhället har för den svagaste, men samtidigt den mest värdefulla, gruppen i samhället – våra barn. Att missa detta kommer varken att vara innovativt eller effektivt.
Heidi Lund, expert på internationellt regulativt samarbete, Kommerskollegium