I ljuset av den växande hotbilden mot Sverige varnar Säkerhetspolisen (SÄPO) nu för spridningen av falsk och vilseledande information på internet. Hotet kommer inte bara från traditionella källor utan även från den ökande användningen av artificiell intelligens (AI) för att skapa och sprida felaktiga uppgifter. Magnus Mähring, professor på Handelshögskolan, ger insikter kring hur AI kan användas för att bekämpa denna växande hotbild.
Många oroar sig över den lavinartade utvecklingen som skett inom AI och vad detta kommer ha för konsekvenser för vår framtid. Den enkla tillgängligheten gör det nu möjligt för vem som helst att skapa och sprida falsk information och detta är givetvis ett stort hot mot vår säkerhet.
I en intervju med Magnus Mähring, professor i entreprenörskap och innovation på Handelshögskolan diskuterar vi vad man kan göra för att skydda sig själv och hur han tror att framtiden kommer att se ut.
AI som verktyg för att särskilja manipulerat innehåll
Det har diskuterats om huruvida man kommer kunna använda sig av AI även för att urskilja om en källa är sann eller falsk och Magnus Mähring föreslår att man kan utveckla algoritmer baserade på machine learning och mönsterigenkänning för att särskilja manipulerat innehåll från autentiskt. Detta säger han dock är ett spekulerande svar men menar att det borde vara möjligt.
När det gäller hotet från deepfakes och avancerad AI är Mähring försiktig och påpekar att utvecklingen har gått snabbare än förväntat de senaste åren. Han håller med om risken att det i framtiden kan bli svårt att skilja på äkta och förfalskat material.
”Under de senaste 2 åren har utvecklingen gått mycket snabbare än vi trott. De flesta experter har blivit överrumplade över hur snabbt framför allt generativa AI verktygs kapacitet har utvecklats och hur snabbt de blivit så kraftfulla. Det finns väl en risk att om det fortsätter kommer det bli allt svårare att skilja äkta information från falsk”, säger Magnus.
Sverige ligger efter
Magnus Mähring understryker även det samhällsproblem som uppstår när så många människor har tillgång till och kan generera vilken information de vill. Han betonar behovet av att öka vår förståelse för den information och de medier vi konsumerar och bli bättre på att verifiera information.
”Vi måste lära oss att vara skeptiska och bli bättre på att verifiera information. Det är bara att kolla ut i världen för att se att vi ligger efter i den utvecklingen av mänsklig, social och samhällsförmåga för att kunna göra den typen av bedömningar”, säger Magnus Mähring.
ChatGPT som källkritik
På frågan om redan existerande program, som ChatGPT, kan användas för källkritik varnar Mähring för AI:s tendens att hallucinera och föreslår istället att man förlitar sig på online fact-checking och triangulering av information från flera källor.
När det gäller framtiden för ocensurerad tillgänglighet till AI-program som ChatGPT är Mähring tveksam till möjligheten att införa effektiva restriktioner. Han betonar fördelarna med att många människor använder dessa verktyg för att öka motståndskraften mot desinformation men noterar också utmaningarna med att reglera eller övervaka deras användning online.
Sammanfattningsvis är AI och de potentiella riskerna det innebär fortfarande såpass nya att det är svårt att förutspå exakt vad framtiden kommer innehålla. De viktigaste att fokusera på är att hålla sig själv uppdaterad och medveten om vad man själv kan göra för att faktakolla information.
Nedan kommer några användbara riktlinjer för att kunna avgöra om information på internet är falsk:
- Stämmer det, är det rimligt?
- Går det att kontrollera via andra källor?
- Vem är avsändaren, är det en trovärdig källa?
- Hur gammal är informationen, är den fortfarande relevant?
- Varför sprids informationen, finns det någon som tjänar på det?
Text: Dea Lilliestierna
Intervju: Edvin Wassberg