Inrikes

Hotet från AI – lurar både öga och öra

Staffan Erfors
Staffan Erfors
loadingPresident Zelenskyj blev utsatt för en deepfake. Foto: Olivier Douliery/AFP/Getty Images
President Zelenskyj blev utsatt för en deepfake. Foto: Olivier Douliery/AFP/Getty Images

Deepfake-tekniken gör det möjligt att skapa falska videor och röster som är nästan omöjliga att skilja från verkligheten. Med AI:s hjälp hotas tilliten och demokratin – och vår syn på sanningen.

Deepfakes – hyperrealistiska förfalskningar av ljud, video och bilder – har snabbt blivit ett av vår tids mest laddade teknologiska fenomen. Bakom dessa illusioner döljer sig avancerad AI, särskilt tekniken deep learning, som möjliggör manipulation av verkligheten på ett sätt som tidigare varit science fiction.

Men vad betyder detta för samhället, demokratin och vår förmåga att skilja på sant och falskt? Och hur skyddar vi oss?

Så fungerar deepfakes med AI

Deepfakes är en form av artificiell intelligens (AI) som används för att skapa manipulerade bilder, videor eller ljudklipp som ser äkta ut och låter äkta, men som i själva verket är falska. Tekniken bygger på maskininlärning, särskilt en metod som kallas ”generative adversarial networks” (GAN). GAN består av två neurala nätverk som samarbetar: Det ena skapar falskt material, medan det andra försöker avgöra om det är äkta eller inte. Genom att tävla mot varandra blir resultatet gradvis mer realistiskt.

För att skapa en deepfakevideo tränas AI:n på stora mängder bilder eller videoklipp av en persons ansikte i olika vinklar och ljusförhållanden. Därefter kan AI:n ”klistra” in det ansiktet på någon annans kropp i en video, vilket ger intrycket av att personen säger eller gör något som aldrig hänt. Det används också för att manipulera röster med hjälp av röstsyntes.

Även om tekniken har positiva användningsområden, till exempel inom film och spelutveckling, väcker den också allvarliga etiska frågor.

Kvalitetsjournalistik – så arbetar Svenska Epoch Times

Svenska Epoch Times är opartisk och tar inte politisk ställning. Publicerat material ska vara sant. Om vi har gjort fel ska vi skyndsamt rätta det.

Vi vill med vår sammantagna rapportering ge ett bredare perspektiv på samtidens relevanta frågor. Detta innebär inte att alla artiklar alltid ger ”båda sidor”, framförallt inte korta artiklar eller intervjuer där intentionen endast är att rapportera något som hänt just nu.

Vi är medlemmar i TU – mediehusens branschorganisation. Här finns de pressetiska reglerna vi följer.

Staffan Erfors
Staffan Erfors
Feedback

Läs mer

Mest lästa

Nyhetstips

Har du tips på något vi borde skriva om? Skicka till es.semithcope@spit

Inrikes

Hotet från AI – lurar både öga och öra

Staffan Erfors
Staffan Erfors
loadingPresident Zelenskyj blev utsatt för en deepfake. Foto: Olivier Douliery/AFP/Getty Images
President Zelenskyj blev utsatt för en deepfake. Foto: Olivier Douliery/AFP/Getty Images

Deepfake-tekniken gör det möjligt att skapa falska videor och röster som är nästan omöjliga att skilja från verkligheten. Med AI:s hjälp hotas tilliten och demokratin – och vår syn på sanningen.

Deepfakes – hyperrealistiska förfalskningar av ljud, video och bilder – har snabbt blivit ett av vår tids mest laddade teknologiska fenomen. Bakom dessa illusioner döljer sig avancerad AI, särskilt tekniken deep learning, som möjliggör manipulation av verkligheten på ett sätt som tidigare varit science fiction.

Men vad betyder detta för samhället, demokratin och vår förmåga att skilja på sant och falskt? Och hur skyddar vi oss?

Så fungerar deepfakes med AI

Deepfakes är en form av artificiell intelligens (AI) som används för att skapa manipulerade bilder, videor eller ljudklipp som ser äkta ut och låter äkta, men som i själva verket är falska. Tekniken bygger på maskininlärning, särskilt en metod som kallas ”generative adversarial networks” (GAN). GAN består av två neurala nätverk som samarbetar: Det ena skapar falskt material, medan det andra försöker avgöra om det är äkta eller inte. Genom att tävla mot varandra blir resultatet gradvis mer realistiskt.

För att skapa en deepfakevideo tränas AI:n på stora mängder bilder eller videoklipp av en persons ansikte i olika vinklar och ljusförhållanden. Därefter kan AI:n ”klistra” in det ansiktet på någon annans kropp i en video, vilket ger intrycket av att personen säger eller gör något som aldrig hänt. Det används också för att manipulera röster med hjälp av röstsyntes.

Även om tekniken har positiva användningsområden, till exempel inom film och spelutveckling, väcker den också allvarliga etiska frågor.

Kvalitetsjournalistik – så arbetar Svenska Epoch Times

Svenska Epoch Times är opartisk och tar inte politisk ställning. Publicerat material ska vara sant. Om vi har gjort fel ska vi skyndsamt rätta det.

Vi vill med vår sammantagna rapportering ge ett bredare perspektiv på samtidens relevanta frågor. Detta innebär inte att alla artiklar alltid ger ”båda sidor”, framförallt inte korta artiklar eller intervjuer där intentionen endast är att rapportera något som hänt just nu.

Vi är medlemmar i TU – mediehusens branschorganisation. Här finns de pressetiska reglerna vi följer.

Staffan Erfors
Staffan Erfors
Feedback

Svenska Epoch Times

Publisher
Vasilios Zoupounidis
Politisk chefredaktör
Daniel Sundqvist
Opinionschef
Lotta Gröning
Sportchef
Jonas Arnesen
Kulturchef
Einar Askestad

Svenska Epoch Times
DN-skrapan
Rålambsvägen 17
112 59 Stockholm

Epoch Times är en unik röst bland svenska medier. Vi är fristående och samtidigt en del av det stora globala medienätverket Epoch Media Group. Vi finns i 36 länder på 23 språk och är det snabbast växande nätverket av oberoende nyhetsmedier i världen. Svenska Epoch Times grundades år 2006 som webbtidning.

Epoch Times är en heltäckande nyhetstidning med främst riksnyheter och internationella nyheter.

Vi vill rapportera de viktiga händelserna i vår tid, inte för att de är sensationella utan för att de har betydelse i ett långsiktigt perspektiv.

Vi vill upprätthålla universella mänskliga värden, rättigheter och friheter i det vi publicerar. Svenska Epoch Times är medlem i Tidningsutgivarna (TU).

© Svenska Epoch Times 2025