Kunstig intelligens og deepfake: Er der behov for regulering?

Der har været en del debat om de risici, kunstig intelligens (AI) fører med sig. Jeg tilhører – som Otto, der tidligere beskrevet nogle af skyggesiderne ved kunstig intelligens – den gruppe, der ser langt flere gevinster end omkostninger ved teknologien.

En væsentlig årsag til dette er, at mange af de skrækeksempler, der bliver hevet frem, i mine øjne negligerer menneskelig adfærd. Vi mennesker tilpasser os verden omkring os, og når man tager højde for dette i sine fortællinger om, hvordan AI vil påvirke vores fremtid, bliver mange af skrækscenarierne en del mindre skræmmende.

Menneskers adfærd løser mange af problemerne

Lad mig illustrere min pointe i forhold til den debat, der har været visse steder, om problemerne med deepfakes. Altså materialer – videoer, billeder, lydklip – som man ikke umiddelbart kan se om er ægte. Videoer, billeder og lydfiler, der er så realistiske, at de allerede i dag kan være svære at skelne fra virkeligheden ved et øjekast (se fx AI-billederne af Trumps arrestation her). Og før eller siden bliver det – med den teknologi vi kender i dag – umuligt.

Men. I mine øjne adskiller de nye deepfakes sig ikke væsentligt fra tidligere ”deepfakes”. Skriftsproget har fx i årtusinder givet mulighed for at lave ”deepfakes”, fordi man kan fremvise fx stentavler og hævde, at de var skrevet af en anden og viste dennes tanker og ønsker. I forhold til tiden før skriftsproget, giver skriftsproget derfor helt nye muligheder for, at folk med blakket moral eller onde hensigter kan snyde sine medborgere.

Claus og jeg diskuterede forleden kunstig intelligens i podcasten “Økonomiske principper” (efter ca. 30 minutter). Du kan finde podcasten både på YouTube og i din podcast app.

At der i dag – som ved skriftsprogets fremkomst – er opstået et problem er uomtvisteligt. Men det betyder ikke, at der er behov for regulering, som flere ellers allerede har foreslået. For med nye problemer følger også et stærkt incitament for borgere og virksomheder til at løse problemerne.

Hvordan kan disse løsninger se ud?

Vi stoler mere på dr.dk end på ”Jens Peter Hansen 1980”

Forestil dig fx, at profilen ”Jens Peter Hansen 1980” postede en video, hvor Mette Frederiksen fortalte, at hun havde en plan for at blive diktator over hele Europa. Hvad ville du tænke? Du ville måske tænke, at videoen var for sjov. Eller at Jens Peter havde en skrue løs. Det sidste, du ville tænke var nok, at Mette Frederiksen rent faktisk havde sagt det, og at ”Jens Peter Hansen 1980” på en eller anden måde havde fået fat i videoen. Og hvis du kendte profilen ”Jens Peter Hansen 1980”, ville du sandsynligvis lægge mindre vægt på ting profilen skrev og delte i fremtiden.

Men hvad hvis den samme video blev vist på dr.dk? Selvom jeg er ofte er kritisk overfor DR’s nyhedsdækning, så regner jeg bestemt ikke med, at de direkte opfinder citater og laver falske videoer. Tværtimod regner jeg med, at de sikrer ægtheden af det, de laver (vi så forleden, hvordan et falsk interview med Michael Schumacher skabte stor ravage). Jeg ville derfor som udgangspunkt stole på, at DR’s video var ægte og at Mette Frederiksen rent faktisk havde sagt det.

Troværdighed får større betydning

Forskellen ligger naturligvis i troværdigheden af kilden. ”Jens Peter Hansen 1980” har ingen troværdighed, mens DR har høj troværdighed.

Vi er allerede i en “deepfake”-verden i forhold til det skrevne ord, hvor vi beslutter os for, hvad vi vil stole på, udelukkende baseret på troværdigheden af kilden. Det er fordi, vi er vant til tekstsproget. Vi ved, at det ikke nødvendigvis er Jakob Høyer, der har skrevet under, bare fordi der står Jakob Høyer. Og ligeledes stoler vi ikke på alle citater, bare fordi de er fremstillet som citater. Hvis ”Jens Peter Hansen 1980” citerer Mette Frederiksen, tillægger vi det ikke den store vægt, medmindre vi kan genfinde citatet et sted, vi har tillid til – fx DR.

Jo mere udbredte deepfake videoer, billeder og lydfiler bliver, des mere opmærksomme vil folk blive på, at deepfakes eksisterer. Og derfor vil de være meget mindre tilbøjelige til at tro på tilfældige videoer og lydklip, de ser online. Du vil ikke tro på videoen med Mette Frederiksen, medmindre den kommer fra en troværdig kilde.

Der er en reel omkostning

Omkostningen ved deepfake vil altså næppe primært ligge i, at danskerne bliver mere vildledt end i dag. Men det betyder ikke, at der ikke er reelle omkostninger ved deepfakes.

For hvad nu hvis du får fat i en video, der viser en politiker, som forfalsker en underskrift? Hvordan får du resten af verden til at tro på, at den er ægte? Uden en måde at verificere videoens ægthed på, er der stor sandsynlighed for, at ingen vil tro dig.

Før deepfake kunne en borger sende en anonym video eller lydfil til en journalist på fx DR, og de ville offentliggøre den for verden, fordi den var troværdig. Men med deepfake vil journalisten være langt mere påpasselige. De skal ikke risikere at sætte deres (og måske hele mediets) troværdighed over styr. De vil være tilbøjelige til kun at tro på ting, de selv ser, eller ting de får fra kilder, de kan stole på.

En af omkostningen ved deepfake ligger altså i, at det – i hvert fald med den nuværende teknologi –bliver sværere at fælde bl.a. magthavere, som misbruger deres magt. I fremtiden vil du ikke vide, om lydfilen med politikeren, der forfalsker en underskrift, er ægte. Du vil ikke vide, om den 18-årige piccolines video af den gramsende chef er ægte.

Og når deepfake bliver så let tilgængelig, at alle kan lave videoer af lige hvad de vil – præcis som alle kan skrive lige hvad de vil i dag – vil de fleste mennesker som udgangspunkt antage, at alt, de ser eller hører på internettet, er deepfake, medmindre det kommer fra en troværdig nyhedskilde. Det er allerede standarden for tekst, så der er ingen grund til, at det ikke også kan gælde for lyd, video og billede.

Regulering kan næppe reducere omkostningerne

Vi kan hurtigt blive enige om, at det ville være rart, hvis man kunne stole på de ting, man ser (i hvert fald i de tilfælde, hvor de bliver fremlagt som noget troværdigt). Men vi vil også gerne have de mange gevinster, som deepfake-teknologien medfører. Underholdningen i fremtiden vil sandsynligvis blive ufatteligt meget bedre end i dag (min fantasi strækker kun til at forestille mig film skræddersyet til netop min smag, men virkeligheden vil næsten med garanti overgå min fantasi).

Problemet er, at der ikke er en åbenlys regulatorisk vej ud af deepfake-problemerne. Du kan muligvis forsinke teknologiens udbredelse ved fx at forbyde deepfake apps mv. Men så vil du også gå glip af alle gevinsterne. Og man vil alligevel højst sandsynligt kun kunne udsætte det uundgåelige, fordi der altid vil være lande, hvor teknologien er tilladt.

Derfor vil løsningen på problemet næppe blive regulatorisk, men teknologisk. Med skriftsproget fulgte eksperter, som kunne vurdere, om det fx rent faktisk var Jakob Høyers skrift, eller om underskriften var forfalsket. På samme måde kan man forestille sig teknologier, som kan vurdere, om videoen er ægte (uden at jeg har den teknologiske indsigt til at kunne sige noget om, hvordan det ville fungere). Man kan også forestille sig, at der kommer helt nye former for medier, der ikke kan deepfakes, og som derfor kan overtage den rolle, som videoer, lydfiler og billeder har haft (selvom det også længe har været muligt at snyde med disse medier i forbindelse med bl.a. politisk propaganda). Eller måske vil AI i sig selv blive en del af løsningen og kunne svare på, om fx en video er ægte eller ej.

Men regulering har dog én central rolle

Det betyder ikke, at regulering ikke har en rolle. For der kan være behov for at diskutere, hvor ejendomsretten går. I hvor høj grad ejer man fx sit eget udseende? I dag er det ulovligt at lave ”fake porn”, men hvor går grænsen? Skal det fx være helt ulovligt at manipulere et billede? Hvor meget må det evt. ligne?

Og hvad hvis AI’en bliver så god, at man ikke kun kan lave meget vellignende kopier af vores ydre, men også vores indre? Må man – på baggrund af offentliggjort materiale – lave en kopi af undertegnede, som tænker og formulerer sig næsten præcis som mig? (Allerede i dag kan man få meget bedre svar fra ChatGPT, hvis man beder den svare, som fx Milton Friedman ville have gjort).

Spørgsmål er der nok af, og det er de færreste, hvor man kan sætte en enkel grænse.

Konklusionen er…

Konklusionen er, at alt har en pris. Der vil være enorme gevinster forbundet med deepfake-teknologien, men teknologien vil også være forbundet med omkostninger.

Men som med alle andre problemer vil markedet også her arbejde for at finde en løsning på problemerne. Og derfor bør politikerne holde sig til at regulere borgernes helt centrale rettigheder, som fx ejendomsretten.

Begynder politikerne at regulere udover dette, er der i mine øjne en ikke uvæsentlig risiko for, at de ender med at gøre mere skade end gavn.

5 thoughts on “Kunstig intelligens og deepfake: Er der behov for regulering?

  1. Kjeld Flarup

    Lad nu det ligge at du fremhæver DR som et troværdighedsvidne. Der er i hvert fald en anden Punditokrat, som ofte brokker sig over DR.

    Et scenarie som du ikke kom ind på, var statens misbrug af deep fakes mod borgerne. Noget som en regulering af gode grunde ikke kan ramme, fordi det er ræven som skal vogte høns.

    Og med en nyligt overstået COVID-19 epidemi in mente, så kan man godt forestille sig at AI vil blive brugt for at nudge borgerne “til deres eget bedste”. Punditokraterne har jo lige bragt en historie i den stil https://punditokraterne.dk/2023/05/26/var-mundbindene-vaerre-en-virkningsloese, hvor man sagtens kunne forestille sig at Deep Fakes ville kunne bruges til at få borgerne til at følge myndighedernes anvisninger, selvom man godt ved at anbefalingerne bygger på løgne.

    Lige nu bygger fortællingen om regulering på at konspirationsteoretikere ikke skal bruge det til at sprede deres løgne. Faktum er blot at det er stater, som har ressourcerne til at bruge teknologien. Projekter som OpenAI vil giver borgerne de samme muligheder – derfor skal det reguleres!

    Svar
  2. Jonas Herby

    DR er muligvis meget biased i deres tilgang, men de opfinder næppe citater ud af den blå luft.

    Ift. Statens brug af deepfakes, har du en god pointe. Det bliver et muligvis er problem i diktaturstater mv., og understreger igen hvor vigtig ytringsfriheden er (altså: at du som fx medie må påpege, at staten siger/gør noget forkert)

    Svar
  3. Steffen Sølling

    Med blockchainteknologi kan man i dag tage et digitalt fingeraftryk af nogle data og gemme dem i blockchainen. Det kan bruges som bevis på at de pågældende data eksisterede på det tidspunkt fingeraftrykket blev lagret i blockchainen og er fuldstændig identisk med det der blev taget fingeraftryk af. Se f.eks. https://nchain.com/products/kensei/.

    Den teknologi må kunne bruges til at lave verificerbare timestamps af videooptagelser mm. og sikre mere transparens. Dermed vil optagelser mm uden verificerbare timestamps fremstå relativt utroværdige. Det er en opfindelse medieforbrugere gradvis kan vænne sig til. Det ser jeg meget mere potentiale i end at stole på medier blot fordi de er store (som DR). Nutidens store magthaverstøttede medier vildleder jo nærmest systematisk til fordel for mere magtcentralisering.

    Tre eksempler på at vor tids store massemedier vildleder systematisk:

    De store massemedier ignorerede stort set allesammen oplysningerne på Hunter Bidens laptop der kraftigt antyder en korrupt Bidenfamilie. Se https://www.trykkefrihed.dk/medierne-fortier-skandale-for-at-beskytte-joe-biden.htm.

    De store massemedier skreg i årevis op om Trump-Russia collusion. Virkeligheden var at det var en historie opdigtet fra Hillary Clintons kampagnelejr. Se https://24nyt.dk/intet-nyt-fra-berlingske-fronten/.

    De store massemedier skreg op om at det var nødvendigt at vi alle skulle vaccineres mod COVID-19. Nu er der overdødelighed pga vaccinationerne. Se https://expose-news.com/2023/06/04/bbc-covid-vaccine-blame-2022-worst-year-excess-deaths-half-century/.

    Svar
  4. Jonas Herby Forfatter

    Hej Steffen

    Hvis jeg forstår dig korrekt, så lyder blockchainteknologien som en løsning, ja. Hvis du kan spore optagelsen til et bestemt tidspunkt og bestemt lokation, så vil den i mange tilfælde løse problemet. Det vil være relativt troværdigt, hvis man har et gammelt lydklip af Jon Stephensen, der skriver under med blockchain-historikken. Særligt hvis det kan kobles sammen med andre data (fx at du rent faktisk var på stedet).

    Men så vidt jeg kan se, løser det ikke problemet med “real time” dokumentation. Man kan vel godt oprette falske videoer fra fx krigen i Ukraine og sige, at det blev optaget på koordinat X,Y i dag?

    Anyway. Pointen er vel, at der er et problem, og det vil “markedet” – dvs. folk med mere indsigt i mulighederne end jeg – forsøge at løse (for sådan fungerer markeder – de løser vores problemer). Og blockchainteknologien kan meget vel blive (en del af) den løsning.

    /Jonas

    Svar
  5. Steffen Sølling

    Hej Jonas

    Ja, teknologien forhindrer ikke at nogen laver noget falsk, men der vil nok i fremtiden blive krævet mere dokumentation for at vi tror på ting. F.eks. vil det måske blive standard at fotografen automatisk tidsstempler og signerer sine optagelser i blockchainen. Optagelser uden tidsstempler og signaturer der kan henføres til et rigtigt menneske vil nok blive tillagt mindre troværdighed.

    Mvh
    Steffen

    Svar

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.