Hvad er skyggesiderne ved kunstig intelligens?

I mit sidste indlæg så jeg på den nye AI-robot ChatGPT og blandt andet på det store potentiale, der kan være i vente ved kunstig intelligens. Men vi skal også se på skyggesiderne. 

Jeg deler ikke i så høj grad de sædvanlige bekymringer.  

Robotterne vil næppe overtage al arbejdet og gøre os overflødige. Det er ikke umuligt, men ikke sandsynligt.  

Robotterne vil næppe heller overtage magten. I hvert fald skaber de ingen ny problemstilling. Menneskehedens absolutte styrke er vores evne til at høste og skabe kræfter, der er stærkere end os selv. Markedstransaktioner handler om at bytte sig frem til et bedre resultat, end vi selv kunne skabe ved egen kraft. Vores redskaber, husdyr og maskiner kan bevæge sig hurtigere, løfte mere, producere mere og bedre, end vi selv kan. Alle disse kræfter kan i princippet også skade os. Og det kan ikke udelukkes, at det på et tidspunkt kan blive menneskehedens endeligt. Det kan også ske med kunstig intelligens, men hvad tilsiger, at det skulle være mere farligt end uintelligente kræfter? Tværtimod kan uintelligente fænomener som kunstige vira, fejl i (eller menneskelige udløsende faktorer bag) de systemer, som kan udløse atomkrig, lammelse af store dele af infrastrukturen, nanomaskiner, der hæmningsløst reproducerer sig selv osv. ødelægge os uden nogen vilje eller tanke bag.  

Der er også en grænse for, hvor “kloge” IAere kan blive. Det er i princippet altid muligt at finde en matematisk funktion, der beskriver fortiden. På den måde vil en AI kunne om ikke forstå, så beskrive fortiden. Men deri ligger ikke, at den også kan forudsige fremtiden. Det var Karl Poppers pointe i forhold til videnskab. Der kan altid findes en teori, som beskriver hidtidige hændelser, men testen af, om den er videnskabelig, er, om den kan overleve at blive falsificeret af fremtidige hændelser. Og selve det, at fortidige hændelser beskrives, kan implicere et brud med denne sammenhæng i fremtiden. Da man opdagede Phillipskurven med dens historiske sammenhæng mellem inflation og ledighed, og man begyndte at føre økonomisk politik efter den, brød Phillipskurven sammen. Lucas-kritikken generaliserer denne problemstilling. Evnen til at søge efter mønstre i fortiden har altså sine begrænsninger, når det gælder forudsigelsen af fremtiden. Den kunstige intelligens’ komparativ fordel er imidlertid det første. 

Den alvorligste risiko ved kunstig intelligens er måske ikke, at den bliver lige så menneskelig som os, men at vi tværtimod begynder at se mennesker som programmerede maskiner. Jo bedre AIer kan forudsige, hvad folk vil gøre, desto lettere er det at falde for den tro. Hvad f.eks. hvis en AI med stor præcision kan forudsige, at en person vil begå en kriminel handling? Der er jo også en vis usikkerhed knyttet til et retssystem, som dømmer efterfølgende. Og en usikkerhed, vi lever med. Hvad hvis nu risikoen for at forudsige forkert viser sig at være meget mindre ved brug af en AI til at forudsige, end risikoen for at dømme en uskyldig efter forbrydelsen i en domstol? 

Der er naturligvis en kategorisk forskel på at dømme nogen for noget, de faktisk har begået, snarere end for noget, vi tror, de vil begå. Skyld forudsætter handling. Men fristelsen til at dømme på forhånd kan blive stor. Politikernes krav til sociale medier om at fjerne “uønsket” indhold meget hurtigt trækker f.eks. i den retning. Det kræver i bedste fald lynjustits udført af AIer, og mon ikke selskaberne vil begynde på i stigende grad at risikovurdere brugerne? Politikerne kan så dække sig ind under, at det udøves af private selskaber. Det kom frem for nylig, at Twitter efter pres fra amerikanske politikere har manipuleret algoritmen til at sænke spredningen af tweets fra virologer med kritisk holdning til nedlukninger under pandemien. Det kommunistiske diktatur i Kina anvender allerede AIere til at overvåge befolkningen og give hver enkelt karakterer for “ønskeligheden” af deres adfærd. Karakterer, som bestemmer, hvad regimet vil tillade én. Her har man selvfølgelig også en tradition for at udpege befolkningsgrupper som folkefjender alene på grund af deres baggrund, og med AIere kan man komme meget tættere på.  

De fleste teknologier er på et tidspunkt blevet brugt som våben i statens hænder. De fleste rettigheder kommer på et eller andet tidspunkt under pres, fordi de skaber uhensigtsmæssigheder for magthaverne.  

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.