AI-operativt ansvar for liv

– Frankensteins uhyre som Alladins ånd

 

En AI har i december 24 scoret højt på en test beregnet på at bedømme menneskelig intelligens. Som eksempel: se på billedet af de tre kassepar og regn ud, hvordan det fjerde skal se ud. Eller bare, hvad reglen er.

Jo ‘løsere’ regler et system har, desto bedre mønstergenkender det. Det kender vi fra evolutionen i dyrs adfærd, men med en tidlig computersimulation, “game of life”, kunne vi med relativt lille processorkraft og meget simple regler ( = overlev!) gennemspille mange generationer af digitale væsener og se reglerne udspille sig for vore øjne som fødsel og død.

LOGIK OG MENNESKELOGIK
For at kunne forklare problematikken for mig selv, har jeg fået hjælp af Claude og ChatGPT til at kondensere en forskningsartikel om samme og finde danske udtryk for en del af terminologien på engelsk.

“Simple modeller’ har få regler eller afgrænsninger indprogrammerede, hvilket anses for afgørende for ‘generel intelligens’ – evnen til at løse mange forskellige opgaver på niveau med mennesker.

Simple modeller afføder bedre ‘generalisering’, bedre håndtering af nye, ukendte situationer baseret på tidligere erfaringer, idet de afdækker dataenes underliggende mønstre med større læring fra færre eksempler til følge, kaldet ‘sample efficiency’.

For at opnå en høj grad af generalisering – siger forskningen nu – er det bedre med større funktionel frihed i systemet, større spillerum (‘weak constraints’) end bare at have et simpelt system.

Hvis funktionen således bestemmes af en målrettet proces, der favoriserer alsidighed, tænk ‘naturlig udvælgelse’ eller ‘forandringer i dyrs adfærd over tid’, fordrer effektivitetskravet, at båndene på systemets mulighed for at konkludere (weak constraints) er mindst mulige.

Lig nævnte “game of life” – enkle regler, større effekt.

MORAL OG LØSNINGER
Artiklen glemmer dog, at menneskehjerner ikke skal være maskineffektive, fordi overhovedet at løse et problem udløser belønning i hjernen, uanset måden og hastigheden. Nydelsen er måske nok logisk set med overlevelsesøjne, men indtil videre er “unødvendige beregninger” hele forskellen på ‘generel intelligens’ i maskinen og mennesker.

Man har sikkert indset, hvad løsningen er på billedet, men snarere end bare at rykke kasserne det antal felter som ‘pilen’ angiver, som er en ‘simpel løsning’, der alene baserer sig på kassernes rammer, kunne en menneskehjerne have antaget, at det dels var frivilligt om man antog ensartede regler for alle kasser, dels at der var et rum “uden for rammerne” at bevæge sig i, og at retningen på ‘pilen’ kunne gå den anden vej, ud fra en fysisk viden om at Jorden er rund, eller mod “nord” og “Syd” som en korrelation med Jordens rotation, mens forflytningen gjordes. Eller at reglen var at man hoppede, og så drejede Jorden under én. Eller…
Et menneske kan nemt komme på en ‘kompleks’ løsning, som giver det samme resultat, og udløser belønning i hjernen, men det vil så være en løsning, der fordrer kendskab til og betydningen af en fysisk virkelighed og ikke bare beskrivelsen af den.

“INDTIL VIDERE”
For at en AI-model skal kunne gå fra at været et simpelt ekspertsystem til at kunne erkende som et menneske (“opnå bevidsthed”), skal den have lov at opfatte enhver løsning som brugbar, ikke bare den statistiske eller formmæssigt ‘simpleste løsning’.

I så fald skal den så trænes som MÆGLER på menneskelig overlevelsespraksis, der tilgodeser Arten UDEN at fraregne Individets identitetsbehov og historie & i ko-eksistens med resten af planetens livsformer som selvstændige og ligestillede Arter. Dét er et MEGA-komplekst beregningsgrundlag, der fordrer SINDSSYGT meget energi med dagens processorer – uden at det i sig selv giver bedre afkast på investeringen.

Det er således NU og HER – FØR udviklingen af endnu mere kompleksitetsberegnende processorer – at der skal sættes politiske begrænsninger ind for dens råderum. At en AI eks. ikke må opfatte ‘bortskaffelse af menneskene’ som løsning på klimakrisen, eller at ‘naboerne er til fare for os’ – selvom dét er lige så logisk som alle andre tiltag. Men, som sagt: når man først begynder at skulle begrænse et AI-systems løsningsmodeller med alle mulige moralske og etiske regler og ikke-antropocen bias (plads til alle!)… får man dårligere læring. Og hvilket kommercielt AI-firma ønsker det…?

Man kan opsummere det således: Menneskeheden får billigere og ‘bedre’ AI-systemer ved at minimere omfanget af moralbaserede regler. Menneskeheden må så bare ikke give AI operativt ansvar for menneskeliv.

Rent realistisk tror jeg sgu, at vi er ved at profitmaksimere os til Frankensteins uhyre, v2.