AI er ikke klar til å utslette oss... ennå.

Kunstig intelligens har vært et tema for debatt helt siden starten. Mens frykten for at en Skynet-lignende AI kommer til live og tar over menneskeheten er mildt sagt irrasjonell, har noen eksperimenter gitt resultater.

Et slikt eksperiment er bindersmaksimeringsproblemet, et tankeeksperiment som viser at en svært intelligent AI, selv om den er utformet helt uten ondskap, til slutt kan ødelegge menneskeheten.

Papirklipsmaksimeringsproblemet forklart

Dette tankeeksperimentet om at selv en helt ufarlig kunstig intelligens til slutt kunne utslette menneskeheten ble først kalt Paperclip Maximizer ganske enkelt fordi binders ble valgt for å vise hva AI kan gjøre siden de har liten tilsynelatende fare og vil ikke forårsake følelsesmessig nød sammenlignet med andre områder som dette problemet gjelder for, for eksempel å kurere kreft eller å vinne kriger.

Det første eksperimentet dukket opp i den svenske filosofen Nick Bostroms artikkel fra 2003, Etiske spørsmål i avansert kunstig intelligens

instagram viewer
, som inkluderte bindersmaksimering for å vise de eksistensielle risikoene en avansert nok AI kunne bruke.

Problemet presenterte en AI hvis eneste mål var å lage så mange binders som mulig. En tilstrekkelig intelligent AI ville før eller siden innse at mennesker utgjør en utfordring for målet på tre forskjellige måter.

  • Mennesker kan slå av AI.
  • Mennesker kan endre sine mål.
  • Mennesker er laget av atomer, som kan gjøres om til binders.

I alle tre eksemplene ville det vært færre binders i universet. Derfor en tilstrekkelig intelligent AI hvis eneste mål er å lage så mange binders som mulig ville overta all materie og energi innen rekkevidde og hindre seg i å bli stengt av eller endret. Som du sikkert kan gjette, er dette mye farligere enn kriminelle som bruker ChatGPT for å hacke bankkontoen din eller PC-en din.

AI er ikke fiendtlig mot mennesker; det er bare likegyldig. En kunstig intelligens som bare bryr seg om å maksimere antall binders vil derfor utslette menneskeheten og i hovedsak konvertere dem til binders for å nå målet.

Hvordan gjelder papirklipsmaksimeringsproblemet AI?

Forsknings- og eksperimentomtaler av bindersmaksimeringsproblemet nevner alle en hypotetisk ekstremt kraftig optimizer eller en svært intelligent agent som den fungerende parten her. Likevel gjelder problemet AI like mye som det passer perfekt til rollen.

Ideen om en bindersmaksimering ble skapt for å vise noen av farene ved avansert AI, tross alt. Totalt sett gir det to problemer.

  • Ortogonalitetsoppgave: Ortogonalitetsoppgaven er synet på at intelligens og motivasjon ikke er gjensidig avhengige av hverandre. Dette betyr at det er mulig for en AI med et høyt nivå av generell intelligens å ikke komme til de samme moralske konklusjonene som mennesker gjør.
  • Instrumentell konvergens: Instrumentell konvergens er definert som tendensen til de fleste tilstrekkelig intelligente vesener (begge menneskelige og ikke-menneskelige) for å forfølge lignende delmål selv om deres endelige mål kan være fullstendig annerledes. Når det gjelder bindersmaksimeringsproblemet, betyr dette at AI vil ende opp med å ta over hver naturressurs og utslette menneskeheten bare for å nå målet om å skape mer og mer binders.

Det større problemet som fremheves av bindersmaksimering er instrumentell konvergens. Det kan også fremheves ved å bruke Riemann-hypotesen, i så fall kan en AI designet for å løse hypotesen godt bestemme seg for å overta alle Jordens masse og konvertere den til computronium (de mest effektive dataprosessorene mulig) for å bygge superdatamaskiner for å løse problemet og nå sin mål.

Bostrom har selv understreket at han ikke tror at bindersmaksimeringsproblemet noen gang vil være et reelt problem, men hans intensjon var å illustrere farene ved å lage superintelligente maskiner uten å vite hvordan de skal kontrolleres eller programmeres til ikke å være eksistensielt risikabelt for mennesker vesener. Moderne AI-systemer som ChatGPT har også problemer, men de er langt fra de superintelligente AI-systemene det snakkes om i bindersmaksimeringsproblemet, så det er ingen grunn til panikk ennå.

Avanserte AI-systemer trenger overlegen kontroll

Bindersmaksimeringsproblemet når alltid samme konklusjon og fremhever problemene med å administrere et svært intelligent og kraftig system som mangler menneskelige verdier.

Selv om bruk av binders kan være den mest populære metoden for å illustrere problemet, gjelder den for et hvilket som helst antall oppgaver du kan gi til en AI enten det er å eliminere kreft, vinne kriger, plante flere trær eller en hvilken som helst annen oppgave, uansett hvor tilsynelatende dum.