Att stoppa AI-utvecklingen är en dum idé


En grupp inflytelserika och kunniga tekniktyper lämnade nyligen in en formell begäran om att få AI-distribution avstängd i sex månader. Jag förstår verkligen oron för att AI går för snabbt framåt, men att försöka stoppa den i dess spår är ett återkommande misstag som görs av människor som borde veta bättre.

När en teknik väl tar fart är det omöjligt att stoppa den, till stor del för att det inte finns någon stark central myndighet med makt att inleda en global paus, och ingen verkställande enhet som säkerställer att pausdirektivet följs.

Det korrekta tillvägagångssättet skulle vara att skapa en sådan auktoritet i förväg, så att det finns ett sätt att garantera det önskade resultatet. Jag brukar hålla med tidigare Microsoft-VD Bill Gates om att fokus bör ligga på att göra AI tillförlitlig, inte att hänga allt.

Varför en paus inte fungerar

Jag ska argumentera för att en paus är en dålig idé och istället fokusera på varför det inte fungerar. Låt oss ta exemplet med en gul flagga under en biltävling. Så här ska en paus fungera: alla behåller sin position tills faran har passerat, eller i fallet med AI:n, tills vi bättre förstår hur man kan mildra deras potentiella faror. .

Men precis som i en biltävling finns det länder och företag före och andra flera sträckor bakom. Under en varning i ett bilrace får bilarna bakom passera de ledande bilarna, men de får inte passera. Reglerna tillämpas av bandomare som inte har en riktig motsvarighet till företag och länder. Till och med organisationer som FN har liten eller ingen synlighet i AI-utvecklingslabb, och de kan inte heller säkerställa att dessa labb kommer att pensioneras.

Som ett resultat är det osannolikt att de som leder vägen inom Ai-tekniken kommer att sakta ner eftersom de vet att nästa inte kommer att göra det, och de som försöker komma ikapp skulle använda vilken paus som helst för att, ja, komma ikapp sin eftersläpning. (Och kom ihåg att de som arbetar med dessa projekt sannolikt inte kommer att ta en sexmånaders betald semester – de kommer att fortsätta arbeta med relaterad teknik oavsett vad.)

Det finns helt enkelt ingen global mekanism för att påtvinga en paus på alla tekniska framsteg som redan har kommit ut på marknaden. Även utvecklingen av kloner, som i stort sett är förbjuden, fortsätter runt om i världen. Det som har stoppats är nästan all öppenhet om vad och var som görs (och kloningsinsatser har aldrig nått den användningsnivå som generativ AI har på några månader).

Begäran var för tidig; reglering är viktigare

Lyckligtvis är generativ AI ännu inte en allmän AI. Det är AI som bör väcka mest oro, eftersom den sägs ha förmågan att göra nästan vad som helst en maskin eller person kan göra. Och även då skulle ett sex månader långt uppehåll inte göra så mycket mer än att kanske blanda de konkurrenskraftiga rankningarna, med de som håller fast vid en paus som hamnar efter de som inte gör det.

Allmän AI tros ligga mer än ett decennium i framtiden, vilket ger oss tid att designa en lösning som förmodligen är närmare en regulator och vakthund än en paus. Det som faktiskt skulle ha föreslagits i detta öppna brev var just skapandet av ett sådant organ. Oavsett paus är behovet att säkerställa att AI:n inte är skadlig, vilket gör övervakning och efterlevnad av största vikt.

Eftersom AI används i vapen, vilka länder skulle tillåta korrekt tredjepartsövervakning? Svaret är förmodligen inget, åtminstone förrän det tillhörande hotet konkurrerar med kärnvapen. Tyvärr har vi inte gjort ett bra jobb med att reglera dem heller.

Utan något sätt att uppnå global konsensus (mycket mindre införa ett sex månaders AI-uppehåll), vad som behövs nu är associerad global övervakning och verkställighet för att stödja initiativ som Lifeboat Foundations AIShield eller andra ansträngningar för att skapa ett försvar mot fientlig AI. AI.

En ironi förknippad med det senaste brevet är att undertecknarna inkluderar Elon Musk, som har ett rykte om sig att vara oetisk (och benägen att göra uppror mot regeringens direktiv), vilket tyder på att en sådan mekanism inte ens skulle fungera för honom. Därmed inte sagt att en insats inte skulle vara meriterande. Men det korrekta sättet, som Gates förklarar i sitt inlägg, är att installera räcken i förväg, inte efter att AI-hästen har lämnat stallet.

Copyright © 2023 IDG Communications, Inc.