Samsung visar att vi behöver en Apple-strategi för generativ AI


Det är som att nästan alla har använt Open AI:s ChatGPT sedan generativ AI kom på bästa sändningstid. Men många affärsmän kan använda tekniken utan att överväga risken med dessa stora språkmodeller (LLM).

Det är därför vi behöver en Apple-strategi för generativ AI.

Det som händer hos Samsung bör stanna hos Samsung

ChatGPT verkar som ett gör-det-allt-verktyg, som kan svara på frågor, förfina prosa, generera förslag, skapa rapporter och mer. Utvecklare har använt verktyget för att hjälpa dem att skriva eller förbättra sin kod, och vissa företag (som Microsoft) integrerar denna artificiella intelligens i befintliga produkter, webbläsare och applikationer.

Det är mycket vackert. Men alla företagsanvändare bör följa varningar från Europol och den brittiska underrättelsetjänsten NCSC och överväga det finstilta innan de skickar känslig information. Eftersom uppgifterna, när de väl delas, inte längre kontrolleras av den enhet som delar den, utan av OpenAI, vilket innebär att känslig information inte längre är säker.

Detta kan vara en grundläggande integritetsfråga för många användare, men för företag, särskilt de som hanterar insiderinformation, innebär det att användningen av ChatGPT medför några allvarliga risker.

Varningar i denna stil har cirkulerat sedan programvaran först dök upp, men de lyssnas uppenbarligen inte av pro-LLM-hypen. Detta antyds av rapporter om att Samsung Semiconductors ingenjörer använde ChatGPT och i processen genererade tre läckor av känslig data på bara 20 dagar.

Ingenjörerna använde ChatGPT för att utföra några ganska enkla uppgifter:

Problemet är att anställda i alla dessa fall faktiskt tog Samsungs proprietära information och vidarebefordrade den till en tredje part, vilket tog bort den från företagets kontroll.

Naturligtvis, när de såg att dessa händelser hade inträffat, varnade Samsung sina anställda om riskerna med att använda ChatGPT. Dina viktiga medarbetare förstår att när information väl delas kan den exponeras för ett okänt antal personer. Samsung vidtar åtgärder för att mildra sådan användning i framtiden, och om det inte fungerar kommer verktyget att blockeras från sitt nätverk. Samsung utvecklar också ett eget liknande verktyg för internt bruk.

Samsung-incidenten är ett tydligt bevis på behovet för företagsledare att förstå att företagsinformation inte kan delas på detta sätt.

Vi behöver en Apple-strategi för generativ AI

Det är naturligtvis därför Apples övergripande inställning till AI är så vettigt. Även om det finns undantag (inklusive vid ett tillfälle uppenbar datadelning för notation inom Siri), är Apples taktik att försöka skapa smarta lösningar som kräver väldigt lite data för att fungera. Argumentet är att medan Apple och dess system inte har någon kännedom om en användares information, förblir den informationen konfidentiell, privat och säker.

Detta är ett starkt argument som legitimt borde utvidgas till generativ AI och potentiellt alla former av forskning. Apple verkar inte ha en motsvarighet till ChatGPT, även om det har några av grunderna för att bygga ekvivalenter på enheten till tekniken för sin hårdvara. Apples otroligt kraftfulla Neural Engine, till exempel, verkar ha kraften att köra LLM-modeller med åtminstone något likvärdiga funktioner på enheten. Detta skulle ge ett mycket säkrare verktyg.

Även om Apple ännu inte har sin egen version av Designed in Cupertino på generativ AI som väntar i kulisserna, är det oundvikligt att när riskerna med ChatGPT-modellen blir mer allmänt förstådda kommer efterfrågan på privat, säker tillgång till liknande verktyg bara att öka. Företag vill ha produktivitet och effektivitet utan kostnaden för integritet.

Därför kommer framtiden för dessa verktyg sannolikt att bero på att dessa lösningar flyttas ut från molnet så mycket som möjligt och till enheten. Detta är verkligen den färdriktning som Microsoft verkar sikta på eftersom det fungerar att väva in OpenAI-verktyg i Azure och andra produkter.

Under tiden bör alla som använder LLM följa NCSC:s råd och se till att de inte inkluderar känslig information i alla frågor de ställer. De bör också se till att de inte skickar förfrågningar till offentliga LLM som skulle "orsaka problem om de offentliggjordes".

Och eftersom människor är den svagaste länken i någon säkerhetskedja behöver de flesta företag antagligen utveckla en handlingsplan i händelse av ett intrång. Kanske ChatGPT kan föreslå en?

Följ mig på Mastodon eller gå med mig på AppleHolics bar & grill och Apple diskussionsgrupper på MeWe.

Copyright © 2023 IDG Communications, Inc.