Microsoft vill inte längre att AI ska känna igen dina känslor, särskilt

Microsoft vill inte längre att AI ska känna igen dina känslor, särskilt

Microsoft uppdaterar sin ansvarsfulla AI-standard och avslöjade att den tar bort funktioner för ansikts- och känsloigenkänning från Azure Face (för det mesta).

The Responsible AI Standard (öppnas i en ny flik) är Microsofts interna uppsättning regler för att bygga AI-system. Företaget vill att AI ska vara en positiv kraft i världen och aldrig missbrukas av dåliga skådespelare. Det är en standard som aldrig tidigare har delats till allmänheten. Men med denna nya förändring har Microsoft bestämt sig för att nu är det dags.

Mjukvara för ansiktsigenkänning och emotionell igenkänning har varit kontroversiell, minst sagt. Många organisationer kräver att denna teknik ska förbjudas. Fight for the Future, till exempel en écrit une lettre ouverte en mai käranden à Zoom d'arrêter son propre développement de logiciel de suivi émotionnel et l'a qualifié d '"invasive" et de "violation de la vie privée et des droits av människan".

Policyändring

Inte överraskande kommer Microsoft att modifiera sin Azure Face-tjänst för att möta kraven i sin nya standard för ansvarsfull AI. För det första tar företaget bort allmänhetens tillgång till AI:s förmåga att analysera känslor. För det andra kommer Azure Face inte längre att kunna identifiera en persons ansiktsdrag, inklusive "kön, ålder, leende, ansiktshår, frisyr och smink.

Anledningen till tillbakadragandet är att världsvetenskapssamfundet fortfarande inte har en "tydlig konsensus om definitionen av "känslor". Natasha Cramption, Microsofts direktör med ansvar för artificiell intelligens, sa att experter inom och utanför företaget har väckt oro. Problemet ligger i "utmaningarna med hur slutsatser generaliserar över användningsfall, regioner och demografi, och ökade integritetsproblem..."

Förutom Azure Face kommer Microsofts anpassade neurala röst att se liknande begränsningar. Custom Neural Voice (öppnas i en ny flik) är en otroligt realistisk text-till-tal-app. Tjänsten kommer nu att begränsas till ett fåtal "hanterade kunder och partners", som är personer som arbetar direkt med Microsoft-kontoteam. Företaget säger att även om tekniken har stor potential kan den användas för att imitera identiteter. För att fortsätta ha tillgång till Neural Voice måste alla befintliga kunder skicka in ett registreringsformulär och godkännas av Microsoft. De måste godkännas senast den 30 juni 2023, och om de inte väljs kommer dessa kunder inte längre att ha tillgång till Neural Voice.

fortfarande på jobbet

Trots allt som har sagts överger Microsoft inte helt sin teknik för ansiktsigenkänning. Tillkännagivandet är endast tillgängligt för allmänheten. Sarah Bird, Senior Group Project Manager på Azure AI, skrev om ansvarsfull ansiktsigenkänning (öppnas i en ny flik). Och i den artikeln säger han att "Microsoft inser att dessa funktioner kan vara användbara när de används för en mängd olika scenarier för kontrollerad tillgänglighet." Enligt en representant är ett sådant scenario Seeing AI (öppnas i en ny flik), en iOS-app som hjälper synskadade att identifiera personerna och föremålen runt dem.

Det är bra att se en annan teknikjätte erkänna problem med ansiktsigenkänning och risk för missbruk. IBM gjorde något liknande 2020, även om dess tillvägagångssätt är mer absolut.

2020 meddelade IBM att de skulle överge sitt arbete med ansiktsigenkänning eftersom företaget befarade att det skulle missbrukas för massövervakning. Att se dessa två industrititaner lämna denna teknik är en seger för kritiker av ansiktsigenkänning. Om du vill lära dig mer om AI har LaComparacion nyligen publicerat en artikel om vad den kan göra för cybersäkerhet.