Microsoft ya no quiere que la IA reconozca sus emociones, especialmente

Microsoft ya no quiere que la IA reconozca sus emociones, especialmente

Microsoft está actualizando su estándar de inteligencia artificial responsable y reveló que está eliminando las capacidades de reconocimiento facial y de emociones de Azure Face (en su mayor parte).

El Estándar de IA responsable (se abre en una nueva pestaña) es el conjunto interno de reglas de Microsoft para crear sistemas de IA. La empresa quiere que la IA sea una fuerza positiva en el mundo y que nunca sea mal utilizada por malos actores. Es un estándar que nunca antes se había compartido con el público. Sin embargo, con este nuevo cambio, Microsoft ha decidido que ahora es el momento.

Mjukvara för ansiktsigenkänning och emotionell igenkänning har varit kontroversiell, minst sagt. Många organisationer kräver att denna teknik ska förbjudas. Fight for the Future, till exempel en écrit une lettre ouverte en mai käranden à Zoom d'arrêter son propre développement de logiciel de suivi émotionnel et l'a qualifié d '"invasive" et de "violation de la vie privée et des droits av människan".

Policyändring

Inte överraskande kommer Microsoft att modifiera sin Azure Face-tjänst för att möta kraven i sin nya standard för ansvarsfull AI. För det första tar företaget bort allmänhetens tillgång till AI:s förmåga att analysera känslor. För det andra kommer Azure Face inte längre att kunna identifiera en persons ansiktsdrag, inklusive "kön, ålder, leende, ansiktshår, frisyr och smink.

Anledningen till tillbakadragandet är att världsvetenskapssamfundet fortfarande inte har en "tydlig konsensus om definitionen av "känslor". Natasha Cramption, Microsofts direktör med ansvar för artificiell intelligens, sa att experter inom och utanför företaget har väckt oro. Problemet ligger i "utmaningarna med hur slutsatser generaliserar över användningsfall, regioner och demografi, och ökade integritetsproblem..."

Förutom Azure Face kommer Microsofts anpassade neurala röst att se liknande begränsningar. Custom Neural Voice (öppnas i en ny flik) är en otroligt realistisk text-till-tal-app. Tjänsten kommer nu att begränsas till ett fåtal "hanterade kunder och partners", som är personer som arbetar direkt med Microsoft-kontoteam. Företaget säger att även om tekniken har stor potential kan den användas för att imitera identiteter. För att fortsätta ha tillgång till Neural Voice måste alla befintliga kunder skicka in ett registreringsformulär och godkännas av Microsoft. De måste godkännas senast den 30 juni 2023, och om de inte väljs kommer dessa kunder inte längre att ha tillgång till Neural Voice.

todavía en el trabajo

Trots allt som har sagts överger Microsoft inte helt sin teknik för ansiktsigenkänning. Tillkännagivandet är endast tillgängligt för allmänheten. Sarah Bird, Senior Group Project Manager på Azure AI, skrev om ansvarsfull ansiktsigenkänning (öppnas i en ny flik). Och i den artikeln säger han att "Microsoft inser att dessa funktioner kan vara användbara när de används för en mängd olika scenarier för kontrollerad tillgänglighet." Enligt en representant är ett sådant scenario Seeing AI (öppnas i en ny flik), en iOS-app som hjälper synskadade att identifiera personerna och föremålen runt dem.

Es bueno ver a otro gigante tecnológico reconocer los problemas de reconocimiento facial y el potencial de abuso. IBM hizo algo similar en 2020, aunque su enfoque es más absoluto.

En 2020, IBM anunció que abandonaría su trabajo en el reconocimiento facial porque la empresa temía que se utilizara indebidamente para la vigilancia masiva. Ver a estos dos titanes de la industria deshacerse de esta tecnología es una victoria para los críticos del reconocimiento facial. Si desea obtener más información sobre la IA, LaComparacion publicó recientemente un artículo sobre lo que puede hacer por la ciberseguridad.