Googles nya fototeknik är skrämmande och mycket problematisk

Googles nya fototeknik är skrämmande och mycket problematisk
Google har en enorm maskininlärningsoperation, så det är ingen överraskning att företaget tillämpar det på varje bit av data vi ger det, men det är något med att förstöra våra foton som verkar överskridande, vilket leende Google än försöker. Sätta på den. Det fanns många saker i Googles I/O 2021 keynote som slog en märklig ton, som att fira dess "AI-principer" efter att ha talat till sin tidigare AI-etiker Dr. Timnit Gebru, vilket fick företaget att leda sina forskare. "Var mer positiv" om AI. Men det var den del av huvudtalet av Shimrit Ben-Yair, chef för Google Photos, som var särskilt irriterande. Under sin presentation visade han hur Googles maskininlärningsteknik kunde analysera alla dina foton, identifiera mindre erkända likheter över hela din fotosamling och gruppera dina foton i grupper därefter.

Google demonstrerar sin Google Photos-algoritm för små mönster

(Bildkredit: Google) Det vill säga, Google kör varje foto du ger det genom mycket specifika maskininlärningsalgoritmer och identifierar mycket specifika detaljer om ditt liv, som det faktum att du gillar att resa jorden runt med en påsmina, en specifik orange baksida , till exempel. Lyckligtvis inser åtminstone Google att detta kan vara problematiskt om du till exempel är transperson och Googles algoritm bestämmer sig för att den vill skapa en samling bilder före övergången. Google förstår att detta kan vara smärtsamt för dig, så du har full möjlighet att ta bort det stötande fotot från samlingar i framtiden. Du kan också be dem att radera alla foton som tagits på ett specifikt datum som kan vara smärtsamt, till exempel dagen då en älskad dog. Allt detta är bättre än att inte ha det här alternativet alls, men ansvaret faller ändå på dig, användaren, vilket det alltid är, alltid är. Vilket är lite jobbigt för vissa när Google har nya funktioner att rulla ut som ingen efterfrågade? Sedan kommer vi till den del av presentationen där Google skulle ta ett urval av två eller tre bilder tagna tillsammans, som när du tar många bilder i rad för att fånga en där ingen blinkar i ett gruppfoto, och tillämpa: dess maskininlärning för att generera ett litet "filmfoto" med dem. Den här funktionen, som först introducerades i december 2020, kommer att använda maskininlärning för att infoga helt tillverkade ramar mellan dessa foton för att i huvudsak generera en GIF, återskapa ett liveevenemang på ett sätt som är en faksimil av händelsen när den hände. Tonvikt på fax.

Google Fotos filmögonblick

(Bildkredit: Google) Google presenterar detta som ett hjälpmedel för att komma ihåg gamla foton, men det är inte vad det är, det är början på slutet på reminiscensen som vi känner den. Varför lita på ditt minne när Google bara kan generera ett åt dig? Det spelar ingen roll om du skapar en inspelning av något som faktiskt inte hände och presenterar det för dig som om det hände. Naturligtvis kan dina ögon ha blinkat "typ" mellan de två fotona och det är inte som att Google tvingade dig att göra koksrader på en fest när du inte gjorde en, den eller den. Men när det kommer till vad som är etiskt och vad som inte är det, finns det ingen plats för "kön". Det är dessa typer av val som leder oss längs vägar vi inte vill ta, och varje steg längs en väg gör det svårare för oss att återvända. Om det är en sak vi verkligen borde ha lärt oss under det senaste decenniet så är det att inte ha en sådan blind tilltro till maskininlärningsalgoritmer som har makten att förvränga vår uppfattning om den vetenskapliga verkligheten. QAnon är lika mycket en produkt av maskininlärning som Netflix, men nu ska vi lägga våra fotoalbum på AI:s altare och kalla det som dyker upp för "minnen". Samtidigt läggs mycket energi på att köra alla dessa algoritmer i datacenter allt eftersom klimatförändringarna fortskrider. Med varje ny utveckling av Googles maskininlärningsplattform blir det mer och mer uppenbart att du verkligen ska lyssna på vad etiker som Dr Gebru försöker berätta för dig, och det blir ännu mer uppenbart att du inte har något intresse av att göra det.