Facebookova mješavina ljudske inteligencije za audio transkripciju sada se suočava s provjerom privatnosti u Europi – TechCrunch


Facebook-a vodeći regulator privatnosti u Europi sada traži od tvrtke detaljne informacije o radu značajke glasa u tekst u Facebookovom Messengeru aplikaciju i kako je ona u skladu s pravom EU.

Jučer je Bloomberg izvijestio da Facebook koristi ljudske ugovaratelje za prepisivanje audio poruka korisnika aplikacija – ali njegova politika privatnosti ne spominje jasno činjenicu da stvarni ljudi mogu preslušati vaše snimke.

Stranica u Facebookovom centru za pomoć uključuje i "bilješku" koja kaže "Glas u tekst koristi strojno učenje" – ali ne kaže da tu značajku imaju i ljudi koji rade za to da Facebook slušaju.

Glasnogovornik irske komisije za zaštitu podataka rekao nam je: "Uz naš kontinuirani angažman s Googleom, Apple i Microsoft u vezi s obradom osobnih podataka u kontekstu ručnog prepisivanja audio zapisa, od Facebooka tražimo detaljne informacije o predmetnoj obradi i kako Facebook vjeruje da je takva obrada podataka u skladu s njihovim GDPR obvezama „.

Bloombergovo izvješće slijedi slična otkrića o AI asistent tehnologijama koje nude drugi tehnološki divovi, uključujući Apple, Amazon, Google i Microsoft – a koji su posljednjih tjedana također privukli pozornost europskih regulatora privatnosti.

To nam govori da je hiper oko AI glasovnih pomoćnika još glossing preko daleko manje visoke tehnologije. Čak i dok su veznjaci strojnog učenja marke korišteni za prekrivanje „mehaničkih komada“ komponenti (tj. Ljudi) potrebnih za tehnologiju da ispuni zahtjeve.

Zaista je to vrlo stara priča. Na pamet: Pun desetljeće prije, izvješteno je da se u Velikoj Britaniji startup nazvan Spinvox, koji je tvrdio da ima naprednu tehnologiju prepoznavanja glasa za pretvaranje govorne pošte u tekstualne poruke, jako nagnuo u pozivne centre u Južnoj Africi i na Filipinima … u kojima postoje, zapravo, ljudi.

Vraćajući se današnjoj "vrhunskoj" tehnologiji, nakon Bloombergovog izvještaja Facebook je objavio da je suspendirao ljudske transkripcije ranije ovog mjeseca – pridružio se Appleu i Google u zaustavljanju ručnih pregleda zvučnih isječaka za njihove glasovne AI. (Amazon od tada je odustao od podešavanja aplikacije Alexa.)

Pitali smo Facebook gdje je u aplikaciji Messenger obavještavao korisnike da se ljudski ugovaratelji mogu koristiti za prepisivanje njihovih glasovnih chatova / audio poruka; i na koji je način prikupljao pristanak korisnika Messengea na ovaj oblik obrade podataka – prije suspendiranja ljudskih pregleda.

Tvrtka nije odgovorila na naša pitanja. Glasnogovornik nam je umjesto toga dao sljedeću izjavu: "Kao i Apple, Google, prije više od tjedan dana zaustavili smo pregled audio zapisa. "

Facebook je također opisao zvučne isječke koje je slao izvođačima kao maskirane i identificirane; rekao je da su prikupljeni tek kada su se korisnici prijavili za prepisivanje na Messengeru; i samo su korišteni za poboljšanje performansi transkripcije AI.

Također je ponovila dugogodišnji odboj koji je tvrtka izrazila zbog zabrinutosti korisnika zbog općeg prisluškivanja od strane Facebooka, rekavši da nikada ne sluša mikrofone ljudi bez dozvole uređaja niti bez izričite aktivacije od strane korisnika.

Ključno je pitanje, međutim, kako Facebook prikuplja dozvolu za obradu podataka.

Na primjer, tvrtka je nedavno, primjerice, koristila manipulativni tijek pristanka kako bi potaknula korisnike u Europi da uključe tehnologiju prepoznavanja lica – umanjivši svoj prethodni stav, usvojen kao odgovor na ranije regulatorne intervencije, o isključivanju tehnike širom bloka.

Dakle, mnogo toga počiva na tome kako je točno Facebook opisao obradu podataka u bilo kojem trenutku, zahtijeva od korisnika da pristanu na to da ljudi pregledavaju svoje glasovne poruke (pod pretpostavkom da se oslanja na pristanak kao svoju pravnu osnovu za obradu tih podataka).

Paket pristajanja u opće T&C za korištenje proizvoda također neće biti usklađen s EU pravom o privatnosti, s obzirom na to da Opća uredba o zaštiti podataka bloka zahtijeva da suglasnost bude ograničena, kao i da je potpuno informirana i slobodno data.

Ako se Facebook oslanja na legitimne interese za obradu audio isječaka korisnika Messengera u svrhu poboljšanja performansi AI, trebao bi uravnotežiti vlastite interese protiv bilo kakvog rizika za privatnost ljudi.

Glasovni AI-i su posebno problematični u tom pogledu, jer audio snimke mogu snimiti i osobne podatke nekorisnika – s obzirom na to da su ljudi koji se nalaze u blizini nekog uređaja (ili doista osoba na drugom kraju telefonske linije koja vam ostavlja poruku) mogli su im se snimiti osobni podaci, a da nisu imali priliku da pristanu na to da ih izvođači na Facebooku usvoje.

Puštanje isječaka Google Assistenta u belgijsku štampu nedavno je istaknulo i osjetljivu prirodu snimaka i rizik od ponovnog prepoznavanja koje predstavljaju takve snimke – s tim da su novinari mogli identificirati neke ljude u snimcima.

Višestruka izvješća za tisak također su sugerirala da ugovarači zaposleni od strane tehnoloških divova rutinski prekrivaju intimne detalje snimljene pomoću niza proizvoda koji uključuju mogućnost snimanja zvuka i strujanje ovih osobnih podataka u oblak radi obrade.