Apple Comprende: "intercettazioni" Di Siri Su IPhone E Co. Per Il Momento Sospese

Sommario:

Apple Comprende: "intercettazioni" Di Siri Su IPhone E Co. Per Il Momento Sospese
Apple Comprende: "intercettazioni" Di Siri Su IPhone E Co. Per Il Momento Sospese

Video: Apple Comprende: "intercettazioni" Di Siri Su IPhone E Co. Per Il Momento Sospese

Video: Apple Comprende: "intercettazioni" Di Siri Su IPhone E Co. Per Il Momento Sospese
Video: Gli effetti nell’app Messaggi di iOS 10 non funzionano? Ecco come risolvere il problema 2024, Marzo
Anonim

Quello che è successo? Alla fine della scorsa settimana, un rapporto di Guardian ha fatto grandi onde sul web. Si dice che i lavoratori a contratto incaricati da Apple siano testimoni orali di conversazioni altamente private che Siri, assistente vocale iOS, registra e trasmette per analisi. Secondo le fonti del Guardian, ci sono persino discorsi sullo spaccio di droga e sui suoni del sonno umano, noto anche come "sesso". A parte questo, Apple non lo fa, perché i dipendenti ascoltano solo casualmente tutti questi record altamente esplosivi. È molto probabile che tali conversazioni vengano raccolte per caso sull'Apple Watch e sull'altoparlante HomePod di Apple. Tuttavia, è discutibile: a volte persone e indirizzi possono anche essere assegnati in base al contenuto della conversazione.

Siri capisce anche il divertimento … oltre alle tue conversazioni private:

Detti divertenti di Siri

E cosa dice Apple a riguardo? Eccezionalmente, il produttore di iPhone non è silenzioso, ma calma. Secondo Apple, solo l'uno per cento delle registrazioni Siri delle persone sarebbe utilizzato per migliorare l'assistente vocale. Non ci sarebbe inoltre alcun collegamento agli ID Apple o agli account cliente corrispondenti. In pratica, tuttavia, l'approccio encomiabile dell'anonimizzazione viene annullato se il contenuto della conversazione rivela troppo.

Aspettative di Apple: agisci ora

Per inciso, Apple non è sola con questo problema, tali "azioni di ascolto" sono note anche da Google e Amazon. Piccola ma bella differenza: ci si aspetta che gestiscano la protezione dei dati piuttosto vagamente, ma da Apple? C'è un'aspettativa diversa e più rigorosa. In che altro modo i californiani potrebbero essere all'altezza delle loro affermazioni?

Due anni fa, i lettori di GIGA erano ancora piuttosto critici nei confronti degli assistenti linguistici:

Image
Image
Image
Image

Inizia galleria fotografica (5 foto)

A mio avviso, il fatto fondamentale dell'analisi dei dati delle conversazioni di Siri è meno da criticare, ma il vincolo tollerato per l'utente. Finora, il cliente può sfuggire all'analisi delle sue conversazioni solo se si astiene dall'usare Siri o deve installare nuovamente un profilo iOS speciale (vedere le istruzioni su 9to5Mac) - entrambi gli approcci sono solo cattivi alla fine Compromesso.

Suggerimento: l'iPad più economico su Amazon

Se prendiamo in parola Apple, allora dobbiamo apportare miglioramenti. Di ': Se Apple vuole analizzare le mie conversazioni su Siri, allora vorrei essere chiesto in anticipo. Questo può essere fatto, ad esempio, dopo aver installato il prossimo aggiornamento iOS usando una procedura di opt-in. Solo se accetto espressamente l'analisi, anche Apple può ascoltarla. Qualunque cosa accada sul mio telefono, ti preghiamo di rimanere sul mio telefono - Grazie, Apple.

Nota: le opinioni espresse in questo articolo rappresentano solo le opinioni dell'autore e non sono necessariamente la posizione dell'intero team editoriale di GIGA.

Sven Kaulfuss
Sven Kaulfuss

L'articolo è utile?

Sì No (2) commenti

La tua vita è GIGA.

?

Aiutaci a migliorare e per favore dicci:

Perché l'articolo non ti è utile?

Le informazioni non sono aggiornate Non ho ricevuto informazioni sufficienti Le informazioni sono errate Non sono d'accordo Altro Invia risposta

Grazie, il tuo team GIGA

?

Grazie

La tua opinione è importante per noi. Mi piace anche discutere con noi nei commenti.

La finestra si chiuderà automaticamente in 6 secondi

Chiudi la finestra

Raccomandato: