We are humans, and not machines, hence our right to vacations. We’ll be back on Sept. 1!

 14/08/2018 Tlaxcala, the international network of translators for linguistic diversity Tlaxcala's Manifesto  
English  
 UNIVERSAL ISSUES 
UNIVERSAL ISSUES / Mettere un freno a Facebook e Google prima che sia troppo tardi
Date of publication at Tlaxcala: 22/01/2018
Original: Reeling in Facebook and Google before it's too late

Mettere un freno a Facebook e Google prima che sia troppo tardi

Steven Rosenfeld

Translated by  Giuseppe Volpe

 

Dovunque si guardi l’alta tecnologia è nell’oblò di qualcuno. Si prenda la Apple. All’interno grandi investitori sono preoccupati degli effetti dei suoi prodotti sui bambini. All’esterno attivisti liberali mugugnano per i miliardi all’estero che può ora rimpatriare grazie alla riforma fiscale del Partito Repubblicano. Persino i conservatori, solitamente contrari alla regolamentazione, della National Review stanno chiedendo perché le Grandi Compagnie Tecnologiche non siano disciplinate come le Grandi Compagnie Petrolifere o le Grandi Compagnie del Tabacco.

 

Questi esempi, che tutti recentemente fanno notizia, confermano la tendenza ma si limitano a sfiorare la superficie. Un nuovo sondaggio nazionale ha rilevato che l’opinione pubblica sta passando da un caldo abbraccio a uno scetticismo crescente. Non è soltanto il modo in cui le cosiddette notizie false sui media sociali hanno avuto un ruolo nelle recenti elezioni negli USA e hanno condotto a inchieste del Congresso. E non sono solo appelli a iniziative federali antimonopolio mirate ai più popolari curatori di informazioni, Facebook e Google.
Oltre questi punti che attestano un contraccolpo c’è la comprensione di ciò che realmente avviene dietro gli schermi e le menti dei due miliardi di utenti di Facebook e degli 1,5 miliardi di utenti di YouTube di proprietà di Google. C’è una nuova espressione che descrive questa sfera dell’attività umana, la tecnologia dietro di essa e i suoi effetti. Quella che è chiamata l’economia dell’attenzione sta finendo sotto un nuovo esame perché è ritenuta danneggiare la professione giornalistica nonché la fiducia nelle istituzioni pubbliche e nella democrazia.
“Siamo venuti qui da amici”, ha detto questa settimana alla Stanford University Anthony Marx, presidente della New York Public Library, co-presidente della Commissione Knight su Monopoli, Media e Democrazia. Il gruppo è stato creato lo scorso autunno per cercare di correggere i maggiori problemi dell’economia dell’attenzione, tra cui il modo in cui il motore di ricerca Google e Facebook hanno degradato la visibilità di media indipendenti sotto la maschera della lotta contro le notizie false.
I commenti di Marx hanno suscitato risate nervose, perché aveva appena presieduto un gruppo che aveva esposto in vividi e allarmanti dettagli come le menti migliori della Silicon Valley abbiano creato formule computazionali che tracciano, imitano e innescano il cervello. Tali algoritmi hanno trasformato miliardi di utenti di dispositivi digitali in dipendenti dall’informazione e quando essi al servizio di supercomputer, miranti la pubblicità o la posizione del contenuto in rete, hanno spaccato la società come mai prima.
“Siamo alla Stanford, il ventre della bestia. E’ qui che è cominciato tutto. Ed è per questo che siamo qui, perché abbiamo bisogno di capire che cosa state pensando voi tutti”, ha detto Marx, parlando ai presenti, un pubblico pieno di dirigenti tecnologici e di membri di commissione selezionati da alcune delle imprese monopolistiche sotto attacco.
“Facciamo chiarezza su due cose”, ha detto, procedendo diplomaticamente. “Uno: voi tutti avete creato questo strumento formidabile. Se da bambino mi aveste detto che avrei avuto in tasca qualcosa che potenzialmente poteva collegarmi a tutte le informazioni del mondo, non vi avrei creduto. E’ stupefacente. Dunque grazie. Questa è la buona notizia”.
“La notizia meno buona è che questo non ci sta portando da una parte giusta”, ha proseguito. “Non ci ha portato da una parte giusta. E non dovrei essere io a dirlo, ma la vostra industria, l’industria di cui tutti voi fate parte… io penso che il mondo abbia cambiato idea sull’industria durante lo scorso anno, in un modo di cui non ho mai visto nulla di simile in precedenza. Cioè quello che era un ‘grazie’ è oggi un ‘ahi, ahi!”. Stanno venendo brutte cose da questo e questo ci mette tutti in difficoltà, ed è per questo che siamo qui. Vogliamo capire che cosa è possibile … che cosa possiamo far meglio”.

L’economia dell’attenzione

Gli esterni ai circoli più interni della Silicon Valley non possono avere accesso, o valutarli, agli algoritmi che alimentano i flussi di notizie di Facebook e il posizionamento dei contenuti in base alla pubblicità, o il moto di YouTube che raccomanda ad altri utenti individuali di video che cosa potrebbe piacer loro. Tuttavia i presenti alla sessione della Commissione presso la Stanford University sono stati eccezionalmente articolati e cooperativi a proposito della natura e degli obiettivi degli algoritmi, meglio descritti come intelligenza artificiale imitatrice del cervello.
Uno degli espositori più franchi e critici è stato Tristan Harris, un ex “addetto all’etica di progetto” alla Google – la sua società era stata acquistata da essa nel 2011 – che oggi gestisce una società non a fini di lucro, Time Well Spent [Tempo speso bene], che cerca di migliorare l’impatto della Grande Tecnologia sulla società. Quello che ha detto questo ex amministratore delegato di meno di quarant’anni è stato stupefacente così come quella che è apparsa come una reazione apatica dei suoi colleghi dell’industria.
Harris ha detto che l’economia dell’attenzione, o i media sugli smartphone e computer di tutti, non sono solo l’infinito marketing che vediamo. C’è un motivo più profondo per il quale molte fonti giornalistiche consolidate possono essere soppiantate da propaganda ombra su grandi piattaforme, per il quale i fatti possono essere superati da opinioni e menzogne, e per il quale lealtà tribali più ristrette possono usurpare le istituzioni democratiche.
Harris ha puntato il dito contro il cuore e il sistema circolatorio della Silicon Valley. I suoi algoritmi di intelligenza artificiale sono ideati per innescare reazioni cerebrali e creare dipendenza, ha detto. Essi alimentano un modello economico genericamente chiamato pubblicità in rete, ma quella è una superstruttura che incassa mirando a, e provocando, interessi condivisi mediante contenuti curati. Ma separa anche la società in sfere scollegate.
“C’è la retorica pubblica riguardo a ciò che la tecnologia [informatica] dovrebbe fare e quali siano le intenzioni positive. Ma poi c’è la realtà, se si va concretamente dentro le società e si ascoltano gli ingegneri e progettisti parlare dei loro obiettivi quotidiani tutti si riduce a che cosa attirerà le persone a restare incollate allo schermo”, ha detto Harris. “Indipendentemente da quali siano le intenzioni positive, due miliardi di persone si svegliano in questo momento al mattino e hanno in tasca una di queste cose e usano uno di un pugno di servizi. Come ama dire Roger McNamee, che è mentore di Zuckerberg [fondatore di Facebook]: ci sono due miliardi di persone che usano Facebook, un numero maggiore dei seguaci del cristianesimo; 1,5 miliardi di persone usano YouTube, è circa il numero dei seguaci dell’Islam. Questi prodotti hanno più influenza sui nostri pensieri quotidiani di molte religioni e certamente più di ogni governo”. Quando John Lennon nel 1966 disse che i Beatles erano più grandi di Gesù,suscitò un putiferio internazionale. Il quartetto ricevette minacce di morte e dovette interrompere le esibizioni. Ma quando Harris ha detto che Facebook era più popolare di Gesù e che YouTube serviva più persone di interi continenti, queste affermazioni mozzafiato hanno a malapena suscitato perplessità. Tale dimensione sottolinea il motivo per il quale i maggiori successi della tecnologia stanno arrivando a una resa dei conti, da inchieste del Congresso sulle interferenze russe nelle elezioni presidenziali del 2016 a sollecitazioni a scorporare i monopoli tecnologici in base alle leggi antitrust, a forum in cerca di soluzioni come la Commissione Knight.
Harris ha studiato alla Stanford come il cervello opera scelte e ha proseguito creando tecnologie e una società che sfruttava le “influenze invisibile che sequestrano il pensiero umano”, come afferma la sua biografia. Ma quella tecnologia oggi pone una minaccia esistenziale all’umanità, ha detto, perché sta crescendo oltre la capacità di controllo di una singola impresa, o di un pugno di monopoli dell’economia dell’attenzione.
“Siamo una specie che … è in grado di studiare la propria capacità di essere manipolata”, ha detto. “Dobbiamo parlare del modello economico basato sulla pubblicità che, accoppiato all’intelligenza artificiale, costituisce una minaccia esistenziale. Dobbiamo fare davvero sul serio al riguardo. Se pensate a dove stanno le intelligenze artificiale più potenti al mondo, verosimilmente sono presso due società: Google e Facebook. Le intelligenze artificiali più potenti al mondo”.
“Invece di indirizzarle a sfide come il cambiamento climatico e dire ‘risolviamo questo’, o indirizzarla alla scoperta di farmaci per il cancro e dire ‘risolviamo questo’, abbiamo indirizzato i supercomputer di intelligenza artificiale più potenti al mondo al vostro cervello. E fondamentalmente abbiamo detto: gioca a scacchi contro questo cervello e immagina che cosa lo coinvolgerà meglio. E così ogni volta che apriamo un flusso di notizie noi stiamo giocano a scacchi contro un supercomputer che è progettato per essere cinquanta milioni di mosse avanti sulla scacchiera della vostra mente e per immaginare che cosa vi coinvolgerà perfettamente”.
I risultati non sono sempre piacevoli, ha detto; un’osservazione cui altri hanno fatto eco.
“Quando si pensa alle conseguenze globali di questo … il fatto che questo supercomputer sta facendo questo in lingue e in paesi che gli ingegneri e le imprese persino non parlano e in cui non risiedono, è così che si arriva al genocidio dei Rohingya in Birmania. E come si ricevono false notizie che termina certe morti in India, in Sudan del Sud. Gli ingegneri non sono in grado di rimettere i buoi nella stalla. Abbiamo creato un impatto esponenziale senza una sensibilità esponenziale”.
E’ anche peggio di così, ha spiegato la partecipante Gina Bianchini, fondatrice e amministratrice delegata di Mighty Networks, specializzata in reti sociali di nicchia. Ha detto ripetutamente che c’è una gara nella Silicon Valley a rompere i monopoli informatici di Facebook e Google che usa algoritmi che istruiscono/programmano sé stessi a eseguire una serie di compiti, tra cui trasmettere contenuti a persone che sono uno snodo nelle proprie reti di informazioni. (La Silicon Valley chiama ciò “apprendimento delle macchine”).
Pur elogiando le virtù di una maggiore competizione, lei e altri hanno descritto l’intelligenza artificiale come su una soglia oltre la quale la capacità di avere i migliori giocatori in una singola stanza per concordare soluzioni non sarebbe possibile. Questo perché l’intelligenza artificiale sta diventando così decentrata che i problemi etici evidenziati da Harris saranno oltre la capacità di chiunque di controllarli, perché la Silicon Valle e la Grande Tecnologia non sono un’entità monolitica.
“Sta in realtà accadendo una cosa più spaventosa, cioè che si può parlare a due società. Qualcuno si presenta da Google. Qualcuno si presenta da Facebook e vuole conversare, perché oggi hanno il monopolio dell’attenzione e delle entrate pubblicitarie”, ha detto. “Il progresso naturale del software e la direzione in cui va la tecnologia è che tende al decentramento. Tende a tecnologie distribuite. A quel punto con chi si parla?”
La Bianchini ha fornito un esempio che sottolinea perché le leggi e le norme governative antitrust sono obsolete e mal equipaggiate senza speranza per occuparsi del lato oscuro dell’economia dell’attenzione. Ha citato Napster, che consentiva agli amanti della musica di condividere flussi audio, così l’industria discografica l’ha citata in giudizio e fatta chiudere.
“Siamo stati in grado di chiudere Napster e la cosa successiva che è successa è stato [il software] Bit Torrent, nel quale non c’era nulla da chiudere. E’ in quella direzione che il mondo sta andando”.

Che cosa farebbe George Orwell?

Queste critiche e spiegazioni non sono state del tutto respinte dai loro bersagli nella sala. Ma, come spesso accade in audizioni dai forti interessi in gioco, i temi centrali possono essere deviati ampliando il tema, non attenendosi alle domande chiave, come se i maggiori protagonisti dell’economia dell’attenzione cambieranno ciò che alimenta i loro algoritmi tossici e la loro pubblicità micro-mirata.
Si prenda il membro della commissione Richard Gingras, vicepresidente di Google per le notizie. Prima di porre domande ha detto che ci sono da tener presenti due sviluppi storici. Primo: internet mette “i mezzi di comunicazione, la stampa, nelle mani di tutti”. Ciò ha vantaggi e comporta sfide epocali.
“Abbiamo una diversità di informazioni quale non abbiamo mai vista. Parte di tale diversità è preoccupante. Questo fa parte del gioco, è la questione della libertà di stampa. Tale che spesso ho posto la domanda se sia una vera sfida alla democrazia il fatto che abbiamo una libertà di espressione illimitata … quello è un componente”, ha detto Gingras.
“Il secondo io penso siano i punti riguardo al fatto che mirare [pubblicità e contenuti] sia equo nel senso che in effetti abbiamo … e tramite noi permea l’intero sistema … le imprese hanno la capacità di calibrare o di far leva sulla calibrazione oltre l’immaginazione di qualsiasi promotore diretto o nella storia della politica. Qui, di nuovo, non è che i comportamenti siano necessariamente diversi, è solo che sono più efficienti”, ha detto. “Questi sembrano a me i cambiamenti chiave”.
I grandi cambiamenti tecnologici hanno sempre conseguenze volute e non volute, ha detto Gingras. La storia è piena di esempi di professioni che hanno dovuto adattarsi, ha detto, aggiungendo che questo è ciò che i media e la cultura politica devono fare.
“Non è sufficiente semplicemente parlare di questo attraverso le lenti della tecnologia”, ha detto Gingras. “Anche ciò cui tocca riflettere e affrontare al resto della società e delle sue istituzioni. Quando si guarda a un contesto nel quale si consumano informazioni in modi diversi, si formano opinioni in modi diversi, questo a me pare suggerire che dovremmo ripensare i meccanismi del giornalismo”.
“Come interagiamo con i nostri pubblici”, ha proseguito. “Come formuliamo il contenuto. I modelli di contenuto che usiamo. Persino i modelli aziendali che usiamo per arrivarci … Come devono cambiare queste altre istituzioni? Come devono cambiare i nostri approcci culturali fondamentali alla trasparenza e alla fiducia per aiutare la gente a capire perché vede quel che vede”.
Gingras non fa questo commento in un vuoto. Ha co-fondato un’iniziativa chiama il Trust Project, con sede presso la Scuola di Giornalismo dell’Università di Santa Clara, che sollecita le organizzazioni giornalistiche a etichettare meglio i loro contenuti in rete e a rivedere i loro siti in modo che gli algoritmi di ricerca possano dare spicco a contenuti più autorevoli. Ciò aiuterà i media a risaltare nell’economia dell’attenzione. Naturalmente aiuta anche Google a compiere ricerche migliori, perché la ricerca di Google, diversamente da Facebook, dirige gli utenti fuori dal suo sito e migliori risultati rafforzeranno il suo monopolio nella ricerca.
Mentre le sessioni pubbliche della Commissione Knight arrivavano al termine è stato sollevato il problema cui la Silicon Valley si oppone di più, secondo solo alla rivelazione della sua formula computazionale riservata. Quale sarebbe la conseguenza di una disciplina governativa, compresa la possibilità di iniziative antitrust che rompano i monopoli dell’economia dell’attenzione?
Tale domanda ha suscitato uno degli scambi più accesi e, anche se non risolta, suggerisce che Facebook e Google dovranno diventare più trasparenti o subire una reazione ancora maggiore.
Gina Bianchini: “Ho pochissima fiducia che le soluzioni arrivino dalle norme. Le soluzioni arriveranno dal fatto che stiamo costruendo una motivazione di massa di base ad aggirare la centralizzazione, il che sarà un discorso interamente diverso”.
Richard Gingras: “Trovo questo tema un po’ problematico. Se avessi ascoltato la discussione sulle possibili soluzioni al problema, in assenza di qualsiasi conoscenza del problema, avrei pensato che stavamo parlando del fatto che abbiamo in effetti un problema di informazioni monolitiche in una società che è eccessivamente diretta e controllata in una sola direzione. Giusto? Ma naturalmente non è questo il problema che abbiamo di fronte. In realtà il problema che abbiamo di fronte è del tutto l’opposto. Abbiamo diversità e punti di vista enormi, silos di pensiero, silos rinforzati di pensiero, da un estremo all’altro dello spetto e attorno a esso e di nuovo indietro. Così quando considero quel problema mi chiedo quale problema stiamo realmente cercando di risolvere, e come. Non riesco a vedere i puntini collegati su questo.”
Gina Bianchini: “Da una prospettiva monolitica, chi sta controllando quell’algoritmo?”
Richard Gingras: “Ma l’algoritmo…”
Gina Bianchini: “Si tratta di due società [Facebook e Google]”.
Richard Gingras: “Questo supposto controllo non sta controllando i punti di vista delle persone. Casomai sta raccomandando vari punti di vista oltre il loro stesso livello di comodità”.
Ethan Zuckerberg, direttore del Center for Civic Media al MIT e consulente della commissione: “E’ impossibile sapere ciò dal mondo esterno. E’ letteralmente impossibile.”
Richard Gingras: “Il mondo esterno. Non è difficile guardare oggi al nostro mondo per dire che abbiamo una società che meno unificata che mai prima”.
Ethan Zuckerberg: “E si può porre una domanda … su se questo contesto informatico, attorno a Facebook e Google, abbia assunto una parte molto estrema in ciò e lo abbia reso molto, molto più potente. Ma incontriamo difficoltà molto grosse nel verificarlo … Quello che sto cercando di dire e qualcosa di diverso dalla disciplina, e dal dividere di fatto queste entità, sarebbe identificare vie a una quantità molto maggiore di trasparenza, in modo che possiamo porre queste domande molto difficili riguardo a come queste piattaforme stanno plasmando le informazioni e il sapere che riceviamo”.
La Commissione Knight continuerà a riunirsi nel 2018 prima di diffondere un rapporto e raccomandazione l’autunno prossimo. Ma in numerose brevi ore al centro ex allievi della Stanford University ha esposto i problemi, le sfide e gli interessi in gioco in un’economia dell’attenzione nella quale la manipolazione psicologica e il micro-indirizzamento sono usati dai maggiori curatori delle informazioni.
In particolare venerdì scorso Mark Zuckerberg ha annunciato che Facebook presto chiederà ai suoi due miliardi di utenti di classificare l’affidabilità dei media nei loro flussi di notizie. Ciò può aiutare a identificare fonti di notizie più o meno degne di fiducia secondo i valori di ciascun utente. Ma non arriverà alle “invisibili influenze che sequestrano il pensiero umano”, come ha detto Tristan Harris. Né affronterà la segmentazione sociale accelerata dalla tecnologia degli annunci in rete riconosciuta da Gingras. Né si tratta di un’iniziativa che aggiungerà trasparenza agli algoritmi che alimentano questi monopoli dell’informazione come segnalato da Zuckerberg del MIT.
Di certo, come ha segnalato questa settimana il giornalista per la tecnologia del New York Times in un articolo che si chiedeva se Apple si sarebbe salvata aggiungendo eleganti caratteristiche di prodotto per smussare gli eccessi dell’attività della pubblicità digitale: “Sono scettico riguardo al fatto che loro [i leader dell’economia dell’attenzione] siano in grado di sopprimere i loro interessi economici”.




Courtesy of Znet Italy
Source: https://www.alternet.org/media/what-can-be-done-about-attention-economys-dark-side
Publication date of original article: 22/01/2018
URL of this page : http://www.tlaxcala-int.org/article.asp?reference=22528

 

Tags: GoogleFacebookInternetMark ZuckerbergEconomiaGeorge Orwell
 

 
Print this page
Print this page
Send this page
Send this page


 All Tlaxcala pages are protected under Copyleft.