Site icon Telepress

Addio cookie, la rete ci osserva nel profondo

Abstract futuristic world & technology business background and space for text, vector illustration

L’idea è sempre quella: capire meglio, e bene, ciò che postiamo sui social network o ciò che cerchiamo sui motori di ricerca. Farlo in automatico, per entrare nei sottintesi, in ciò che sfugge alle keyword, agli hashtag o agli interessi pre-impostati. Penetrando il linguaggio comune e scovando collegamenti di significato.  Il Wall street Journal ha recentemente fatto il punto sui progetti che saranno destinati ad affiancare o sostituire l’uso dei cookie : verrano adoperati per gestire la distribuzione delle inserzioni pubblicitarie su internet, adattandole agli interessi degli utenti. Ad esempio quando una persona visita un sito web archivia un cookie nel suo browser incrementando le informazioni a disposizione degli inserzionisti. Sono tecnologie che hanno registrato una lenta evoluzione dai primi anni Novanta, quando il web ha avviato la sua prima diffusione. Dopo, come osserva il quotidiano finanziario, sono andate incontro a un processo di obsolescenza con l’emersione delle applicazioni software per dispositivi mobili. In questo modo Google valuta un codice di unique Id che permette di riunire informazioni sulle preferenze del pubblico online in modo anonimo e con standard elevati di sicurezza. Inoltre il colosso digitale ha anche ampliato l’impiego di tecnologie semantiche di ricerca dedicate agli inserzionisti. Microsoft , invece, ha elaborato un numero unique identifier per le applicazioni software di Windows 8 e Windows 8.1. In particolare per Facebook sembra una fissazione. E invece è un aspetto di business fondamentale, per una piattaforma in cui monetizzare significa sapere il più possibile sul proprio miliardo e passa di utenti attivi su base mensile. Non solo sapere, dunque, ma anche capire ciò che si dicono, come interagiscono, a cosa alludono quando sembra che postino di altro. Ecco perché Menlo Park sta mettendo in piedi una nuova task force tecnologica interna dedicata al deep learning . Cioè architettare sistemi, basati sull’imitazione del funzionamento basilare delle cellule neuralui, per scoprire i segreti dei contenuti online. Scavando in quelle profondità dove le tecnologie sfruttare fino ad ora, con metodi fermi a livelli superficiali dell’analisi, non riescono ad arrivare. Una squadra battezzata non a caso AI Team: l’équipe dell’intelligenza artificiale. Fra gli otto designati spuntano Marc’Aurelio Ranzato, che ha lasciato Google per imbarcarsi nella nuova impresa, Yaniv Taigman, cofondatore della startup Face.com e l’esperto di visione artificiale Lubomir Bourdev. In rappresentanza delle alte gerarchie di Facebook, invece, l’ingegnere Keith Adams, veterano del gruppo. Dovranno definire un meccanismo in grado di andare oltre i riconoscimenti facciali o l’analisi dello spam e di lanciarsi alla ricerca di emozioni o eventi descritti nei post degli utenti. Anche se quelle sensazioni, quei luoghi o quei fatti non sono esplicitamente citati. Algoritmi abili anche a riconoscere oggetti all’interno delle foto. Lanciandosi appunto verso un approccio semantico, come molti motori di ricerca delle ultime generazioni cercano di fare. Si procede per livelli, secondo l’idea che piccoli concetti definiscano ambiti più ampi che a loro volta ne definiscono altri. E così via. Con sufficienti informazioni una rete neurale artificiale abbastanza dettagliata può in questo modo crescere e migliorare in fretta. Tornando alla realtà commerciale, per darci risultati più pertinenti e vendere inserzioni più redditizie perché ultra-mirate. Il riserbo sul progetto è massimo. Soprattutto sulle ricadute concrete. Ma per Mike Schroepfer, chief technology officer, uno dei campi fondamentali d’applicazione è ovviamente la bacheca della piattaforma dove scorrono status, aggiornamenti, immagini e altri contenuti condivisi dall’esercito mondiale degli utenti. In media sarebbero 1.500 per utente, ne vediamo di volta in volta fra i 30 e i 40. Come sono selezionati? Più o meno secondo tre parametri: se in precedenza hai mostrato interesse a post simili, quanto hanno reso e come hai reagito in passato. È proprio da lì, dall’importantissimo news feed, che passa ogni nuova strategia di Mark Zuckerberg e soci. Per Schroepfer c’è bisogno di fare in modo che vi transitino i contenuti migliori visto che  “gli utenti producono più dati e usano il social network in modi molto diversi”. Nuovi strumenti, dunque, per il coinvolgimento dell’utenza. Per la serie: se ti senti capito, parteciperai di più o meglio. Ma soprattutto nuovi meccanismi per migliorare i margini e l’efficacia della pubblicità. Questo lo snodo essenziale. Nulla potrà più sfuggire agli analisti virtuali della piattaforma, che grazie ai frutti del nuovo gruppo di lavoro riusciranno a prevedere con ancora maggiore raffinatezza i comportamenti futuri delle persone: “La mole d’informazione sta crescendo, le persone hanno sempre più amici e col boom del mobile sono sempre online ” ha detto il cto di Facebook alla Mit Technology Review . ” Non siamo più al livello in cui guardo la bacheca una volta al giorno: tiro fuori costantemente il telefono mentre aspetto a un appuntamento o sono al bar. Abbiamo appena cinque minuti per deliziare ” gli utenti. Con che cosa? Mostrando loro contenuti più appropriati a ciò di cui parlano ogni giorno. Un lavoro che già altri colossi hanno messo in cantiere. Incluso Google, spanne avanti in questo campo, che anzitutto ha assoldato lo scrittore e futurista Ray Kurzweil. Attratto proprio dall’avveniristico ambito del deep learning. Dall’idea, cioè, di replicare l’attività dei neuroni nella neurocorteccia , scrigno del pensiero umano, attraverso programmi per computer. Un vecchio sogno, è vero, ma che solo oggi, grazie alla potenza dei calcolatori e ai progressi nelle scienze matematiche, può approdare a risultati sempre più sorprendenti. L’hanno provato con un clamoroso esperimento del X Lab di Mountain View su 10 milioni di immagini prese dai video di YouTube (il programma doveva separare volti di umani da musi di gatti) e i miglioramenti nel riconoscimento vocale su Android . Mentre lo scorso ottobre Rick Rashid, cto di Microsoft, ha sfoggiato in un evento a Tianjin, in Cina, un software automatico che ha trascritto le sue parole in inglese con un margine d’errore di appena il 7%, le ha tradotte in cinese e ha poi letto il testo imitando il dialetto mandarino. E sul tema starebbe lavorando anche Baidu , gigante cinese del web, da poco sbarcato nella Silicon Valley.“”La ricerca sulla comprensione delle immagini, dei testi e quindi del linguaggio va avanti da decenni  –  ha detto Elliot Turner, fondatore e ceo di AlchemyApi  –  ma il ritorno tipico che si aveva da una nuova tecnica era minimo. In compiti come quelli della visione o del discorso, invece, assistiamo a un balzo del 30% sfruttando il deep learning”. 

Exit mobile version