Su Google se cerchi la parola “idiot” compare la foto di Donald Trump

/Su Google se cerchi la parola “idiot” compare la foto di Donald Trump



Un gruppo di attivisti britannic0 riuscito a “ingannare” l’algoritmo del motore di ricerca e ogni volta che viene inserita la parola “idiot” viene restituita sotto foto una serie di scermate con l’immagine del presidente degli Stati Uniti Donald Trump. Questo in realt accadeva venerd, se provate per a inserire Idiot funziona ancora adesso, almeno una decina dei primi risultati ritraggono il predsidente degli Stati Uniti.

Come hanno fatto? La tecnica nota. Gli hacker avrebbero utilizzato Reddit come esca per il posizionamento e l’abbinamento delle keyword “idiot” e “Trump” ricevendo decine di migliaia di “upvote”. L’upvote un forte indice di posizionamento per Google. In un secondo momento sono state associate le due parole a diversi articoli pubblicati online. Attraverso una tecnica chiamata “Google Bombing” sono stati cos pubblicati un grande numero di post e immagini nelle quali la figura sia il nome di Donald Trump che la parola “idiot”.

Perch resiste fino ad oggi. L’associazione stata cos forte da condizionare l’algoritmo del motore di ricerca, nonostante gli sforzi del colosso di Mountain View di sorvegliarlo. Il motivo per cui l’abbinamento resiste dovuto al fatto che la copertura mediatica che la notizia sta ottenendo non fa altro che aumentare questa associazione tra i due termini.

I precedenti.

Non la prima volta che questa mossa viene messa in pratica. Una operazione simile era avvenuta anche con Michelle Obama. In quel caso, cercando il suo nome, su Google apparivano immagini dove Michelle era rappresentata con sembianze di una scimmia.  In quell’occasioneGoogle si scus, ribadendo che : Le opinioni espresse dai siti non sono in alcun avallate da noi.

Disorientare l’intelligenza artificiale. Non solo l’algoritmo di Google a rischio hacking. Anche l’intelligenza artificiale pu essere ingannata. A lanciare l’allarme, riferisce la rivista Science sul suo sito, la conferenza internazionale sull’apprendimento automatico, Icml (International Conference on Machine Learning). E’ emerso, ad esempio, che sufficiente alterare leggermente un’immagine, un oggetto o un suono per prendersi gioco del pi sofisticato dei sistemi di intelligenza artificiale, fino a disorientarlo. I rischi per la sicurezza non sono difficili da immaginare, considerando che ai sistemi di apprendimento automatico cominciano a essere affidati compiti delicati, che prevedono un’interazione diretta con l’uomo, come guidare un’auto autonoma.
Fra i primi gruppi di ricerca che si sono attivati per mettere a punto delle contromisure c’ quello del Massachusetts Institute of Technology (Mit) coordinato da Anish Athalye. Abbiamo bisogno di ripensare completamente la nostra concezione di apprendimento automatico per renderlo pi sicuro, ha rilevato all’Ansa, Aleksander Madry, del Mit.

© Riproduzione riservata



Sorgente – ilsole24ore.com

2018-07-23T17:22:03+00:0023 luglio 2018|Feed Il Sole 24 Ore|0 Commenti

Lascia un commento

WhatsApp chat