Ricerca

Dossier Ricerca

Partner

orion

Centro Studi Polaris

polaris

 

rivista polaris

Agenda

<<  Aprile 2018  >>
 Lu  Ma  Me  Gi  Ve  Sa  Do 
        1
  2  3  4  5  6  7  8
  9101112131415
16171819202122
23242526272829
30      

NOEVENTS

Altri Mondi

casapound
Comunità solidarista Popoli
L'uomo libero
vivamafarka
foro753
2 punto 11
movimento augusto
zetazeroalfa
la testa di ferro
novopress italia
Circolo Futurista Casalbertone
librad

Sondaggi

Ti piace il nuovo noreporter?
 
Se le macchine vorranno indurci in errore PDF Stampa E-mail
Scritto da lastampa.it   
Martedì 20 Marzo 2018 00:11


Potranno fare di noi quello che vogliono

Un’auto autonoma si scontra con un camion. Il motivo dell’incidente è che l’intelligenza artificiale lo ha confuso con una nuvola. Si tratta solo di un esempio, ma secondo un team di ricerca di Google, tutto questo potrebbe anche accadere. Infatti, a differenza degli esseri umani, le macchine non vedono le immagini ma le elaborano. In questo modo, sarebbe molto semplice modificare o inserire un codice per ingannare le intelligenze artificiali. 
Per questo motivo, i ricercatori stanno cercando di insegnare alle macchine come indurre in errore la percezione degli esseri umani, in modo da poter apprendere dai loro sbagli ma soprattutto comprendere come riescono a distinguere ciò che è reale e ciò che non lo è. «L’idea di fondo è che ciò che non inganna i soggetti in carne ed ossa non dovrebbe essere in grado di ingannare le AI», scrive The Next Web. «Se riuscissimo ad arrivare a capire come il cervello umano riesca a resistere ad immagini ingannevoli, potremmo replicare quel meccanismo negli algoritmi di machine learning», spiegano gli autori della ricerca. Un team composto anche da Ian Goodfellow, uno dei padri del concetto di deep learning. E tra i test riportati nel paper scientifico, c’è anche la foto di un gatto che, ingrandita, modificata e zoomata, viene fatta apparire come un cane. L’errore da parte dell’essere umano viene poi analizzato dall’intelligenza artificiale.
Insomma, il sistema di elaborazione delle immagini, può essere facilmente indotto a sbagliare. Lo scorso anno, i ricercatori del MIT hanno ingannato un’intelligenza artificiale di Google, semplicemente inserendo un codice all’interno delle immagini. Quel dettaglio illudeva la macchina, facendogli credere che stava osservando un fucile, ma in realtà si trattava di una tartaruga. Un errore che non sarebbe mai stato compiuto da un essere umano. 

 

Noreporter
- Tutti i nomi, i loghi e i marchi registrati citati o riportati appartengono ai rispettivi proprietari. È possibile diffondere liberamente i contenuti di questo sito .Tutti i contenuti originali prodotti per questo sito sono da intendersi pubblicati sotto la licenza Creative Commons Attribution-NoDerivs-NonCommercial 1.0 che ne esclude l'utilizzo per fini commerciali.I testi dei vari autori citati sono riconducibili alla loro proprietà secondo la legacy vigente a livello nazionale sui diritti d'autore.