IBM ha annunciato il cervello artificiale più potente mai costruito. Ha 147.456 processori, oltre 150 terabyte di memoria, richiede seimila tonnellate di impianto di raffreddamento, occupa circa 4000 metri quadri e consuma megawatt di corrente. Tutto questo produce l'equivalente del cervello di un gatto molto, molto lento. Oltre cento volte più lento del vostro micio prediletto.
Se siete gattofili, potreste essere tentati di dire che questo dimostra quanto è intelligente il vostro adorato batuffolo dalle unghie retrattili, cosa che del resto avete sempre saputo, ma andateci cauti. La supermacchina di IBM è un simulatore di cervello, non una copia, e le simulazioni richiedono sempre molta più potenza di calcolo rispetto alle copie.
E' una simulazione davvero notevole. Al centro di ricerca Almaden a San Jose, in California, è stato infatti replicato virtualmente il funzionamento coordinato di 1,6 miliardi di neuroni interconnessi da 9 trilioni di sinapsi (una complessità paragonabile appunto al cervello di un gatto), polverizzando il record precedente di 55 milioni di neuroni, che equivaleva al cervello di un ratto. Un record ottenuto dallo stesso team soltanto due anni fa.
A quando una simulazione del cervello umano? Probabilmente fra non più di vent'anni. La potenza di calcolo necessaria è mille volte superiore a quella del simulatore di gatto, ma ai ritmi di progresso attuali un supercomputer del genere dovrebbe essere disponibile entro il 2019. Giusto in tempo per andare a caccia di Sarah Connor.
Lo scopo di questa ricerca non è creare una razza di Terminator o di gatti robot, ma studiare in condizioni controllate il comportamento e la dinamica del cervello senza fare a fettine nessuno. La vera sfida, infatti, è capire come fa il cervello ad auto-organizzarsi, perché non basta che ci siano miliardi di neuroni: devono anche essere strutturati coerentemente. Un conto è avere una casa, un altro è avere una catasta informe di mattoni che la compongono. L'organizzazione spontanea, generata dall'esperienza e dall'interazione con il mondo, è completamente differente dal modello informatico attuale, in cui tutto viene preimpostato, ed è il motivo per cui simulare l'intelligenza biologica richiede supercomputer tirati per il collo.
Ma i risultati cominciano a vedersi. Una simulazione più modesta, chiamata Darwin e basata su 50.000 neuroni virtuali, pari a un quarto del cervello di un moscerino, è stata installata in un robottino dotato di ruote. Man mano che il robottino interagiva con il mondo circostante, i suoi neuroni virtuali modificavano autonomamente le proprie interconnessioni, producendo un'organizzazione spontanea.
L'altro risultato significativo, che verrà presentato a breve in dettaglio dal ricercatore di Almaden Dharmendra S. Modha, è l'uso dei supercomputer per decifrare in modo non invasivo (senza fare a fettine nessuno, appunto) le interconnessioni del cervello umano analizzando immagini ottenute tramite risonanza magnetica. In pratica è come fare una radiografia a un grosso piatto di spaghetti e riuscire a capire il percorso fatto da ogni spaghetto. Questo lavoro è indispensabile, spiega Modha nel suo blog, per capire come fa ognuno di noi a rappresentare ed elaborare le informazioni.
A che scopo fare tutto questo? Perché è cool, ma soprattutto perché i computer odierni sono stupidi e incapaci di gestire le ambiguità del mondo reale e di analizzare le informazioni in base al contesto, e in un mondo sempre più complesso occorre complementare l'intelligenza naturale con quella artificiale, così come complementiamo la nostra forza muscolare con quella delle macchine. E anche perché, per dirla tutta, l'attuale detentore del record d'intelligenza di questo pianeta sta dimostrando troppo spesso di non essere all'altezza del compito.
Se siete gattofili, potreste essere tentati di dire che questo dimostra quanto è intelligente il vostro adorato batuffolo dalle unghie retrattili, cosa che del resto avete sempre saputo, ma andateci cauti. La supermacchina di IBM è un simulatore di cervello, non una copia, e le simulazioni richiedono sempre molta più potenza di calcolo rispetto alle copie.
E' una simulazione davvero notevole. Al centro di ricerca Almaden a San Jose, in California, è stato infatti replicato virtualmente il funzionamento coordinato di 1,6 miliardi di neuroni interconnessi da 9 trilioni di sinapsi (una complessità paragonabile appunto al cervello di un gatto), polverizzando il record precedente di 55 milioni di neuroni, che equivaleva al cervello di un ratto. Un record ottenuto dallo stesso team soltanto due anni fa.
A quando una simulazione del cervello umano? Probabilmente fra non più di vent'anni. La potenza di calcolo necessaria è mille volte superiore a quella del simulatore di gatto, ma ai ritmi di progresso attuali un supercomputer del genere dovrebbe essere disponibile entro il 2019. Giusto in tempo per andare a caccia di Sarah Connor.
Lo scopo di questa ricerca non è creare una razza di Terminator o di gatti robot, ma studiare in condizioni controllate il comportamento e la dinamica del cervello senza fare a fettine nessuno. La vera sfida, infatti, è capire come fa il cervello ad auto-organizzarsi, perché non basta che ci siano miliardi di neuroni: devono anche essere strutturati coerentemente. Un conto è avere una casa, un altro è avere una catasta informe di mattoni che la compongono. L'organizzazione spontanea, generata dall'esperienza e dall'interazione con il mondo, è completamente differente dal modello informatico attuale, in cui tutto viene preimpostato, ed è il motivo per cui simulare l'intelligenza biologica richiede supercomputer tirati per il collo.
Ma i risultati cominciano a vedersi. Una simulazione più modesta, chiamata Darwin e basata su 50.000 neuroni virtuali, pari a un quarto del cervello di un moscerino, è stata installata in un robottino dotato di ruote. Man mano che il robottino interagiva con il mondo circostante, i suoi neuroni virtuali modificavano autonomamente le proprie interconnessioni, producendo un'organizzazione spontanea.
L'altro risultato significativo, che verrà presentato a breve in dettaglio dal ricercatore di Almaden Dharmendra S. Modha, è l'uso dei supercomputer per decifrare in modo non invasivo (senza fare a fettine nessuno, appunto) le interconnessioni del cervello umano analizzando immagini ottenute tramite risonanza magnetica. In pratica è come fare una radiografia a un grosso piatto di spaghetti e riuscire a capire il percorso fatto da ogni spaghetto. Questo lavoro è indispensabile, spiega Modha nel suo blog, per capire come fa ognuno di noi a rappresentare ed elaborare le informazioni.
A che scopo fare tutto questo? Perché è cool, ma soprattutto perché i computer odierni sono stupidi e incapaci di gestire le ambiguità del mondo reale e di analizzare le informazioni in base al contesto, e in un mondo sempre più complesso occorre complementare l'intelligenza naturale con quella artificiale, così come complementiamo la nostra forza muscolare con quella delle macchine. E anche perché, per dirla tutta, l'attuale detentore del record d'intelligenza di questo pianeta sta dimostrando troppo spesso di non essere all'altezza del compito.
Nessun commento:
Posta un commento