Tra pochi anni il mondo come Matrix
E’ da secoli che visionari di tutti i tipi cercano di calcolare quanto è lontana la nascita della vera A.I., ovvero l’intelligenza artificiale. Nel 1950 Alan Turing, il padre della moderna scienza dei computer, ha proposto l’ultima prova: un umano si impegna in un dialogo con una macchina e un altro umano dovrebbe distinguere l’uno dall’altro. Una variante è il “Test di Turing grafica”, nel quale un giudice umano è incapace di distinguere il mondo reale da quello generato dal computer.
“Per noi interazione significa poter controllare un oggetto, la sua rotazione, per esempio, in tempo reale – dice McGuigan -. Già oggi i computer possono produrre scene artificiali capaci di ingannare l’occhio, ma per replicare i movimenti servono ore, mentre il realismo richiede almeno 30 frames al secondo”.
Il ricercatore ha quindi deciso di testare la capacità di uno dei più potenti supercomputer, il Blue Gene/L al Brookhaven National Laboratory di New York, per tentare di generare un mondo artificiale. Blue Gene/L ha una capacità di 103mila miliardi di operazioni al secondo, un normale computer ne ha solo dieci.
In particolare McGuigan ha analizzato la capacità del supercomputer di far interagire la luce con gli oggetti, un elemento importante di qualsiasi mondo virtuale con ambizioni di imitare la realtà. Utilizzando un software ‘ray-tracing’ non ottimizzato per il supercomputer, McGuigan ha verificato che Blue Gene/L esegue la simulazione ad una velocità 822 volte superiore di un normale computer, “ma – ha chiarito – con un programma ad hoc si potrebbero ottenere risultati migliori”.
Comunque la velocità per ottenere immagini ad alta risoluzione è ancora inferiore a quella necessaria per passare il test di Turing Grafica. Ma il supercomputer in grado di passare il test può essere ad un solo anno di distanza, sottolinea McGuigan. “Non si può mai sapere con certezza fino a quando non si è in grado di farlo”, aggiunge. Secondo il ricercatore, la riproduzione della realtà è ottima, ma ancora non sufficientemente veloce: “Dai dati che ho ottenuto sarà possibile ottenere una riproduzione perfetta con una velocità di un milione di miliardi di operazioni al secondo – spiega McCuigan – un risultato che dovrebbe essere raggiunto in pochi anni”. Gia, ma quanti’
Per tentare di fare un calcolo, si potrebbe ricorrere alla cosiddetta “legge di Moore”, basata su una osservazione empirica di uno dei guru della scienza dei computer, quel Gordon Moore che nel 1968 fondò Intel (oggi prima produttrice mondiale di microprocessori). Nel 1965, Moore, spiegò che tra il 1959 e il 1965, il numero di transistor che formano un chip raddoppiava ogni anno. La teoria è poi stata rielaborata e riformulata alla fine degli anni Ottanta nella sua forma definitiva: le prestazione dei processori raddoppiano ogni 18 mesi.
Questa teoria da molti viene presa come un enunciato che non tiene conto di fattori legati al mercato, ma in linea di principio sembra tenere. Dunque per passare dai 103mila miliardi di operazioni al secondo di un moderno supercomputer ad un milione di miliardi di operazioni al secondo, ci separerebbero appena quattro anni. Un tempo teorico che potrebbe anche ridursi.
fontr: www.repubblica.it