Ho finito l'altro ieri di ri-leggere Congo, di Michael Crichton, che nel corso del romanzo avanza alcune ipotesi sul futuro della tecnologia, ipotesi che oggi possono apparire piuttosto ingenue (era pur sempre il 1979), ma che mi hanno dato un po' da pensare.
In questi ultimi dieci, venti anni i computer e la tecnologia in generale hanno fatto passi da gigante: pensate alla potenza nascosta dentro un cellulare di ultima generazione, o al fatto che a metà degli anni novanta il top per i sistemi desktop era costituito da un Pentium 60 con 16 Mb di RAM, 32 se andava bene.
Però ho l'impressione è che si stia, come nel mercato dell'automobile, spremendo tutto il possibile da una concezione del computer decisamente datata. Voglio dire: sono arrivate le schede acceleratrici e le GPU (Graphic Programmable Unit) a prendere il posto delle Trident PCI da 1Mb, il bus di sistema è passato da 8 a 133 Mhz, le CPU vanno a 3Ghz invece che a 66 Mhz, gli hard disk sono Serial-ATA invece che IDE, ma alla fin fine, quello che rimane dentro il case è pur sempre una macchina di Von Neumann: processore, dispositivi di I/O, unità di memoria di massa (volatile e non). Ricevi le istruzioni come input, elaborale, genera l'output.
Siamo sicuri che non si possa fare davvero di meglio? Che tutto quello che il futuro ci riserva è questo? Quanti anni ci vorranno prima che si decida di tentare nuove soluzioni? O meglio: quanto tempo ci vorrà prima che qualcuno giudichi economicamente conveniente battere altre strade?
Buon inizio di settimana a tutti!