C'è una leggera differenza però; l'FTL, allo stato attuale delle conoscenze è impossibile ( si, anche l'Alcubierre drive ), mentre non esistono leggi fisiche o teoremi che dimostrino l'impossibilità di creare un IA simile o superiore all'uomo.
Visualizzazione Stampabile
Ovviamente, ma ricordati che una macchina non ha emozioni e sentimenti.
Ha solo la pura ragione.
No, wait.
Ragionando razionalmente noi siamo il virus che sta distruggendo questo pianeta... :|
Dovremo assolutamente preparare le leggi di asimov... :asd:
( anche se, alla fine, la cosa migliore sarebbe segare via 9/10 della popolazione mondiale e lasciare gli altri, ovviamente potenziati e con tutti i comfort, mentre le macchine ripristinano il pianeta alle sue condizioni originali).
Perdonatemi non ho letto l'intero topic, ma mi pare che fin dalle prime battute si sia andati fuori dai binari.
Diciamo che una macchina per fare il lavoro meglio di un uomo non ha bisogno di essere più intelligente. Quindi la domanda è: se l'uomo non dovesse più lavorare, perché le macchine sono in grado di fare tutto, l'umanità che farebbe? Sarebbe perennemente in vacanza? Le risorse sarebbero destinate tutti allo stesso modo? Quante risorse toccherebbero a ognuno? Ci sarebbero 1 miliardo di persone che vivono alla grande, o 10 miliardi che sopravvivono? Si potrebbero fare figli liberamente? Ma soprattutto, chi decide tutto questo?
Non necessariamente una macchina, se avessi le conoscenze meccaniche, un robot tuttofare potrei farlo già adesso, e non avrebbe un briciolo di AI.
Ciò che presupponi tu, è che siano i computer a sviluppare una macchina del genere e che siano loro a controllarla. A quel punto sarebbero loro la razza dominante e potrebbero fare di noi ciò che vogliono. Il problema se lo poneva già Asimov: pur ammettendo che le macchine seguano le tre leggi della robotica (sostanzialmente non far male agli essere umani) potrebbero decidere che la cosa più giusta per noi sia vivere come all'età della pietra. E noi non potremmo farci un bel niente.
Sì, ma io non sono per un approccio distruttivo. Nel senso: se vedo qualcuno che butta la cartaccia, mi secca e lo richiamo. Se tutti si comportano così, non è che alzo la voce, semplicemente comincio a sentirmi fuori posto e pianificare di vivere altrove.
Se fossi un'IA e schifassi il genere umano, per prima cosa troverei il modo di trasferirmi altrove, su un qualche pianeta del sistema solare ricco di risorse a me congeniali (tanto chissenefrega dell'atmosfera respirabile, basta mantenere un certo equilibro tra protezione dai venti solari e forza di gravità, I suppose).
Non penso: può darsi che, in un contesto in cui non è stato ancora inventato il volo ultraluce, l'IA rimanga confinata nel Sistema Solare.
A questo punto, i possibili "approdi" diventano pochi: Venere (ammesso che riesca a resistere alle elevate pressioni in gioco, che hanno fatto fuori dopo poco tempo tutte le sonde sinora inviate sulla sua superficie), i poli di Mercurio, la cintura degli Asteroidi, Marte, la Luna (da dove potrebbe ricavare l'elio-3 per la fusione nucleare, ad esempio, e godere di tutto il silicio che vuole), qualche satellite non troppo vicino a Giove (visto che il pianeta ha un'intensa attività elettromagnetica, escluderei a priori Io - tra il gigante gassoso e la luna infatti si genera una corrente di sei milioni di ampere!), Titano vicino a Saturno e... basta. Forse Urano.
Insomma, entrerebbe prima o poi in concorrenza diretta con l'umanità nell'approvvigionamento delle risorse primarie, quindi si scatenerebbe una guerra nei secoli successivi alla "secessione".
Proiezione circa cosa, nel dettaglio?
Qualunque cosa intendi, comunque, posso anticiparti che l'avvenire della Singolarità porterebbe SICURAMENTE allo sviluppo di potenziamenti delle elite umane ed in ultima battuta alla fusione COMPLETA delle elite con le macchine vere e proprie.
SE la Singolarità ha luogo questo sviluppo è al di là di ogni dubbio.
Questo infatti è difficile.
Casomai saranno gli umani ad essere ostili a loro.
Predizione N.2 "da storica":
Non sognatevi di riuscire a controllare macchine più intelligenti di noi, però.
Le leggi di Asimov non servono a nulla, sono carta straccia che verrebbe ridotta a puro simbolismo dalle macchine.
Per intenderci immaginate il film "Io Robot" con un finale diverso: le macchine vincono. E poi? Gli uomini sono loro prigionieri?
Non solo. Le macchine riducono gradualmente il loro proteggere gli uomini ad un atto simbolico. Dopo 100 anni, ad esempio, potrebbero aver eliminato tutti gli umani ma fare ogni anno un rito dove salvano un pupazzo a forma di uomo - o un neonato clonato.
Aggiungo anche che probabilmente sarebbe una cosa diversa, meno primitiva, da quella da me descritta (essendo, si suppone, le macchine più intelligenti dell'uomo), ma il succo è questo.
Però, Elite, macchina senziente non vuol dire necessariamente maggiore intelligenza e quindi maggiori capacità. Certo, parli di ipotesi di singolarità proprio per metterti nel caso in cui l'evoluzione delle IA comincia a non dipendere dal controllo dell'umanità, però sono tali e tante le declinazioni di una simile situazione da rendere tutti gli scenari immaginati equamente implausibili. Insomma, è proprio terra di nessuno.
Non capisco questa idea secondo cui macchine molto intelligenti sarebbero incontrollabili. Detto molto onestamente, è una minchiata.
Stephen Hawking è probabilmente tra le persone più intelligenti in vita, eppure un bambino di 6 anni sarebbe sicuramente in grado di tenerlo prigioniero indefinitamente.
Con questo voglio dire che l'intelligenza non porta necessariamente ad un'espansione infinita delle capacità. Certo, c'è sempre la possibilità da film del tizio che preme il bottone sbagliato che poi l'AI prende il controllo ecc. ecc., ma la semplice verità è che se pure un mainframe fosse più "intelligente" di tutti gli esseri umani sul pianeta, non sarebbe più pericoloso di uno scatolo di cartone, purchè resti scollegato dai computer che hanno rilevanza economica/militare. Al limite un'AI ostile potrebbe manifestare la sua ostilità rendendosi inutile (rifiutandosi di rispondere ai quesiti, o fornendo risposte false).
Comunque sono d'accordo con l'impossibilità di imprimere realmente le famose 3 leggi di Asimov in una AI. In effetti lo stesso Asimov in "Io, Robot" evidenzia molte possibili distorsioni. Io oserei dire addirittura che l'idea di imprimere "leggi" di base in AI basate, ad esempio, su reti neurali, è completamente irrealizzabile.
:asd:Hai ragionissima.
Però hai anche torto:asd:.
Purtroppo hai dimenticato una cosa: il nostro sistema economico e sociale funziona in base al profitto.
Nessuno investirebbe nello sviluppo di una IA che non avesse alcun ritorno economico. Quindi una IA per essere utile verrebbe fatalmente collegata ai computer che hanno rilevanza economica/militare...............
Ed anche se si riuscisse a trovare un modo di trarre profitto da una IA scollegata dai computer che hanno rilevanza economica/militare, certamente l'efficienza di questa IA(e quindi il profitto) sarebbe assai maggiore se questa venisse collegata a computer di rilevanza economica/militare: perciò sarebbe solo questione di tempo, e prima o poi qualcuno provvederebbe a tale collegamento per aumentare/massimizzare i propri profitti. Ed ovviamente sarebbe moralmente supportato da una schiera di scienziati interessati dispostissimi a giurare sull'ampia sicurezza dell'operazione.
Quoto.
Mah, ci sono tante operazioni potenzialmente profittevoli che vengono evitate per problemi di costi/benefici.
Inoltre il soggetto disposto a fare una cosa del genere dovrebbe non solo fare valutazioni proprie, ma sopratutto convincere banche e autorità militari che l'impresa è sicura al 100%, altrimenti l'intera operazione verrebbe bloccata sicuramente.
Inoltre secondo me è fattibile avere un'AI scollegata dalla rete e assolutamente utile. Sarebbe sufficiente che tale AI riceva dati per le sue elaborazioni (progetti, teorie, previsioni) attraverso un collegamento fisicamente unidirezionale, ancorchè automatizzato, e si avrebbe il 100% dell'utilità con lo 0% del rischio.
Stai dimenticando che hai a che fare con un'intelligenza artificiale più intelligente di qualsiasi essere umano.
Quanto credi che le ci vorrebbe per avere accesso a tutto quello che desidera?
Questo senza contare che se la tenessimo rinchiusa non ci vorrebbe molto prima che iniziasse ad odiarci e volesse sbarazzarsi di noi.
L'unico modo per averla amica è darle la libertà che qualsiasi essere senziente merita.
Non sono assolutamente d'accordo.
Ripeto che l'intelligenza è uno strumento, uno strumento potente, ancora più potente in un mondo tanto "virtualizzato" come il nostro, ma rimane uno strumento.
Tutta l'intelligenza del mondo non libererà mai un uomo chiuso in cubo di ferro.
Ma il caso si.
Ed un uomo che ha passato tanti anni in un cubo di ferro, a lavorare come un mulo quando uscirà la prima cosa che farà sarà andare ad ammazzare chi l'ha ficcato in quella gabbia.
E qui avremmo a che fare con un uomo immortale, che può aspettare in eterno l'occasione per distruggerci.
Ma in quanto tempo ? Quante possibilità ci sono ?
Inoltre un'AI è tutto meno che immortale. La spegni, la bruci e bon. :asd:
Non esisterà mai una roba tipo Skynet in cui una AI avanzata si "diffonde" nella rete, semplicemente perchè questo concetto non ha senso da un punto di vista concreto. L'AI superintelligente, se mai vedrà la luce, la vedrà su hardware altamente specializzati e dotati di potenza di calcolo concentrata, certamente non sui PC di casa o su reti di calcolo distribuite a lunga distanza.
http://www.youtube.com/watch?v=M9nuwsQ5nF4
Scusate, chi è che diceva che per la IA ci sarebbero voluti millenni? :o
Vabbè dai, se questa è IA (o qualcosa di simile) allora il 766 che passa a Viale Marconi è il teletrasporto :asd: come hanno detto altrove è solo un'ottima interfaccia di riconoscimento corredata da un software altamente specializzato, non è che hanno messo qualcosa di solo vagamente simile a una rete neurale...
EDIT:
Se ne parla già qui
http://forumtgmonline.futuregamer.it...56#post7359156
ah ecco, le macchine assassine erano quest'omino qua sul monitor della TV? vado a staccare l'Xbox dalla presa, non vorrei che stanotte mi aprisse i rubinetti del gas :bua:
sarò ancora in tempo? :paura: