non è IT?
non ho capito una sega? /lettosoloprimopostequalchealtrorandom
Ha molti sensi, IHMO, dipende di quale vuoi parlare. Per me vuol dire che se lasci una ottima idea in mano agli ingegneri, andrà tutto in mona di fisso
Mah, da Ingegnere Informatico posso dirti che tutto questo, ad oggi, è semplicemente fantascienza...E' da un pò che ci penso oramai, ed il fatto che milioni di persone continuino a perdere il proprio lavoro con la crisi non ha fatto altro che potenziare il mio dubbio.
E' oramai palese che buona parte dei lavori di produzione vengono fatte dalle macchine, e l'uomo ha ruoli sempre più marginali, fondamentalmente di controllo.
Sono pochi i ruoli che le nostre creazioni tecniche non possono svolgere, e sono fondamentalmente limitati nella sfera dello sviluppo e dell'innovazione, dove al momento le macchine come creatori non trovano posto, in quanto mancano di intelligenza e coscienza.
Ora, con la singolarità, che ricordiamo è il punto in cui l'intelligenza artificiale supera quella umana( in realtà la spiegazione è più complicata, ma sorvoliamo), le macchine non solo arriveranno al livello degli esseri umani, ma lo supererà facilmente, sia perché le IA hanno un vantaggio che noi possiamo solo sognarci( scambio di informazioni RAW in tempo reale), sia perché da li in poi si evolveranno autonomamente, senza alcun bisogno di assistenza umana.
Raggiunto questo punto, però, gli esseri umani stessi diventeranno inutili, in quanto una macchina potrebbe fare qualsiasi lavoro che l'uomo ora fa, ma meglio, più velocemente, e soprattutto con un consumo molto inferiore di risorse.
Ed è qui la domanda che sovviene, e che volevo porvi: cosa pensate che succederà allora? Non mi riferisco al comportamento delle macchine, che non potremo più comprendere, ma a quello degli umani.
Come si comporteranno i potenti in una situazione dove il lavoro umano è superfluo? Lo annulleranno? Daranno a ciascun essere umano le risorse di cui abbisogna per vivere e basta? O semplicemente ci lasceranno morire di fame?
Oppure qualcos'altro?
Provate a mettervi voi nei panni di chi governa e si trova in questa situazione. Cosa fareste?
A livello di tecnologia si è ancora lontanissimi dal creare qualcosa che sia anche minimamente paragonabile a un cervello umano, le IA che sono disponibili oggi non sono altro che grandissime banche dati su cui gira un motore che utilizza un insieme di regole per determinare il comportamento del calcolatore (quindi finché si rimane in un dominio di situazioni ben definito e per cui esistono delle regole che la macchina può seguire nessun problema, se si "sgarra" il cervello umano è ancora anni luce avanti a ciò che può fare anche la CPU più potente)...
La ricerca su questi temi è interessantissima, ma nonostante l'IA sia uno dei settori su cui si concentra di più la ricerca nel settore informatico, ancora siamo parecchio indietro.
Quoto tutto, il problema è che il presupposto da cui parte la discussione è, se non proprio sbagliato, quantomeno molto improbabile.Elevul, non ho voglia di risponderti più di tanto seriamente visto che mi ricordo qualche tuo intervento passato, e non sei esattamente nella mia lista delle fonti attendibili.
Sappi solamente che, persino a chi si occupa anche solo MARGINALMENTE di lavori vagamente inerenti alla cosa, che la promessa delle IA fantascientifiche che intendi tu (termine che fra l'altro, ha all'atto pratico un significato molto differente rispetto alla concezione "idealizzata" di Intelligenza Artificiale come versione artificiale di un essere senziente... è una pura teorizzazione che risponde al concetto di IA "forte") è un qualcosa che si propina regolarmente ai giornalisti un po' più stupidi fin dalla seconda metà degli anni 1970 , e nonostante certe "promesse" i presupposti attuali sono più o meno peggiori di quelli di 15 anni fa.
Ancora gli informatici si stanno chiedendo, ad esempio, a che cosa servano concretamente le ontologie e come rapportarle con i linguaggi logici "next-gen" o sul metodo migliore per sfruttare la logica fuzzy per ottenere dei processi decisionali più versatili. Ad esempio, sempre sulle ontologie, in molti sorge il dubbio che si stia facendo della pura e semplice accademia?.
Riprovaci quando ti sei letto qualcosa di meglio di Wikipedia , e comunque in Backstage si parla di Attualità Politica, con prospettive per il futuro più imminente, già la fantapolitica c'entra poco, figurati la fantapseudoscienza . Quasi quasi mo apro un topic: "Come reagireste se foste un politico di fronte a un infezione incontrollata di un virus che presentasse le caratteristiche del Solanum?"
Il problema non è tanto di potenza di elaborazione, quanto del fatto che, negli ultimi 40 anni, praticamente non sono stati fatti progressi sostanziali nel campo della IA, per cui i sistemi attuali sono ancora qualitativamente "stupidi" come lo erano quelli di decine di anni fa...
Allo stato attuale delle cose, niente ci garantisce che tutti gli sforzi profusi nella ricerca sulla IA non verranno abbandonati tra 5-10 anni (nessuno si ricorda l'hype sulla Realtà Virtuale?).
Approposito di intelligenza artificiale:
http://www.dailygalaxy.com/my_weblog...ot-hitler.html
Notare come l'evoluzione sia stata estremamente veloce, per via del metodo di comunicazione efficiente e molto veloce.
Interessante esperimentoApproposito di intelligenza artificiale:
http://www.dailygalaxy.com/my_weblog...ot-hitler.html
Notare come l'evoluzione sia stata estremamente veloce, per via del metodo di comunicazione efficiente e molto veloce.
pdf originale:
http://infoscience.epfl.ch/record/135222/files/
E' inevitabile che accadrà quello che oggi ci sembra fantascienza (sempre che la nostra specie resista tanto a lungo)... purtroppo ci vorrà un tempo che non é neppure lontanamente stimabile (potrebbe succedere pure domani). Di certo non sarà l'uomo a fermare una situazione simile.
Semplice: dapprima verranno riservati i potenziamenti ad un'elite, che si fonderà gradualmente con le macchine stesse (sino a divenire macchine vere e proprie), mentre ad un certo punto si provvederà ad eliminare la popolazione non-potenziata in eccesso (la cui percentuale sul totale della popolazione mondiale è da valutarsi tra il 25% ed il 75%) con un virus "intelligente" fuggito "per errore".Come si comporteranno i potenti in una situazione dove il lavoro umano è superfluo? Lo annulleranno? Daranno a ciascun essere umano le risorse di cui abbisogna per vivere e basta? O semplicemente ci lasceranno morire di fame?
Oppure qualcos'altro?
Provate a mettervi voi nei panni di chi governa e si trova in questa situazione. Cosa fareste?
Questo non è ciò che farei io, ma ciò che MOLTO probabilmente accadrà.
Mah, da Ingegnere Informatico posso dirti che tutto questo, ad oggi, è semplicemente fantascienza...
A livello di tecnologia si è ancora lontanissimi dal creare qualcosa che sia anche minimamente paragonabile a un cervello umano, le IA che sono disponibili oggi non sono altro che grandissime banche dati su cui gira un motore che utilizza un insieme di regole per determinare il comportamento del calcolatore (quindi finché si rimane in un dominio di situazioni ben definito e per cui esistono delle regole che la macchina può seguire nessun problema, se si "sgarra" il cervello umano è ancora anni luce avanti a ciò che può fare anche la CPU più potente)...
Stiamo parlando di un processo che deve soltanto raggiungere lo stadio autocatalitico, il che potrebbe avvenire già tra 10 anni.
Persino tra soli 5 anni se a qualcuno venisse in mente il "trucchetto" decisivo: non serve avvicinarsi all'intelligenza umana ma solo creare qualcosa in grado di evolvere ed autopotenziarsi da sé. Basta uno "stupido gatto con intelligenza autocatalitica".
Una volta raggiunto lo stadio autocatalitico il successivo progresso va da' sé, accelerando in maniera a noi umani man mano sempre più incomprensibile.
Con questo non voglio dire che la singolarità avverrà sicuramente tra 5 o 10 anni: potrebbe avvenire anche tra 20 o 30 anni.
Ultima modifica di ElitePhoenix; 24-05-09 alle 11:19:27
Ci credo ben poco.
Parlare con tanta leggerezza di autocatalisi mi pare riduttivo di fatto è il processo probabilmente più complesso in natura, e alla base della vita (lì si tratta di autopoiesi a essere precisi, ma vabbè). Anche la capacità di evolvere è una delle intrinseche proprietà della vita quindi, a ben vedere, si sta praticamente "solo" chiedendo alla tecnologia di realizzare qualcosa che integri le tecnologie informatiche con l'avvento della vita...detto in termini molto vaghi. Auguri a me sembra un'impresa che non verrà mai realizzata...
Senza offesa per nessuno.
Ma le risposte che ho letto sinora indicano chiaramente che l'intelligenza umana sarà facilmente superata dalle macchine.
La risposta che mi è piaciuta più di tutte è questa:
Hai ragione.
Infatti nella storia umana non ci sono mai stati problemi né conseguenze impreviste
E come potevano esserci? Quelli che stavano lavorandoci su si ponevano tutte le domande e ci mettevano un fermo
Oddio, prima volta che sono d'accordo con Phoenix.Senza offesa per nessuno.
Ma le risposte che ho letto sinora indicano chiaramente che l'intelligenza umana sarà facilmente superata dalle macchine.
La risposta che mi è piaciuta più di tutte è questa:
Hai ragione.
Infatti nella storia umana non ci sono mai stati problemi né conseguenze impreviste
E come potevano esserci? Quelli che stavano lavorandoci su si ponevano tutte le domande e ci mettevano un fermo
Ovviamente concordo. Quelli che ci stanno lavorando stanno pensando a come farlo funzionare, non alle possibili conseguenze di ciò che stanno facendo...
ok, salutatemi Skynet.
ci credete solo voi due.
posso sapere i vostri titoli accademici, cortesemente?
- Ammiraglio elevul,
- Comandante supremo della flotta Asgard.
- Laureato alla University of Toronto, in Ingegneria Aerospaziale. Tesi sui motori iperluce.
- Cavia del progetto CUK*, dove mi è stata impiantata tutta la conoscenza Asgard.
- Ingegnere capo della divisione progettazione astronavi, Flotta Asgard.
- Senatore a Vita del Senato della Federazione Galattica.
- Responsabile di tutto ciò che riguarda la tecnologia e conoscenza Asgard.
*Connection for the Uploading of Knowledge
E' sufficiente?
Pensavo di dedicare la mia vita alla sua costruzione, una volta presa la laurea in Informatica.
Sarei curioso di sapere come farebbero Phoenix o elevlul a risovere il problema della deduzione logica o della rappresentazione della conoscenza. Se mi danno una dritta su questi punti, penso di poter finire il progetto in 50-60 anni.
Edit: elevlul, davvero sei del 90?
Ultima modifica di Ruri; 24-05-09 alle 21:40:30
/getalife- Ammiraglio elevul,
- Comandante supremo della flotta Asgard.
- Laureato alla University of Toronto, in Ingegneria Aerospaziale. Tesi sui motori iperluce.
- Cavia del progetto CUK*, dove mi è stata impiantata tutta la conoscenza Asgard.
- Ingegnere capo della divisione progettazione astronavi, Flotta Asgard.
- Senatore a Vita del Senato della Federazione Galattica.
- Responsabile di tutto ciò che riguarda la tecnologia e conoscenza Asgard.
*Connection for the Uploading of Knowledge
E' sufficiente?
con simpatia però
Secondo me avete un'idea un pò romantica delle capacità delle macchine.
Stiamo parlando di un processo che deve soltanto raggiungere lo stadio autocatalitico, il che potrebbe avvenire già tra 10 anni.
Persino tra soli 5 anni se a qualcuno venisse in mente il "trucchetto" decisivo: non serve avvicinarsi all'intelligenza umana ma solo creare qualcosa in grado di evolvere ed autopotenziarsi da sé. Basta uno "stupido gatto con intelligenza autocatalitica".
Una volta raggiunto lo stadio autocatalitico il successivo progresso va da' sé, accelerando in maniera a noi umani man mano sempre più incomprensibile.
Con questo non voglio dire che la singolarità avverrà sicuramente tra 5 o 10 anni: potrebbe avvenire anche tra 20 o 30 anni.
Ammesso e non concesso che si riesca a creare una macchina-base intelligente, ammesso e non concesso che si riesca a concepire un sistema di selezione "genetico" che permetta effettivamente a tale macchina di migliorarsi, le macchine sono LENTE quando si tratta di svolgere funzioni "superiori".
Tra l'uomo ed il gatto ci sono 20 milioni di anni di evoluzione, qualche milioncino di generazioni, ciascuna composta da milioni di individui.
Immaginiamo di avere il più grosso supercomputer mai costruito e di riuscire a simulare una "generazione" in un giorno, immaginiamo che i nostri criteri selettivi siano così buoni da essere 10 volte più veloci della selezione naturale nel produrre intelligenze superiori.
Allora facciamo 1.000.000 (generazioni che ci ha messo la natura) / 10 (siamo più bravi della natura) * 1 giorno (ci mettiamo solo un giorno per ogni generazione, mentre la natura ci mette 20 anni) = 275 anni.
Io non dico che non sia possibile creare intelligenze artificiali pari o superiori all'uomo, però che la si metta nei termini di "Premi un bottoncino e grazie alla velocità del computer in 1 anno fai Dio su silicio" è un pò triste.
Asimov ha sicuramente studiato delle interessanti teorie sull'evoluzione del genere umano.
Una molto interessante era quella secondo la quale la disoccupazione creata dall'automazione di molte funzioni affidate agli esseri umani, avrebbe portato all'emigrazione dei disperati nello spazio che sara' la prossima frontiera.
Del resto la terra non puo' sostenere ancora a lungo con l'economia attuale 6-7 miliardi di persone, quindi o si verifichera' un'espansione o un collasso.
se il genere umano aumenta e le risorse sulla terra diminuiscono, queste non possono che essere ricercate altrove.
Bof. Non resco a capire se si sottovaluti la complessità della rete neurale che teniamo in capoccia oppure se non si ha idea di come funzioni una CPU.
Finché non si trova una tecnologia hardware per simualre i neuroni, non c'è storia. Ok, ci sono i memristori, giurin giuretta che me li studio, appena ho tempo, ma qualcosa mi dice che, alla fine, il modo più semplice per riprodurre un neurone, sarà un neurone.