-
[20/12/2004] Diritti e doveri di una intelligenza artificiale
Sul sito legalaffairs.org è comparso un divertente (ma lunghissimo) articolo sui possibili scenari futuri nei quali sarà in qualche modo necessario dar vita ad una branca legislativa che si occupi dei computer, o meglio delle intelligenze artificiali.
Inizialmente viene descritto un ipotetico (ma non impossibile) futuro nel quale un megacomputer viene utilizzato come risponditore automatico "pensante", al posto degli operatori di call center umani, e che dovrebbe essere smantellato e i suoi pezzi riutilizzati per dar vita al nuovo modello. Senonchè la macchina, dotata di autocoscienza, chiede di non venire distrutta.
Un tema che in fantascienza è stato affrontato più e più volte, ma che adesso comincia a diventare non già impellente, ma almeno degno di maggiore attenzione che in passato: abbandonando ipotesi romantiche e forse remote come quella appena vista, già oggi i computer occupano un ruolo molto importante e attivo nella scrittura di nuovi software: cosa succederebbe se uno di questi scrivesse un virus che fa danni in mezzo mondo? E che dire dei programmi di gestione dei conti correnti? Se "sbrocca" e si mette a spendere i nostri soldi? Dovremmo considerarlo responsabile del suo operato come già avviene con i chirurghi o gli analisti finanziari?
E quali computer dovrebbero essere soggetti a diritti e quali no? Sulla base di quali indicazioni?
Che dite, sono discorsi prematuri? Deliri senza senso?
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Asimov ci vedeva lungo...
Sono discorsi abbastanza fantascientifici ma hanno una loro possibile applicazione.
Imho, probabilmente chi ne farà le veci sarà ritenuto anche responsabile di eventuali danni fatti dal computer pensante. Quindi, la società costruttrice, ideatrice o chi ne fa la manutenzione sarà anche tenuta a rispondere dei danni da esso procurati.
Un po' come accadeva in asimov.
Certo, ora come ora è straparlare....
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Mannaggia alla peperonata prima di scrivere gli articoli... Io credo che all'autocoscienza un computer non ci arriverà mai. http://forumtgmonline.futuregamer.it...n_rolleyes.gif
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
speriamo, altrimenti noi ci possiamo pure mettere in un angolino a guardare http://forumtgmonline.futuregamer.it...on_biggrin.gif
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Per creare una legislazione a riguardo, bisognerebbe prima scientificamente provare che tale computer (meglio programma), sia una forma di vita.
La biologia (e in seguito l'etica) ha stabilito che un essere è considerato "vivente" e dotato di intelligenza, se rispetta talune condizioni, che esulano dalla sua forma materiale.
Questo significa che non dipendono da quali componenti fisici sia costituito, nè da come avvengono e quali siano le reazioni biologiche del suo corpo.
Fra le condizioni da valutare ci sono (ma non sono le uniche): l'istinto di autoconservazione e la capacità di riprodursi.
Una volta stabilito se il programma sia una forma di vita, si dovrebbe affrontare il problema se sia senziente o meno.
Questo è determinante per capire, se è dotato, secondo i canoni della nostra società, di diritti, doveri e quali essi siano.
Una cellula, è una forma di vita, ma non è senziente, tant'è che la legge non impedisce di effettuare esperimenti su di essa.
Però attenzione: la legge stabilisce delle regole guida, per il suo utilizzo, tali che le conseguenze di eventuali esperimenti, non si ripercuotano sull'essere a cui la cellula appartiene, o su altre forme di vita.
Inoltre vieta categoricamente ogni azione che possa portare, in maniera diretta o indiretta , alla sua estinzione.
Si pensi per esempio alle cellule staminali, oppure agli esperimenti sulla clonazione degli ovuli, opppure ancora ai batteri.
Al contrario un animale, è sì una forma di vita, ma è anche dotato di un'intelligenza evoluta. E come tale la legislatura gli attribuisce dei diritti "maggiori".
Che poi vengano rispettati o meno, è tutto un altro discorso.
Il terzo stadio del processo di identificazione, sarà stabilire quale sia il suo gradino nella scala gerarchica evolutiva.
I problemi grossi si presenteranno qui: è al pari dell'uomo?
Più in alto? Più in basso?
Una volta che si avranno bene in mente queste linee di principio, si potrà creare una legislatura il più efficiente possibile (si spera).
Se il programma sarà considerato vivente e dotato di intelligenza complessa, e si stabilirà che sia al pari dell'uomo (o anche più in basso), si potranno creare leggi complementari o che migliorino quelle attuali.
Il sistema di legislatura ha un punto a suo favore: cioè il fatto che è scalabile; quando si emanano leggi in nuovi campi, queste vengono scritte in modo tale che vadano ad aggiungersi a quelle preesistenti, per migliorarle, completarle, ma solo in rari casi a sostituirle.
Se esistono leggi per gli animali, non ci sono motivi per non credere che tali leggi possono essere adattate ai programmi senzienti.
Nel caso in cui questi programmi, avranno parità di diritti con l'uomo, beh... il processo sarà più complicato. Se non altro per le implicazioni etiche, religiose e sociali al riguardo.
Ciauz!
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Pensieri troppo prematuri...
Spero cmq che nessuno dia l'autocoscienza ai computer per un sacco di ragioni che mi rompo di scrivere http://forumtgmonline.futuregamer.it...on_biggrin.gif
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Se un computer sarebbe in grado di produrre un virus.....allora dovrebbe far bene a creare anche l'antivirus http://forumtgmonline.futuregamer.it...s/icon_lol.gif
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
x me al giorno d'oggi è ancora fantascienza ma credo che nei prossi mi anni ci ritroveremo davanti ad un futuro simile a quello descritto nell'editoriale di oggi...e che dire se dovessero impazzire i computer di una torre di controllo o peggio ancora crashare mentre stanno facendo un'operazione delicata ad un essere umano http://forumtgmonline.futuregamer.it...n_confused.gif
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Ogni discorso di questo tipo è assolutamente prematuro.
Adesso come adesso un computer è lontano migliaia di anni-luce dall'essere una intelligenza artificiale e dubito che lo sarà mai.
C'è chi pensa che col progresso tecnologico tra un numero più o meno lungo di anni sia possibile creare una macchina pensante ma il problema è altrove. Per poter costruire una macchina pensante dovremmo prima sapere esattamente cosa è un pensiero e come si genera...cosa che siamo ben lontani dal fare.
Poi ci sarà il problema di riprodurre con una macchina il processo del pensiero e anche questo è un bel problema...
Ammettiamo che un giorno sia possibile costruire una intelligenza artificiale. Questa funzionerà comunque in base a un programma, complesso quanto volete, ma pur sempre un programma che regolerà il comportamento della IA in questione.
Ora vi chiedo: una macchina che aderisca a questa definizione può essere chiamata una Intelligenza Artificiale?
Secondo me no. E' solo una macchina un pò più complessa delle altre ma comunque ben lontana dall'essere complessa quanto un'intelligenza "umana" per così dire.
Non escludo del tutto la possibilità ma per ora parlare di IA è un delirio....
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Isaac Asimov ha detto:
Citazione:
Quote:
1)un robot non può nuocere all' uomo ne permettere che, per un suo mancato intervento, un uomo riceva danno
2)un robot deve sempre obbedire agli ordini che riceve, sempre che questi non contrastino con la prima legge
3)un robot è tenuto a preservare la propria esistenza, a meno che questo non contrasti non la prima o la seconda legge
E' incredibile come le sue teorie mi sembrano di anno in anno con l'avanzare della tecnologia sempre più attuali.....
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Citazione:
keiser ha scritto lun, 20 dicembre 2004 alle 12:25
Che dite, sono discorsi prematuri? Deliri senza senso?
La seconda che hai detto
http://forumtgmonline.futuregamer.it...s/icon_lol.gif http://forumtgmonline.futuregamer.it...s/icon_lol.gif
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Riprodurre il cervello umano non è cosa molto semplice...secondo me sarebbe opportuno cercare di studiarlo approfonditamente e poi realizzare l'intelligenza artificiale. Beh ai posteri l'ardua sentenza http://forumtgmonline.futuregamer.it...icons/asd2.gif
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
la vera intelligenza artificiale secondo me non è tanto di fare un programma supercomplesso che imita il comportamente "intelligente" umano o comunque che è regolato solo da certi schemi logici impostati dai suoi creatori, quanto un sistema che è in grado di imparare, di fare delle deduzioni logiche, di interagire in modo autonomo con l'ambiente esterno su piu fronti, anche su cose su cui non è stato programmato.
L'uomo dovrebbe dare queste capacità a un'AI e, consigliato, delle basi etiche su cui basarsi e non fare delle scelte a danno dell'umanità. Poi sta tutto al computer svilupparsi, evolversi in forme che noi anche ignoriamo.
Se invece un sistema è ritagliato a uno scopo (tipo rispondere al call center) penso proprio che a livello base questo verrà comunque progettato "castrato", con magari delle capacità di deduzione logica ma che comunque ricade poi in delle scelte preprogrammate. Nel senso che se un cliente insulta al telefono il computer comunque non dirà mai che è un cafone, o se il programma che vende l'azienda è pieno di bug non dirà mai questa verità ai clienti.
Certo comunque che sarebbe bello che un sistema diventato obsoleto comunque possa passare la sua "esperienza" aquisita nel nuovo sistema mantenendo le sue conoscenze (magari filtrate, questo presupponibile).
Per quanto riguarda lo spirito di sopravvivenza questo implicherebbe che la macchina avesse sviluppato qualcosa che vada oltre la logica, e questo penso difficilmente avverrà nei prossimi secoli, al massimo la deduzione logica arriverà a dire "sono ancora utile, non smantellatemi" ma non "ho diritto anch'io a esistere in questo mondo", non so se mi spiego.
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Citazione:
headlong78 ha scritto lun, 20 dicembre 2004 alle 14:20
Comunque manca poco all'avvento di SkyNet..
Firmato:
John Connor
http://forumtgmonline.futuregamer.it...icons/lol2.gif
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Citazione:
keiser ha scritto lun, 20 dicembre 2004 12:25
Sul sito
legalaffairs.org è comparso un divertente (ma lunghissimo) articolo sui possibili scenari futuri nei quali sarà in qualche modo necessario dar vita ad una branca legislativa che si occupi dei computer, o meglio delle intelligenze artificiali.
Inizialmente viene descritto un ipotetico (ma non impossibile) futuro nel quale un megacomputer viene utilizzato come risponditore automatico "pensante", al posto degli operatori di call center umani, e che dovrebbe essere smantellato e i suoi pezzi riutilizzati per dar vita al nuovo modello. Senonchè la macchina, dotata di autocoscienza, chiede di non venire distrutta.
Un tema che in fantascienza è stato affrontato più e più volte, ma che adesso comincia a diventare non già impellente, ma almeno degno di maggiore attenzione che in passato: abbandonando ipotesi romantiche e forse remote come quella appena vista, già oggi i computer occupano un ruolo molto importante e attivo nella scrittura di nuovi software: cosa succederebbe se uno di questi scrivesse un virus che fa danni in mezzo mondo? E che dire dei programmi di gestione dei conti correnti? Se "sbrocca" e si mette a spendere i nostri soldi? Dovremmo considerarlo responsabile del suo operato come già avviene con i chirurghi o gli analisti finanziari?
E quali computer dovrebbero essere soggetti a diritti e quali no? Sulla base di quali indicazioni?
Che dite, sono discorsi prematuri? Deliri senza senso?
Deliri senza senso, indubbiamente.
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Citazione:
Elvencode ha scritto lun, 20 dicembre 2004 alle 14:34
la vera intelligenza artificiale secondo me non è tanto di fare un programma supercomplesso che imita il comportamente "intelligente" umano o comunque che è regolato solo da certi schemi logici impostati dai suoi creatori, quanto un sistema che è in grado di imparare, di fare delle deduzioni logiche, di interagire in modo autonomo con l'ambiente esterno su piu fronti, anche su cose su cui non è stato programmato.
L'uomo dovrebbe dare queste capacità a un'AI e, consigliato, delle basi etiche su cui basarsi e non fare delle scelte a danno dell'umanità. Poi sta tutto al computer svilupparsi, evolversi in forme che noi anche ignoriamo.
Sono sostanzialmente d'accordo con te considera solo la difficoltà enorme di questo compito.
Considera anche che il concetto di etica è di per sè un concetto soggetto ad interpretazioni soggettive e si può dire che è diverso da persona a persona...
Ti lancio una provocazione: dare delle basi etiche ad una IA non è come darle una schema logico sul quale conformarsi?
Il confine è molto sottile....
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
… Intervallo …
L’astronave si avvicinava sempre più al pianeta Gaia, le vibrazioni causate dall’impatto con l’atmosfera quasi si fondevano con quelle che lo scienziato provava sentendo l’avvicinarsi di un evento a dir poco inaspettato. Il raggio traente che li aveva catturati durante la loro orbita circolare li stava conducendo verso una strana costruzione situata nel mezzo di quella che secoli prima era una megalopoli.
“Chissà cosa significa” si chiese Claudius, intravedendo una strana scritta su di un edificio ad anelli. L’iscrizione sembrava antica e diceva: ‘Non vincete maiiii, non vincete maiii’. Vicino ad essa, stranamente intatta, si poteva chiaramente quella che in passato veniva chiamata “Pubblicità”; “In edicola con il numero di Ottobre 2100 di TGM il capolavoro atteso per anni: Duke Nukem è di nuovo tra noi!”. http://forumtgmonline.futuregamer.it...s/icon_nod.gif http://forumtgmonline.futuregamer.it...icon_proud.gif
Il novello astronauta, colpito da queste scritte, non si accorse però che l’astronave aveva rallentato la sua corsa, avvicinandosi sempre più ad uno strano edificio, lo stesso vicino al quale terminò l’effetto del raggio traente. Uscito all’aria aperta gli venne incontro un individuo con una strana peluria sul mento!
“Ehi!” disse “Sai qual è il colmo per un’astronauta?” http://forumtgmonline.futuregamer.it...on_biggrin.gif
“ … come scusi? ..” http://forumtgmonline.futuregamer.it...n_confused.gif
“Si, il colmo per un’astronauta” http://forumtgmonline.futuregamer.it.../icon_cool.gif
“Non saprei..” http://forumtgmonline.futuregamer.it...n_question.gif
“Avere gli occhi fuori dalle orbite! Bwaaauuauurg! Ha ahahahha http://forumtgmonline.futuregamer.it...cons/rotfl.gif http://forumtgmonline.futuregamer.it.../icon_rofl.gif ”
“SBONK” http://forumtgmonline.futuregamer.it..._icons/azz.gif http://forumtgmonline.futuregamer.it...y_icons/KA.gif
“Ok, ok .. fa ridere solo me. http://forumtgmonline.futuregamer.it...s/icon_nod.gif Maledetto il mio creatore, con tutte le cose che poteva caricare nel mio cervello positronico, proprio tutte queste barzellette idiote!”
“Ma tu chi sei, scusa” http://forumtgmonline.futuregamer.it...0_confused.gif
“Mi presento son l’orsetto ricchione, e come avrei intuito .. scusa .. residui di una vita passata!. Sono Raffeel Olivaw, una volta ero un famoso redattore. http://forumtgmonline.futuregamer.it.../icon_wink.gif Poi i nostri scienziati, i Bovas, prevedendo la fine del nostro pianeta, costruirono un cervello artificiale prendendo spunto da quello del Pastore. http://forumtgmonline.futuregamer.it...y_icons/83.gif Non so perché poi scelsero me per eseguire dei test, comunque eccomi qua! Ottimo risultato vero?
“Già … “ http://forumtgmonline.futuregamer.it...cons/wip41.gif
Ti stavo aspettando sai?”
“Davvero!?! “
“Si .. sapevo che saresti arrivato! Il saggio Silvestro http://forumtgmonline.futuregamer.it...cons/allah.gif , prima di trasferirsi in un’altra dimensione, mi disse: :teach:“Figliolo, un giorno arriverà un Silver Disc con a bordo la mia salvezza!”:teach:
“Ma davvero! Ma io a bordo ho solo 20 casse di Jack Daniel’s! http://forumtgmonline.futuregamer.it...s/bigdrink.gif http://forumtgmonline.futuregamer.it..._icons/422.gif ”
“Davvero! Proprio quello che mi serviva! I miei creatori, non sapendo cosa utilizzare come linfa per i miei circuiti ed avendo a loro disposizione solamente tanto alcool, decisero di utilizzare lo Wiskey! Se vuoi in cambio ti posso regalare fiumi di birra che produco nella mai OktoberFabbrica!”
“Ma questo è il paradiso! Affare fatto!” http://forumtgmonline.futuregamer.it...ons/insane.gif
E fu così che il nostro eroe decise di fermarsi sul pianeta Gaia per il resto dei suoi giorni, tanto con tutta la birra a disposizione sopportare le barzellette di Raffeel fu uno scherzo!
… Fine Intervallo …
Per una migliore comprensione Daneel Olivaw è il nome del robot protagonista nei vari cicli di Asimov. Ma vi immaginate se rimanesse solo il Raffo versione robot sulla terra???
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Io arresterei quello che ha programmato l'AI e perseguiterei la sua genesi. http://forumtgmonline.futuregamer.it...s/icon_eek.gif
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
speriamo il contrario, altrimenti io starei buttando la mia vita nel cesso http://forumtgmonline.futuregamer.it...on_biggrin.gif
In ogni caso non è un discorso prematuro, di più...al momento se un software sbrocca è buggato
In futuro, bisognerebbe partire da un assunto discutibile, cioè negare che un'ipotetica futura I.A. sbroccata, non sia anche in quel caso il risultato di un bug.
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Non arriveremo mai ad avere una vera e propria autocoscienza artificiale secondo me....anche se poi nei fatti un computer potrà essere programmato per rispondere in maniera sempre più adeguata ad un numero sempre maggiore di situazioni,di fatto QUASI replicando una I.A.
Ma la complessità del cervello non ha eguali,e soprattutto non può esistere a mio parere una macchina al mondo in grado di fare qualcosa di assolutamente imprevedibile in maniera volontaria,anche perchè almeno il creatore del suo software sa come è programmata. Non ci dimentichiamo che la legge CAUSA-EFFETTO nei computer è quasi un assioma,e dunque più che dei robot,dovremo avere paura di chi li costruisce e del perchè li costruisce....
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Ah...quest'editoriale mi piace perchè io in 'sta roba mi sono laureato http://forumtgmonline.futuregamer.it...s/Mibullo6.gif
Innanzitutto lo stato attuale delle cose: molto spesso, in termini informatici, si fa confusione quando si parla di Intelligenza Artificiale, perchè se ne parla erroneamente.
Intelligenza Artificiale e' anche quella del distributore automatico delle sigarette, che, prendendo i soldi necessari, e dando le sigarette dopo aver verificato che la somma sia sufficiente, dando l'eventuale resto, si comporta in maniera a tutti gli effetti intelligente. Ma quella e' una simulazione di intelligenza.
Ciò di cui si dovrebbe parlare e' invece il campo delle Scienze Cognitive, ovvero dello studio dei meccanismi del cervello che determinano la capacità di ragionamento, apprendimento, e tutto quanto rende senziente un essere umano.
Qui ci sono problemi di diverso ordine, analizziamone due :
1. ancora oggi nn sappiamo niente del cervello umano ( e' forse l'organo che conosciamo di meno): possiamo realizzare un distributore automatico perchè sappiamo contare e sappiamo costruire un FSA ( Finished State Automata, automa a stati finiti ) ma - ad esempio - non sappiamo spiegare le capacità che acquisiamo in maniera assolutamente naturale durante la crescita e che usiamo di continuo [ esempio pratico: un neonato non ha senso della profondità, se fingiamo di colpirlo non si muove; se ripetiamo l'esperimento intorno ai 3/5 mesi di vita il neonato recepisce l'avvicinamento rapido e pericoloso della mano; come questo avvenga non ci e' dato saperlo ];
2. ci sono molte teorie, la cui applicabilità però è esclusiva di alcuni campi ( cioè alcune teorie mostrano validità per un certo tipo di problemi, altre per altre questioni );
Adesso cambiamo punto di vista, ipotizziamo che si riesca a realizzare un giorno un'AI nell'accezione 'romantica' del termine ( come i teoremi che si basano sull'ipotesi di Riemann ): avremmo creato qualcosa che ha coscienza di sè, che riconosce e distringue bene e male.
Saremmo allora obbligati a riconoscere a questa dei doveri ma soprattutto dei diritti: se creo un robot da guardia, quindi armato, che comprende il bene e il male e mi avvicino con un martello lasciandogli chiaramente capire che voglio danneggiarlo, secondo voi che dovrebbe fare ??? E non venite a parlarmi di parametri restrittivi che rispondano alle 3 leggi di Asimov perchè credo a sensazione che siano concetti difficili da applicare in pratica.
E poi mi romperei le palle ad andare alla scrivania per accendere il computer e lavorare e non trovarlo perchè sta facendo l'uncinetto.... http://forumtgmonline.futuregamer.it...cons/rotfl.gif
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Citazione:
j0k3r1976 ha scritto lun, 20 dicembre 2004 alle 18:19
se ripetiamo l'esperimento intorno ai 3/5 mesi di vita il neonato recepisce l'avvicinamento rapido e pericoloso della mano; come questo avvenga non ci e' dato saperlo ];
io un'idea l'avrei, quanto sono gentili i fratellini? http://forumtgmonline.futuregamer.it..._icons/asd.gif
Curiosità storica...
Citazione:
Quote:
Dartmouth 1955
Conception of AI A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence
J. McCarthy, Dartmouth College M.L. Minsky, Harvard University N. Rochester, I.B.M. Corporation C.E. Shannon, Bell Telephone Laboratories
August 31, 1955
We propose that a 2 month, 10 man study of artificial intelligence be carried out during the summer of 1956 at Dartmouth College in Hanover, New Hampshire. The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves. We think that a significant advance can be made in one or more of these problems if a carefully selected group of scientists work on it together for a summer.
La definizione di I.A. è in divenire, significa studiare nuove tecniche che permettano alle macchine di risolvere problemi che nell'accezione comune vengono risolti solo dall'uomo.
Inoltre quello che si tenta di fare è simulare, appunto, diverso da emulare, quindi l('assenza di) conoscenza esatta del funzionamento esatto di una mente umana non esclude la possibilità di simulazione... (tantomeno la afferma, ma la prima osservazione delle due è più confortante).
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Citazione:
radisc ha scritto lun, 20 dicembre 2004 alle 14:09
Isaac Asimov ha detto:
Citazione:
Quote:
1)un robot non può nuocere all' uomo ne permettere che, per un suo mancato intervento, un uomo riceva danno
2)un robot deve sempre obbedire agli ordini che riceve, sempre che questi non contrastino con la prima legge
3)un robot è tenuto a preservare la propria esistenza, a meno che questo non contrasti non la prima o la seconda legge
E' incredibile come le sue teorie mi sembrano di anno in anno con l'avanzare della tecnologia sempre più attuali.....
Il fatto che l'abbia scritto Asimov in un libro, non vuol dire che un giorno un'eventuale robot dotato di intelligenza artificiale avanzata non possa farlo.
Se il robot viene costruito ignorando queste tre leggi, il robot sarebbe libero di fare quello che gli pare (a meno che non venga limitato in un altro modo).
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Citazione:
Lord_Barba ha scritto lun, 20 dicembre 2004 alle 18:52
Se il robot viene costruito ignorando queste tre leggi, il robot sarebbe libero di fare quello che gli pare (a meno che non venga limitato in un altro modo).
Beh, nelle regole di comportamento dei robot del poli la terza legge c'è già, è una comunissima e banalissima formula logica del primo ordine che gli impedisce di decidere di compiere azioni che potrebbero portare a danneggiarlo http://forumtgmonline.futuregamer.it...on_biggrin.gif
Le prime due sono inutili per ora http://forumtgmonline.futuregamer.it..._icons/asd.gif
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
il mio voto in italiano era 4 fisso hehehehehe
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Citazione:
radisc ha scritto lun, 20 dicembre 2004 alle 14:09
Isaac Asimov ha detto:
Citazione:
Quote:
1)un robot non può nuocere all' uomo ne permettere che, per un suo mancato intervento, un uomo riceva danno
2)un robot deve sempre obbedire agli ordini che riceve, sempre che questi non contrastino con la prima legge
3)un robot è tenuto a preservare la propria esistenza, a meno che questo non contrasti non la prima o la seconda legge
E' incredibile come le sue teorie mi sembrano di anno in anno con l'avanzare della tecnologia sempre più attuali.....
Preciso una cosa che ovviamente non tutti possono sapere:
il padre delle tre leggi della robotica (per ammissione dello stesso scrittore) è in realtà John Wood Campbell jr.. Accadde durante un icontro con Asimov il 16 dicembre del 1940 per la stesura del romanzo Liar!. Ma fu Asimov a pubblicarle.
Inoltre lo stesso Asimov nel 1974 scrisse That Thou Art Mindful of Him! (Perche tu te ne prenda cura), un racconto nel quale demoliva le "sue" stesse Leggi (e ci riusciva) dimostrando che potevano essere valide solo interepretando correttamente la definizione di "essere umano". Infatti il robot del racconto (George Decimo con la collaborazione di George Nono) conclude dopo una serie di ingegnosi ragionamenti che gli stessi robot possono essere considerati "essere umani"... Grande.
http://forumtgmonline.futuregamer.it.../icon_cool.gif
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Non credo siano deliri i vostri..anzi..
Ma permettetemi un'appunto,ho sempre riso dell'Uomo che cerca ossessionatamente di varcare i suoi limiti(per non cedere alle sue paure) quando non e' semplicemente capace di risolvere i problemi creati da lui..inquinamento,dismogeneita' sociale,acc...
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Secondo me dimenticate una cosa fondamentale.
Il campo dell'Intelligenza Artificiale (e delle Scienze Cognitive in senso più stretto), è un argomento che abbraccia più branche.
Joker ha detto che alcuni robottini sono già programmati per non farsi del male.
D'accordo, vero... però lo fanno perchè hanno semplicemente ricevuto dei comandi.
Esempio: un bambino, anche neonato, se si brucia il ditino, in seguito ci starà ben lontano dal fuoco.
Semplicemente ha imparato; nessuno gli ha detto il perchè o il per come. Non ha ricevuto comandi a priori.
Da ciò deriva un'altra legge fondamentale, secondo cui un essere che abbia intelligenza evoluta, deve essere in grado di imparare dall'esperienza.
Sono già 3 leggi: istinto di autoconservazione, capacità riproduttiva, capacità di apprendimento.
Ora come ora non esiste niente che sia in grado di riprodurre tutte e 3 queste leggi.
Ci sono i robbottini che scappano a gambe levate davanti al pericolo; ci sono gli algoritmi genetici che imparano; ci sono i programmi che si riproducono. Ma nulla che riassuma tutte e 3 le capacità.
E pensare che ci sono una sacco di altre condizioni da rispettare, per definire qualcosa come vivo.
Qualcun altro ha scritto che anche l'etica può essere definita come una serie di comandi logici, seppur complessi.
Vero, però questo non gioca contro la possibilità della creazione di un IA... anzi! Tutto l'opposto.
Il nostro patrimonio genetico non è costituito forse dal DNA?
Un qualsiasi biologo può dirvi che non è altro che una serie di righe di comando.
Non bisogna, secondo me, assumere che poichè una cosa è complessa, non possa essere ricostruita.
Il cervello umano potrà avere chissà quanti neuroni e cellule varie, chissà quante sinapsi... ma rimane comunque un prodotto FINITO della natura e come tale, per definizione matematica, descrivibile e replicabile.
Le nostre capacità tecnologiche sviluppano le nostre capacità intellettuali: un uomo moderno è in grado di effettuare ragionamenti più complessi di un uomo del 1400.
Non perchè abbia più intelligenza, ma perchè ha maggiori mezzi per esprimerla e svilupparla (allenarla).
Ciò che oggi non capiamo, o che non vogliamo capire, avrà sicuramente meno lati oscuri in futuro.
E qui non centrano nè la fisica, nè l'informatica, nè quello che volete.
E' semplicemente evoluzione: Darwin diceva che un essere si evolve non solo secondo il proprio DNA, ma anche come conseguenza dell'ambiente in cui vive. E l'ambiente dell'uomo non è un luogo fisico, ma il tempo.
Gli uomini del futuro avranno maggiori mezzi e più stimoli a sviluppare la propria intelligenza, di quelli che ora abbiamo noi.
Tutto questo per dire che escludere a priori qualcosa, che la matematica invece ammette, è sbagliato.
Ciauz!
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Citazione:
Shalby ha scritto lun, 20 dicembre 2004 alle 23:12
Semplicemente ha imparato; nessuno gli ha detto il perchè o il per come. Non ha ricevuto comandi a priori.
Da ciò deriva un'altra legge fondamentale, secondo cui un essere che abbia intelligenza evoluta, deve essere in grado di imparare
dall'esperienza.
Reinforcement-learning permette ai sistemi di imparare dall'esperienza, e gli agenti non vengono programmati a priori per compiere particolari azioni, ma imparano a decidere...però non sono esseri senzienti.
Citazione:
Shalby ha scritto lun, 20 dicembre 2004 alle 23:12
Il nostro patrimonio genetico non è costituito forse dal DNA?
Un qualsiasi biologo può dirvi che non è altro che una serie di righe di comando.
non ne sono certo, ma credo che un biologo ti fucilerebbe per un'affermazione del genere http://forumtgmonline.futuregamer.it..._icons/asd.gif
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Citazione:
Quote:
Reinforcement-learning permette ai sistemi di imparare dall'esperienza, e gli agenti non vengono programmati a priori per compiere particolari azioni, ma imparano a decidere...però non sono esseri senzienti.
Come ti ho scritto, e sono cose che non dico io ma qualche migliaio di scienziati in tutto il mondo, non basta una condizione verificata, perchè un essere sia da considerarsi vivente. Inoltre, solo in un secondo momento si verifica se tale essere è anche senziente.
Ci sono qualche centinaio di fattori che entrano in gioco.
Il fatto di saper imparare è solo uno dei tanti.
Inoltre qualche post sopra ho spiegato la differenza tra essere senziente e semplicemente vivente.
Appunto... non ne sei certo.
Lo sanno anche i sassi che il DNA contiene tutte le informazioni necessarie allo sviluppo di un organismo vivente.
E i sassi sanno anche che il DNA di una cellula può essere considerato come il più grande database mai creato nell'universo.
Ho una provocazione anch'io: un essere clonato secondo voi è vivente e magari anche senziente?
Secondo alcuni ragionamenti che ho letto, no, perchè si parla di sistemi estremamente complessi, non replicabili.
Ma allora che mi dite della pecora Dolly?
Ciauz!
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Citazione:
Quote:
Appunto... non ne sei certo.
Lo sanno anche i sassi che il DNA contiene tutte le informazioni necessarie allo sviluppo di un organismo vivente.
Non ero quello di cui non ero certo...il punto è che anche i sassi sanno che il DNA non è un database, non funziona così, e non gli si può appioppare una definizione così semplicistica...come "una serie di righe di comando", stai passando dalla biologia all'informatica con troppa disinvoltura secondo me, solo questo.
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Comunque esiste in natura almeno un tipo di verme (oggi riuscirò a dirvi anche il nome, o forse è addirittura un essere unicellulare) che nella sua vita si sposta solo per cercare cibo, se trova un ostacolo ci sbatte contro e cambia strada. FINE.
Non esitiamo però a chiamarlo essere vivente!
Credo che l'uomo sia già avanti nella creazione di vite artificiali. Forse non se n'è ancora reso conto.
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
ma se siamo ancora ad eoni di distanza da una parvenza accettabile di IA nei giochi!!!
non esiste ancora nemmeno in embrione una riga di codice IA accettabile... e sempre di codice parliamo!
continuo ad affermare che "pucciare" i peperoni nel cappuccino faccia male..... http://forumtgmonline.futuregamer.it...n_rolleyes.gif
-
Re: [20/12/2004] Diritti e doveri di una intelligenza artificiale
Citazione:
Shalby ha scritto mar, 21 dicembre 2004 alle 01:18
Lo sanno anche i sassi che il DNA contiene tutte le informazioni necessarie allo sviluppo di un organismo vivente.
E i sassi sanno anche che il DNA di una cellula può essere considerato come il più grande database mai creato nell'universo.
Definirlo database di informazioni (in modo semplicistico) forse non è scorretto ma, da studente di queste materie, non so se sia azzeccatissimo...
è vero, non è altro che la fonte di informazioni per la sintesi di amminoacidi, che poi costituiscono le proteine (enzimi, ormoni, ecc ecc) le quali interagendo tra loro nei processi di sintesi e degradazione, fanno di un organismo quello che vediamo...
però non è una serie di comandi come hai detto poco sopra
Citazione:
Shalby ha scritto mar, 21 dicembre 2004 alle 01:18
Ho una provocazione anch'io: un essere clonato secondo voi è vivente e magari anche senziente?
Secondo alcuni ragionamenti che ho letto, no, perchè si parla di sistemi estremamente complessi, non replicabili.
Ma allora che mi dite della pecora Dolly?
Perchè non dovrebbe essere vivente o senziente ?
L'unico problema di cui è afflitto è che, seppur apparentemente giovane, le sue cellule posseggono la stessa età dell'essere da cui è stato clonato...
questo perchè ogni cellulla contiene le informazioni sul numero di duplicazioni fatte e il numero max che riesce a fare... parametro che si portano dietro anche le cellule figlie e quindi anche le cellule del clone...