robot teocratici
Inviato: 08/02/2015, 22:08
.Tipo un robot con inserito nella memoria la bibbia dei tdg...
Lo scopo di questo forum è quello di analizzare in chiave critica la dottrina e l'organizzazione dei Testimoni di Geova
https://forum.infotdgeova.it/
I robot sono molto utili,ma hanno il loro lato negativo .Achille Lorenzi ha scritto:Assolutamente no. In effetti i seguaci di molte religioni sono come dei robot: ubbidiscono a "leggi divine", senza ragiornare sul contenuto di tali leggi, anche se l'ubbidienza può recare gravi danni all'essere umano.
Sarei molto più sicuro se i robot ubbidissero alle "tre leggi della robotica" di Asimov:
1 Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2 Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3 Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.
Secondo me se anche gli essere umani ubbidissero a queste tre leggi il mondo sarebbe migliore.
le famose tre leggi della robotica ..ogni tanto mi viene alla memoria pagine lette da questi capolavori ( per me) e mi viene dei brividi ..perchè vedo che questi racconti non sono più fantascienza..sono cose attuali...mi sembra che il modo si avvicini più a questi racconti ..e parlare di robot che aiutano l'uomo ...si sara un passo avanti ..ma cerchiamo a non dar loro tutta l'intelligenza che fa parte dell'uomo altrimenti avremo una bella sorpresa ..e Asimov è favoloso ...straordinario nello scrivere ..Achille Lorenzi ha scritto:Assolutamente no. In effetti i seguaci di molte religioni sono come dei robot: ubbidiscono a "leggi divine", senza ragiornare sul contenuto di tali leggi, anche se l'ubbidienza può recare gravi danni all'essere umano.
Sarei molto più sicuro se i robot ubbidissero alle "tre leggi della robotica" di Asimov:
1 Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2 Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3 Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.
Secondo me se anche gli essere umani ubbidissero a queste tre leggi il mondo sarebbe migliore.
Questo è il nocciolo della questioneNon hanno la coscienza e la conoscenza
E se poi come nei romanzi di Asimov il robot evolve le leggi e inizia a dare ad "essere umano" l'accezione di "umanita'"?Achille Lorenzi ha scritto:Assolutamente no. In effetti i seguaci di molte religioni sono come dei robot: ubbidiscono a "leggi divine", senza ragiornare sul contenuto di tali leggi, anche se l'ubbidienza può recare gravi danni all'essere umano.
Sarei molto più sicuro se i robot ubbidissero alle "tre leggi della robotica" di Asimov:
1 Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2 Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3 Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.
Secondo me se anche gli essere umani ubbidissero a queste tre leggi il mondo sarebbe migliore.
Magari in futuro la avranno... non sappiamo se la coscienza sia computabile o meno.Franco Coladarci ha scritto:RenatoQuesto è il nocciolo della questioneNon hanno la coscienza e la conoscenza
Franco
Non dimenticare che c'è sempre la dottoressa Susan CalvinMorpheus ha scritto:E se poi come nei romanzi di Asimov il robot evolve le leggi e inizia a dare ad "essere umano" l'accezione di "umanita'"?Achille Lorenzi ha scritto:Assolutamente no. In effetti i seguaci di molte religioni sono come dei robot: ubbidiscono a "leggi divine", senza ragiornare sul contenuto di tali leggi, anche se l'ubbidienza può recare gravi danni all'essere umano.
Sarei molto più sicuro se i robot ubbidissero alle "tre leggi della robotica" di Asimov:
1 Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2 Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3 Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.
Secondo me se anche gli essere umani ubbidissero a queste tre leggi il mondo sarebbe migliore.
Un robot, prevedendo cosa ha fatto Hitler, avrebbe dovuto ucciderlo?
Vittorino ha scritto:Non dimenticare che c'è sempre la dottoressa Susan CalvinMorpheus ha scritto:E se poi come nei romanzi di Asimov il robot evolve le leggi e inizia a dare ad "essere umano" l'accezione di "umanita'"?Achille Lorenzi ha scritto:Assolutamente no. In effetti i seguaci di molte religioni sono come dei robot: ubbidiscono a "leggi divine", senza ragiornare sul contenuto di tali leggi, anche se l'ubbidienza può recare gravi danni all'essere umano.
Sarei molto più sicuro se i robot ubbidissero alle "tre leggi della robotica" di Asimov:
1 Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2 Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3 Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.
Secondo me se anche gli essere umani ubbidissero a queste tre leggi il mondo sarebbe migliore.
Un robot, prevedendo cosa ha fatto Hitler, avrebbe dovuto ucciderlo?
Formuliamo le tre leggi in questo modo:Morpheus ha scritto:E se poi come nei romanzi di Asimov il robot evolve le leggi e inizia a dare ad "essere umano" l'accezione di "umanita'"?
Un robot, prevedendo cosa ha fatto Hitler, avrebbe dovuto ucciderlo?
1 Il Corpo Direttivo dei tdg non può recar danno a un essere umano (adepto e familiari annessi) né può permettere che, a causa del proprio intervento, un essere umano riceva danno.Achille Lorenzi ha scritto:Formuliamo le tre leggi in questo modo:Morpheus ha scritto:E se poi come nei romanzi di Asimov il robot evolve le leggi e inizia a dare ad "essere umano" l'accezione di "umanita'"?
Un robot, prevedendo cosa ha fatto Hitler, avrebbe dovuto ucciderlo?
1 Un Uomo non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2 Un Uomo deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3 Un Uomo deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.
Se gli uomini avessero insiste in se stessi queste tre leggi, e fossero programmati per non poterle evitare, anche Hitler non avrebbe potuto fare quello che ha fatto.
Ma noi Uomini però abbiamo il libero arbitrio... anche se poi molti agiscono come robot, programmati per fare quello che vogliono altri.
Ma non seguendo queste "tre leggi"....
Asimov poi aveva aggiunto una quarta legge, che precedeva le altre in termini di priorità:
Un robot non può danneggiare un essere umano, a meno che non dimostri che alla fine sarà utile per l’umanità.
Come sempre, da qualsiasi punto si parta, si arriva inevitabilmente a George OrwellBrambilla Bruna ha scritto:ecco trovata ..mi sembrava si menzionava a una 4 legge...
riporto la frase che ho trovato ...Asimov poi aveva aggiunto una quarta legge, che precedeva le altre in termini di priorità:
Un robot non può danneggiare un essere umano, a meno che non dimostri che alla fine sarà utile per l’umanità.
mi piace ...
Vittorino ha scritto:Come sempre, da qualsiasi punto si parta, si arriva inevitabilmente a George OrwellBrambilla Bruna ha scritto:ecco trovata ..mi sembrava si menzionava a una 4 legge...
riporto la frase che ho trovato ...Asimov poi aveva aggiunto una quarta legge, che precedeva le altre in termini di priorità:
Un robot non può danneggiare un essere umano, a meno che non dimostri che alla fine sarà utile per l’umanità.
mi piace ...
Hai ragione, molto premonitore.Brambilla Bruna ha scritto:
si hai ragione altro libro stupendo 1984
Vittorino ha scritto:Hai ragione, molto premonitore.Brambilla Bruna ha scritto:
si hai ragione altro libro stupendo 1984
Qui mi riferivo alla Fattoria degli Animali, dove Orwell ci insegna qualcosa di importante sulle leggi e la loro volatilità.
Chissà se i TdG lo hanno mai letto