Pagina 1 di 2 12 UltimaUltima
Risultati da 1 a 10 di 11

Discussione: I robot conquisteranno il mondo!

  1. #1
    Soldato
    Data Registrazione
    Apr 2017
    Messaggi
    76

    Predefinito I robot conquisteranno il mondo!

    Discutendo in classe è venuta fuori questa discussione che vorrei portare avanti anche qui; ogni giorno la scienza fa passi da gigante nel campo della robotica (anche in altri) non passa giorno senza qualche notizia che annuncia nuove macchine intelligenti e capaci di sostituirsi agli umani nelle loro attività lavorative quotidiane. L’automazione delle attività manuali è costante ma più interessante credo la crescita della robotizzazione in campo cognitivo. L’evoluzione delle machine è tale che, se continua così, entro venti anni in ogni casa ci potrebbe essere un robot umanoide capace di svolgere lavori di casa e fornire aiuto psicologico alle persone anziane e il posto di lavoro potrebbe essere un ambiente dominato dalla presenza di macchine tecnologiche e molto intelligenti. Le prossime scarpe Adidas per esempio potrebbero essere costruite negli Stati Uniti in una nuova fabbrica completamente automatizzata e robot esperti costruttori di scarpe. La fabbrica, denominata dalla Adidas una speedfactory dovrebbe essere pronta per il 2017 su una superficie di quasi centomila metri quadri ad Atlanta e avrà la capacità di produrre 50.000 scarpe all’anno. Oltre ai "costruttori di scarpe" ci sono i robot che raccolgono mele, Mappano le galassie ecc senza dimenticarsi dei robot che aprano porte in modo autonomo altri a cui è stato insegnato a dire di no agli ordini degli esseri umani se considerati sbagliati o illeggitimi per non parlare dei bot di Facebook che intrapresero una discussione vera e propria in una lingua "segreta" subito spenti prima che potessero estromettere i loro creatori... Lo so è un discorso molto complesso soprattutto da trattare virtualmente considerate le innumerevoli variabili da tenere in considerazione quando si vuole esprimere un parere che sia "autorevole" e non campato in aria. Ci tengo a dire visto che mi è capitato di discutere con persone che non avevano idea della portata dell' argomento e quindi mi rispondeva con frasi del tipo che i robot sono fantascienza... Nulla di più sbagliato.. quanti di voi 30-40 anni fa si immaginavano che oggi chiunque avrebbe posseduto un computer in casa? Fatte queste premesse vi dico quello che penso io... Allora metto le mani avanti io sono ASSOLUTAMENTE pro al progresso e allo sviluppo sono consapevole che quello che riusciranno a fare questi robot farà migliorare in modo esponenziale la vita di tutti in ogni ambito (medicina, istruzione, soccorso ecc) e non mi dilungo su quello che riusciranno a fare che se no finisco domani. Però come in ogni piccola o grande rivoluzione c'è l'altra faccia della medaglia, per esempio internet ha oggettivamente migliorato la vita di tutti (se non ci fosse non saremo neanche qui a discutere) però oltre alle belle cose ha portato anche il cyber bullismo, cyber spionaggio, fake news e via discorrendo.... Non problemini.... Così come internet la robotica migliorerà sicuramente la qualità è forse anche la durata della vita però potrebbero conoscendo noi tutti l'intrinseca natura umana MOLTI problemi.... È proprio per questo io ho timore se non paura dello sviluppo (esponenziale) della robotica; ATTENZIONE non ho paura dei robot bensì dell'uso che certe persone potrebbero farne in buona o mala fede.... È sapendo che la scienza (purtroppo è per fortuna) non ha né si pone limiti, il rischio di farsi sfuggire di mano certe "cose" penso sia molto concreto.
    In definitiva i robot cambieranno totalmente la nostra vita e questo è assodato, la domanda però è in meglio o in peggio? O meglio sono un pericolo per voi?

    PS: non ho parlato apposta del "rischio" perdita posti di lavoro a causa dell' automatizzazione. Anche se si potrebbe in qualche modo ricollegare a quello che ho scritto poc'anzi e cioè pericolo o vantaggio...?
    Sono curioso di sapere la vostra

  2. #2
    Responsabile di Sezione L'avatar di bartok
    Data Registrazione
    Jun 2011
    Messaggi
    3,024

    Predefinito

    Iker,
    l'argomento è interessantissimo e tocca un argomento che sin da piccolo mi ha affascinato. Come tutte le cose che sin da piccoli affascinano, tocca una corda profonda e importante. Da bambino, il mio film preferito era "Terminator" (il primo). Poi sono cresciuto, ho fatto l'università, ho frequentato quelli del DAMS-Cinema e mi sono fatto una cultura, avendo vari "film preferiti". Ma infine, sono giunto alla conclusione che il mio film preferito è ed è sempre stato "Terminator". Così futuristico, avveneristico, letteralmente visionario.
    Ho visto parecchi filmati su youtube della DARPA e della Boston Dynamics e un mio caro amico d'infanzia ha partecipato alla DARPA Challenge, per quanto riguarda il robot italiano. L'ho rivisto pochi mesi fa, dopo anni. Con il senno di poi, farei "ingegneria dell'automazione" e non "ingegneria civile", ma uno certe cose non le sa quando serve saperle. Allora non conoscevo neanche la differenza precisa tra "ingegneria edile" e "ingegneria civile", figurarsi tra "ingegneria meccanica" e "ingegneria dell'automazione". Immaginavo che avrei costruito dighe. Ed ecco che io faccio un dignitosissimo e soddisfacente lavoro essenzialmente come burocrate e il mio amico fa una cosa letteralmente fica: fabbrica i cyborg! (più o meno, diciamo che contribuisce) Del resto, è un genio.
    comunque.

    io sono ASSOLUTAMENTE pro al progresso e allo sviluppo sono consapevole che quello che riusciranno a fare questi robot farà migliorare in modo esponenziale la vita di tutti in ogni ambito (medicina, istruzione, soccorso ecc)
    ...
    Così come internet la robotica migliorerà sicuramente la qualità è forse anche la durata della vita però potrebbero conoscendo noi tutti l'intrinseca natura umana MOLTI problemi.... È proprio per questo io ho timore se non paura dello sviluppo (esponenziale) della robotica; ATTENZIONE non ho paura dei robot bensì dell'uso che certe persone potrebbero farne in buona o mala fede.... È sapendo che la scienza (purtroppo è per fortuna) non ha né si pone limiti, il rischio di farsi sfuggire di mano certe "cose" penso sia molto concreto.
    Io non nutro questa visione così positivista. Sono molto estremista in questo: credo che niente di ciò che abbiamo fatto negli ultimi 10.000 anni abbia migliorato la nostra vita, nel senso di renderci più felici. Nemmeno internet. Sapere che la nebbia e il vento che si possono vedere salendo una montagna sono una questione di temperatura di rugiada e di moti convettivi non è più avvincente del pensare che sia la manifestazione del temibile Dio della montagna. Scrutare l'orizzonte e pensare che "là è lontano", è più avvincente che andare su Google Maps e percorrere in soggettiva una qualunque strada del mondo. D'altra parte, è il progresso in sé che dà soddisfazione, perché soddisfa all'onanistico bisogno umano d'ingegnarsi e inventarsi qualcosa. Chi partecipò al progetto Manahttan non voleva costruire la bomba atomica. Chi commissionava il lavoro, voleva costruirla. Gli scienziati che ci lavoravano, invece, semplicemente si divertivano un sacco a fare gli esperimenti, perché abbattevano delle frontiere: questa è l'unica cosa che ha senso. Andare sulla montagna e scoprire che il Dio del vento è ancora più alto della montagna, ha senso. Lavorare sull'intelligenza artificiale e creare un robot che cammina e decide, ha senso. Come poi l'invenzione venga usata, è secondario. Se io fossi uno scienziato che lavora nel settore, ci lavorerei sia se lo scopo fosse come dici tu, offrire aiuto psicologico alle persone anziane, sia se fosse costruire un Terminator concepito per infiltrarsi tra i nemici in un ipotetico scenario di guerra per terminarli. Il divertimento è imparare cose nuove, il senso umano è portare sempre oltre la Frontiera.

  3. #3
    Soldato
    Data Registrazione
    Apr 2017
    Messaggi
    76

    Predefinito

    Allora la felicità è soggettiva per qualcuno (senza polemica) si stava meglio e si era più felici quando l'Italia era una dittatura per altri ora che siamo una democrazia. Ci sono però dei dati oggettivi e cioè le testimonianze di chi ha vissuto entrambi i periodi, i fatti storici ecc da cui penso si debba partire quando si fanno comparazioni tra periodi... La felicità quindi proprio per la sua natura soggettiva penso non possa essere un parametro di valutazione (i masochisti per esempio sono felici provando dolore)... Il fatto è uno la qualità della vita in generale (anche grazie a internet) è migliorata rispetto a 10.000, 1000, 100 anni fa? Si, Internet ci ha reso più felici? A chi ha trovato l'anima gemella grazie al web si, chi invece magari ha la moglie, il figlio, il fidanzato che a causa di "internet" si è impiccato no. Però è oggettivo (penso) che internet abbia facilitato la vita a tutti.... Tornando al tema nell'ultima parte del tuo intervento penso tu abbia c'entrato in pieno quello che volevo dire è cioè l'incoscienza (posso chiamarla così?) Di alcuni scienziati e la malafede di molti altri porteranno i robot (che saranno un cambiamento sostanziale nella vita di tutti) a diventare da un vantaggio a un pericolo? Io per non passare da il bigotto vecchietto di quartiere (ho 16 anni non 80) che guarda con malocchio ogni progresso ho fatto passare un messaggio sbagliato.... NON sono assolutamente positivista su questo argomento anzi e leggendo l'ultima parte del tuo commento divento ancora più pessimista perché pensare che sia divertente e stimolante creare un Terminator è "sbagliato"... Il buon senso dovrebbe prevalere sul divertimento e PURTROPPO come nel caso dell'atomica l'incoscienza degli scienziati e la "malafede" dei commissionatori ha portato alla creazione di un flagello.... Sono d'accordissimo col discorso che fa per esempio il papa quando gli fu chiesto cosa ne pensava della clonazione... Cito " La scienza ha limiti da rispettare per il bene dell'umanità" (vi lascio il link alla fine) è questo vale sia che si parli di robotica sia che si parli di clonazione ecc.
    Come penso si sia capito la mia ENORME preoccupazione deriva dalla FONDATA paura che certe cose sfuganno di mano.... Diciamo che quando sarò in pensione (sempre se ci arriverò/mi ci faranno arrivare) vorrei se possibile evitare scene alla Io robot o Terminator salvation tanto per rimanere in tema cinema... Parola conclusiva? SPEREM (lo so chi vive sperando muore c****** però più di quello ora come ora....)

    Il link dell'intervista al papa che condivido in TOTO vi invito a leggerla e se volete a esprimere un opinione a riguardo
    https://www.google.it/amp/www.lastam...agina.amp.html
    Ultima modifica di Iker; 21-02-18 alle 00: 57

  4. #4
    Responsabile di Sezione L'avatar di bartok
    Data Registrazione
    Jun 2011
    Messaggi
    3,024

    Predefinito

    Iker,
    perché pensare che sia divertente e stimolante creare un Terminator è "sbagliato".
    E' sbagliato? E' sbagliata la guerra, ma la guerra esiste. Nel film "Terminator" la guerra (futura) era tra macchine ed esseri umani e il robot era "cattivo" perché c'era un "noi" (umani) contro un "loro" (le macchine) ed era stato inviato nel passato per uccidere la madre del capo della resistenza, grazie al quale gli umani stavano vincendo la guerra futura. Per le macchine in realtà il "Terminator" era il "buono" e, anzi, l'usarlo era una loro mossa disperata per salvarsi dalla certezza dell'annientamento. Quindi è tutto molto relativo. Naturalmente nel film, non possiamo che essere dalla parte di Sarah Connor, perché ci identifichiamo con l'umanità che verrebbe estinta se lei morisse.
    Ma supponiamo una cosa un po' più realistica, in cui il Terminator potrebbe essere "amico". Supponiamo, in una guerra, di poter usare delle macchine (non solo Terminator, ma macchine letali, robotizzate ed autonome di vario tipo) al posto degli esserei umani, tutelando così la vita dei propri soldati e, nello stesso tempo, potendo usare questi su altri fronti. Supponiamo che l'utilizzo di queste macchine ci aiuti a vincere e a non soccombere. E' sbagliato non soccombere? C'è qualcosa di poco etico?

    Sono favorevole allo sviluppo di queste tecnologie, ma questo conta poco: quel che conta è che ci sono e vengono sviluppate e lo saranno sicuramente sempre di più. Come tutto, ci saranno dei pro e dei contro, la questione sarà regolamentare la cosa man mano. In ogni caso, lo scienziato che lavora in questo ambito, non può che trovare stimolante la sfida: lui non è l'utilizzatore, ma solo l'inventore. Sta all'utilizzatore il decidere "come usare".
    Ultima modifica di bartok; 21-02-18 alle 14: 56

  5. #5
    Sergente
    Data Registrazione
    Mar 2012
    Messaggi
    288

    Predefinito

    Bartok trovo il tuo ragionamento pressapochista e irragionevole, tu vai in giro a tirare sassi dalle montagne sperando che giù non ci sia nessuno? Cioè tu davvero sostieni che sarebbe giusto usare robot per ammazzare? Ok, ok... Sei un ingegnere, e da scienziato e ingegnere ti dovresti per primo rendere conto e riflettere sulla potenzialità di distruzione di una AI armata. Non si scherza su certe cose, non è più un gioco, la bomba atomica quando sei il solo sulla scacchiera a poterla giocare, come mossa è scacco matto, ma quando si è in tanti è vittoria pirrica: infatti si chiama deterrente nucleare, perché se qualcuno lo fa davvero è FINITA. Non c'è nulla di divertente e di scherzoso, nessun limite da superare, il limite è l'estinzione. Se si mettono a fare IA militarizzate il rischio è ENORME, non è più in gioco un esperimento obrobrioso o un crimine di guerra, ma il futuro della specie. E se non vi basta la mia parola andate a vedere cosa ne pensano quegli sprovveduti di hawking, musk e Wozniak insieme a qualche migliaio di esperti nel campo. Un conto è il 'robot' un conto è l'AI nel robot, il pericolo è concreto, e il passo è più breve di quanto si possa pensare per una catastrofe così enorme.

  6. #6
    Responsabile di Sezione L'avatar di bartok
    Data Registrazione
    Jun 2011
    Messaggi
    3,024

    Predefinito

    Baer,
    Bartok trovo il tuo ragionamento pressapochista e irragionevole, tu vai in giro a tirare sassi dalle montagne sperando che giù non ci sia nessuno?
    Non si scherza su certe cose, non è più un gioco, la bomba atomica quando sei il solo sulla scacchiera a poterla giocare, come mossa è scacco matto, ma quando si è in tanti è vittoria pirrica: infatti si chiama deterrente nucleare, perché se qualcuno lo fa davvero è FINITA. Non c'è nulla di divertente e di scherzoso, nessun limite da superare, il limite è l'estinzione.
    il tuo ragionamento, però, è ozioso, visto che se i sassi cadono dalla montagna, non è una cosa che dipende da te o da me. Non siamo qua per decidere se il "nucleare" sia o no un limite da superare. E' già un limite superato. Che ti piaccia o no, ci furono persone che lavorarono al progetto Manhattan, pressapochisti o no che fossero. C'è gente che concepisce nuove armi e che le vende. E questo, da sempre. L'utilizzo dell'intelligenza artificiale per raggiungere determinati obiettivi, è già una realtà. Progettare un robot che possa intervenire autonomamente in ambienti difficili, come un palazzo in fiamme, una centrale nucleare in avaria, un palazzo pericollante e parzialmente crollato è, dal punto di vista della ricerca, esattamente la stessa cosa del progettare un robot per la guerra. Se si riesce a costruire un robot in grado di fare la prima cosa come o meglio di un umano, il passo da compiere perché possa fare anche l'altra, è breve. anzi: non esiste. Io, come ripeto, sono a favore: non credo che si possa minimamente paragonare un ordigno termonucleare (evoluzione della bomba atomica), a dei robot dotati di intelligenza artificiale. Anzi: sarebbero un modo efficace per esporre meno le proprie truppe sul campo di battaglia, tutelandone la vita, così come sarebbero utili per salvare persone in ambienti proibitivi o mortali per un essere umano. O forse sono solo un Frankenstein che creerebbe il mostro solo per infrangere una barriera. Fatto sta, questo è il futuro. Anzi, il futuro è già ora. Io francamente non credo che le macchine potranno veramente ribellarsi, sebbene la cosa affascini e spaventi allo stesso tempo, visto che sull'argomento sono stati scritti libri e girati film. Poi, comunque sia, le opinioni sono opinioni: io credo che chi lavora alla DARPA o alla Boston Dynamics, faccia uno dei più bei lavori che possano esistere.

    https://www.youtube.com/watch?v=fRj34o4hN4I
    https://www.youtube.com/watch?v=rVlhMGQgDkY

    comunque, ciò che si vede da video come questi, non va confuso con l'"intelligenza artificiale". Prendete con le pinze ciò che dico, perché non sono del settore. Il robot non ha fatto il percorso perché voleva far vedere quanto è bravo. Gli è stato ordinato: "vai da A a B saltando e facendo piroette". E lui è andato da A a B saltando e facendo piroette, nel miglior modo possibile. Non è intelligenza. Quello che si vede è il livello di precisione con cui lo fa ed è una questione soprattutto di miglioramento di un determinato algoritmo di movimento. In pratica l'ha fatto e rifatto fino a che non ha trovato la miglior soluzione per farlo, tramite un processo iterativo che potrebbe essere vagamente paragonato alla soluzione di un'equazione per via numerica. Lui non ha deciso niente. L'intelligenza è un'altra cosa, anche se le cose "vanno insieme", perché non serve avere un robot intelligente, che poi non è in grado di fare niente.
    Ultima modifica di bartok; 22-02-18 alle 00: 01

  7. #7
    Sergente
    Data Registrazione
    Mar 2012
    Messaggi
    288

    Predefinito

    Quello è, appunto, machine learning non AI. Le pietre ho chiesto se vai a tirarle sperando di non prendere nessuno perché se mi dici che "tanto le cose le fanno lo stesso", allora vuol dire che "tanto le pietre cadono lo stesso", quindi tu vai a tirar pietre dalla cima delle montagne perché vale la pena provare, poi può non succedere nulla, oppure puoi ammazzare qualcuno.
    Comunque secondo me non ti è chiaro che "le guerre che ci son sempre state" non sono le stesse guerre che ci sarebbero ora, e anzi per dirla tutta "le guerre che ci son sempre state" non sono mai state "guerre che ci son sempre state", perché le guerre dipendono dagli schieramenti e dai mezzi a disposizione.
    Una guerra atomica adesso, lo ripeto di nuovo, non è una bomba atomica di ieri: quando sei l'unico ad avere l'atomica, risulta figo lanciarla, tanto male che vada "prendi in testa qualcuno", ma se tirando la tua bella pietra ti ritrovi una bella pioggia di meteore sulla capoccia cosa fai? Te lo dico io: ci pensi 2 volte.
    Non c'è progresso nella distruzione, è la più infima capacità umana, così infima che ci rende una specie così primitiva. Distruggere è primitivo. Il tuo ragionamento è primitivo, perché non c'è bisogno di un'IA per salvare gente dai palazzi probabilmente, ma di machine learning. L'IA è pericolosa, è difficile da controllare, è a tutti gli effetti una forma di vita appena avuto il tempo di svilupparsi abbastanza e potrebbe superare l'uomo tranquillamente. Andrebbe utilizzata per fini di RICERCA SCIENTIFICA non per far imbracciare a essa armi, è una follia, e non è una follia solo perché ti si rivolta contro, ma perché se delle macchine abbastanza sviluppate ricevono l'ordine di distruggere x o y è un MASSACRO, al pari della distruzione nucleare della terra.
    Non è assolutamente vero che per progredire c'è bisogno di distruggere, la guerra è insita nell'uomo e tutte quelle porcherie da romantici D'Annunziani; lo hanno fatto perché era la prima volta, perché è stato sconsiderato, perché avrebbe messo fine alla guerra, avevano la scusa buona per farlo e perché non avrebbe significato l'estinzione!
    Tu proponi termini da estinzione, cioè capisci che non c'è da ragionarci tanto? Non è che stiamo discutendo di una cosa incerta: se lanci UNA atomica tra potenze il mondo è finito, punto. Se lanci AI sul nemico, il mondo rischia di finire, senza troppi film. È un rischio troppo grosso, non funziona tutto "eheheh ce la caviamo sempre tanto!". Se lanci le pietre dalla montagna, qualcuno rischi di prenderlo, quindi non lanci pietre dalla montagna.
    Se poi invece vuoi dirmi che l'uomo è destinato a estinguersi e essere rimpiazzato, boh, possibile, ma di sicuro non ci metto il mio per far si che succeda più in fretta per ora. Poi potrebbe pure essere che un giorno abbandoneremo il nostro "contenitore" e saremo in grado di trasferire la coscienza in "contenitori più longevi e resistenti", e magari non saremo neanche più uomini, ma questa è pura speculazione; l'unica cosa che è certa è che l'AI va trattata con le pinze, con le dovute precauzioni e che non dovrebbe mai essere utilizzata a fini militari, soprattutto fino alla sua comprensione totale e fino a quando i nostri confini saranno limitati alla terra.

  8. #8
    Responsabile di Sezione L'avatar di bartok
    Data Registrazione
    Jun 2011
    Messaggi
    3,024

    Predefinito

    Baer,
    quindi tu vai a tirar pietre dalla cima delle montagne perché vale la pena provare,
    Non proprio... io sarei semmai quello che vede le pietre e pensa che possano servire anche ad altre cose, oltre che a stare lì per terra. Ma quando la pietra diventa un utensile per scuoiare un animale o per tagliare del legno, diventa automaticamente anche la punta di una lancia o una pietra da scagliare.

    Una guerra atomica adesso, lo ripeto di nuovo, non è una bomba atomica di ieri: quando sei l'unico ad avere l'atomica, risulta figo lanciarla, tanto male che vada "prendi in testa qualcuno", ma se tirando la tua bella pietra ti ritrovi una bella pioggia di meteore sulla capoccia cosa fai? Te lo dico io: ci pensi 2 volte.
    la bomba atomica di adesso, non è come quella di ieri, perché può essere 1000 volte più potente e USA e Russia, da sole, ne hanno a migliaia. Che dire... hai ragione, ma ormai ci sono, esistono, è una tecnologia nota ed utilizzata. Per cui ormai sull'argomento la partita non si gioca più sull'evitare che l'essere umano giochi a fare il "piccolo stregone", ma su un equilibrio di deterrenza che si spera che regga: solo questo c'è da fare, sperare che regga e far sì che regga.

    Non c'è progresso nella distruzione, è la più infima capacità umana, così infima che ci rende una specie così primitiva. Distruggere è primitivo. Il tuo ragionamento è primitivo, perché non c'è bisogno di un'IA per salvare gente dai palazzi probabilmente, ma di machine learning.
    io non credo proprio. Una macchina, per entrare in un edificio in fiamme, non deve solo saper andare da A a B saltando e facendo piroette: deve poter capire autonomamente se deve intervenire o no, decidere da dove meglio entrare e stabilire delle priorità, come il dove recarsi, se salvare prima una persona quasi morta ma più facile da evacuare o dare la priorità a delle persone vive ma in punti più critici. Deve essere in grado di decidere, e per questo serve l'intelligenza artificiale. Sono d'accordo con te che distruggere è primitivo. E chi vuole distruggere? Non io. Io ho solo detto che la robotica, unita all'intelligenza artificiale, è un ambito interessantissimo che a me appassiona molto. In altri termini, se io fossi uno scienziato del settore, sicuramente manderei il mio CV alla DARPA. Che poi il loro scopo sia fare un robot per la guerra, o un robot Vigile del Fuoco, io ci lavorerei lo stesso.

    L'IA è pericolosa, è difficile da controllare, è a tutti gli effetti una forma di vita appena avuto il tempo di svilupparsi abbastanza e potrebbe superare l'uomo tranquillamente.
    ...
    e non è una follia solo perché ti si rivolta contro
    e come fai a dirlo? Guarda, non me ne intendo abbastanza per dare una risposta tecnica, ma l'intelligenza artificiale non credo che vada immaginata come "libero arbitrio". Alla fine sono macchine programmate per fare ciò che devono. non credo che possano "rivoltarsi contro". E comunque, se anche potesse esserci questo rischio, credo che ce ne accorgeremo ampiamente per tempo. Nel film, Skynet prende coscienza di sé in qualche frazione di secondo e decide di attaccare l'URSS con le armi nucleari per uccidere loro là, e affinché la rappresaglia uccidesse gli americani lì. Nel film, però, l'assunto era che Skynet fosse un'unica rete totalmente interconnessa e potenzialmente in grado di agire su tutto. Ebbene, penso che ben prima di arrivare ad un simile Skynet, ce ne accorgeremmo se una rete di intelligenze artificiali interconnesse avesse la tendenza o la potenzialità di sviluppare una coscienza di sé e un libero arbitrio, quando i potenziali danni sarebbero contenuti. Inoltre, non sarebbe neanche necessario collegare l'utilizzo delle armi nucleari ad un'intelligenza artificiale e avere comunque un risultato efficace. Per esempio, la Russia ha un sistema di rappresaglia automatico efficace, ma non intelligente. C'è una rete che controlla costantemente la presenza di onde sismiche compatibili con la detonazione di bombe atomiche. Se le rileva, fa uno screening del livello di radioattività, se lo rileva (e tutto ciò richiede pochi secondi), comincia il conto alla rovescia per la rappresaglia. Durante questo periodo di tempo, contatta procedendo gerarchicamente tutti i comandi abilitati a prendere decisioni, cioè ad ordinare la rappresaglia immediata o a disattivarlo. Se non riceve risposte nel giro di pochi minuti, diventa lui il "comandante" e non può più essere disattivato in alcun modo, quindi lancia dei missili, dislocati un po' ovunque, che percorrono tutta la Russia, emettendo un segnale che attiva tutte le testate contenute nei silos, che vengono lanciate interamente: si parla di centinaia o migliaia.

    Andrebbe utilizzata per fini di RICERCA SCIENTIFICA non per far imbracciare a essa armi, è una follia, e non è una follia solo perché ti si rivolta contro, ma perché se delle macchine abbastanza sviluppate ricevono l'ordine di distruggere x o y è un MASSACRO, al pari della distruzione nucleare della terra.
    ma infatti la ricerca scientifica verte anche su quello. Molti ricercatori non è che lavorano al "terminator"! Lavorano su robot che siano in grado di fare determinate cose, come camminare, usare le mani, ecc. Ma se un robot sa camminare e usare le mani sufficientemente bene, allora lo si potrà usare per salvare vite umane. E lo si potrà usare anche per la guerra, come le pietre di cui sopra. E' una cosa brutta, siamo d'accordo, ma non credo che constatare che questa cosa sia brutta, fermerà un progresso già in atto, sui cui lavorano i ricercatori di tutto il mondo, nonché le maggiori potenze mondiali con fondi governativi.
    In pratica, tornando all'età della pietra, è come se tu dicessi: "per scuoiare gli animali e usare il legno, non serve per forza la pietra, è una cosa pericolosissima! Perché poi sarebbe usata per fare le lance!". Come vedi, siamo andati ben oltre. Abbiamo fatto la bomba atomica, faremo sicuramente anche macchine con l'intelligenza artificiale e saranno sicuramente usate per scopi molteplici.

    ma perché se delle macchine abbastanza sviluppate ricevono l'ordine di distruggere x o y è un MASSACRO, al pari della distruzione nucleare della terra.
    In una guerra anche gli umani ricevono l'ordine di distruggere X o Y e lo fanno, compiendo anche dei massacri. Tu dirai che l'uomo ha anche sentimenti di pietà ed empatia e che la macchina questi sentimenti non ce l'ha. Vero. Ma l'essere umano ha anche sentimenti di paura, ira, furia, rabbia, dolore, vendetta, rivalsa, sadismo. E tutte queste cose vengono facilmente fuori in guerra. Quindi la macchina indubbiamente ucciderebbe X o Y, senza rabbia, senza rimorsi, senza dolore. Ma solo X o Y, non tutte le altre lettere dell'alfabeto, proprio perché non ha sentimenti.
    E poi, non vedi l'altro aspetto positivo, cioè quello di tutelare la vita dei propri soldati.

    Tu proponi termini da estinzione, cioè capisci che non c'è da ragionarci tanto? Non è che stiamo discutendo di una cosa incerta: se lanci UNA atomica tra potenze il mondo è finito, punto.
    sono d'accordo, ma qui si parla di intelligenza artificiale e robot.

    Se lanci AI sul nemico, il mondo rischia di finire,
    per quanto detto, non vedo questa equazione.

    l'unica cosa che è certa è che l'AI va trattata con le pinze, con le dovute precauzioni e che non dovrebbe mai essere utilizzata a fini militari, soprattutto fino alla sua comprensione totale
    su questo siamo d'accordo.
    Ultima modifica di bartok; 22-02-18 alle 23: 56

  9. #9
    Responsabile di Sezione L'avatar di bartok
    Data Registrazione
    Jun 2011
    Messaggi
    3,024

    Predefinito

    A proposito d'intelligenza artificiale, ho trovato interessante questo articolo:

    http://www.ilgiornale.it/news/mondo/...e-1523664.html

  10. #10
    Responsabile di Sezione L'avatar di Vinfer
    Data Registrazione
    Jan 2015
    Località
    Ottaviano
    Messaggi
    444

    Predefinito

    Anche se oggi sono in una ffpp, un tempo ero un informatico, ho una laurea, una specializzazione in reti neurali, posso dire la mia? si no?
    Voglio innanzitutto premettere una piccola cosa:
    per quanto riguarda forme più sviluppate di automazione, come robot intelligenti ecc., bisogna vedere se la civiltà umana arriverà a sviluppare tanto. Mi spiego meglio: siamo in un punto della civiltà critico. Esaurimento delle risorse naturali, riscaldamento globale, sovra popolazione, desertificazione e perdita di ecosistemi , carenza idrica (e questi sono fattori certi), aggiungiamo potenziali fattori random come olocausto nucleare, olocausto biologico, ecc. possono portare ad un regresso della civiltà industrializzata/digitale o addirittura all'estinzione della stessa (diciamo che se l'andazzo continua come quello attuale, la civiltà digitale è spacciata nel giro di un secolo). Quindi proiettare la nostra mente in un futuro troppo lontano, secondo me, non ha senso, proprio perché i prossimi 50 anni saranno cruciali per capire le possibilità di sopravvivenza della civiltà https://www.theguardian.com/environm...udy-scientists .
    L'IA è sicuramente il futuro, senza spostarci troppo sulle "macchine", ma basta concentrarsi sugli "algoritmi". Siamo già dipendenti dagli algoritmi. Siamo totalmente sotto l'impero degli algoritmi. Basta prendere un'applicazione di trading finanziaria, sono algoritmi che decidono cosa, come e quando investire e, paradossale, non potrebbe essere altrimenti! Sono algoritmi che in centinaia di migliaia di smartphone ogni giorno regolano la vita degli utenti. Algoritmi sono quelli che ti suggeriscono cosa comprare e organizzare l'attività fisica. Gli algoritmi decideranno cosa è meglio per le nostre vite. Essi sono più efficienti, più ottimizzati, migliori nel prendere decisioni in determinati contesti degli uomini. Gli algoritmi sono in possesso di miliardi di nostri dati che forniamo semplicemente gratis e sui quali essi si "evolvono" grazie allo sviluppo di reti neurali molto efficienti. Gli algoritmi, le routine di IA, guideranno le nostre vie e la nostra vita. Questo io penso navverrà nei prossimi 20 anni.
    Quindi è in questi prossimi 20/50 anni che, secondo me, con le risorse ancora in disponibilità, assisteremo non della creazione di un automa intelligente, ma alla supremazia degli algoritmi. Non ci saranno fantomatiche ribellioni delle macchine, semplicemente si assisterà ad una dipendenza totale tra uomo ed IA intesa come routine informatiche sempre più complesse e precise. Oggi appare troppo prematuro parlare di IA e coscienze, ribellioni, prese di coscienza ecc. per i limiti hardware dei microprocessori attuali nonostante esista materiale grezzo (i dati). Quello cui assisteremo sicuramente nei prossimi lustri sarà un nuovo passo tecnologico: la supremazia degli algoritmi gestiti da reti neurali ed alimentati, gratuitamente, da miliardi di nostri dati, dalla semplice frequenza del numero di pagine lette in un minuto su un libro digitale ai più intimi e personali dati medici.
    Inutile essere pro o contro, è un processo irreversibile.
    Di sicuro la tecnologia non è un fattore determinante la felicità dell'uomo, ma è indubbiamente un fattore facilitante per raggiungerla! Ma questo è semplicemente la mia opinione personale.
    Se poi tra 100 anni la civiltà avrà superato i grandi ostacoli, cominceranno a svilupparsi processori oggi nemmeno immaginabili, prenderanno vita davvero automi in grado di prendere decisioni con primordiali coscienze e se questi sfuggiranno di mano al controllo dell'uomo, bhe non mi fa minimamente paura, dopotutto ogni specie è destinata all'inevitabile estinzione. O con un'atomica o con un'intelligenza artificiale superiore la paura non ha senso di essere, perché si avrebbe paura di ciò che è inevitabile, a prescindere dal come ci si giunga.

    Consiglio caldamente la letttura di Homo deus. Breve storia del futuro, di Harari.
    Ultima modifica di Vinfer; 09-05-18 alle 18: 41

Pagina 1 di 2 12 UltimaUltima

Segnalibri

Permessi di Scrittura

  • Tu non puoi inviare nuove discussioni
  • Tu non puoi inviare risposte
  • Tu non puoi inviare allegati
  • Tu non puoi modificare i tuoi messaggi
  •