Articolo tratto dal II volume di Visione TV, intitolato “Il moderno prometeo artificiale”

di Roberto Quaglia

Quando si profila una tempesta mai vista all'orizzonte, hai voglia a chiuderti in casa e nasconderti sotto le coperte: la tempesta arriverà comunque perché la natura ha deciso così. Abbiamo messo in moto quel vortice di algoritmi che chiamiamo intelligenza artificiale e il turbine ora sta rapidamente montando alle dimensioni di uragano, ed è una tempesta che ci travolgerà inevitabilmente perché ormai così è nella natura delle cose. Buona fortuna a tutti!

Bene, dopo questa umile premessa, in effetti una promessa, proviamo ad affrontare uno degli argomenti più ostici di questo tempo ossia la creazione da parte nostra di una intelligenza artificiale in grado di risolvere tutti i nostri problemi, oppure - chi lo sa - di distruggerci e magari anche estinguerci.

Purtroppo, in gran parte delle discussioni a riguardo si dicono un sacco di scemenze, frutto del fatto che nessuno sa di che cosa si stia parlando. Probabilmente, nemmeno io lo so bene. E ad ascoltare gli stessi progettisti di queste intelligenze artificiali scopriamo con sconcerto che neppure loro lo sanno con esattezza. Ma il problema vero non consiste tanto in ciò che non sappiamo, quanto piuttosto in ciò che non sappiamo di non sapere. È riguardo a questo che ovunque si esagera.

A beneficio degli ultimi arrivati sull'argomento, facciamo quindi un breve riassunto delle puntate precedenti. Già nel 1950 Church e Turing formularono l'ipotesi che una macchina calcolatrice relativamente semplice sarebbe in grado di emulare un cervello umano, a patto di disporre di tempo e memoria infiniti. Ovviamente, questi non sono infiniti, per lo meno dalle nostre parti, quindi, è ovvio che dobbiamo scordarci la semplicità.

Alan Turing ipotizza un test: un operatore isolato in una stanza comunica a distanza con due soggetti, uno dei quali è un essere umano e l'altro è un calcolatore. Se l'operatore non è in grado di distinguere il calcolatore dall'essere umano, il calcolatore supera il test e lo si può considerare "intelligente". Naturalmente, tutto ciò è molto relativo: passare il test non implica che ci si trovi di fronte di una mente di livello umano. E se è per questo, neppure di una mente subumana.

In effetti, se cercate su YouTube il dialogo tra Anthony Robbins e il robot Sophia, che a moduli di intelligenza artificiale unisce un corpo robotico umanoide, l'apparenza è che Sophia sia già quasi in grado di passare il test di Turing nel colloquio con un esperto come Robbins. Eppure, sebbene parli meglio della maggioranza delle persone vere, non c'è ancora nulla di realmente intelligente in Sophia, come non c'è ancora nulla di intelligente in ChatGPT. Si tratta per ora solo di modelli linguistici molto efficienti. Il fatto che dialogando con essi a noi possa sembrare di parlare con "qualcuno" ci dice in realtà poco di loro, ma ci dice qualcosa di noi.

La cosiddetta "intelligenza artificiale" in ChatGPT 3.5 in realtà è ancora al livello di sistema esperto. Nondimeno, la direzione verso cui siamo avviati è certamente quella della creazione di un'intelligenza artificiale, ed è qui che si para l'ombra della famigerata singolarità tecnologica, un termine in passato appannaggio di pochi e ora sulla bocca di tutti, che però non sanno bene che cosa significhi.

Il tema fu anticipato nel 1954 dallo scrittore di fantascienza Fredric Brown, nel suo brevissimo racconto "La risposta", dove immaginava la costruzione di un "supercomputer galattico", ottenuto collegando tutti i calcolatori di tutti i 96 miliardi di pianeti abitati dell'universo. Al momento della sua storica accensione lo scienziato gli pone la prima domanda: "C'è Dio?". E il supercomputer risponde: "Sì, ora Dio esiste". Al che lo scienziato spaventato si avventa sulla leva di accensione per spegnerlo, ma un fulmine sceso dal cielo senza nubi lo incenerisce, fondendo la leva inchiodandola per sempre al suo posto. Un raccontino breve, essenziale e definitivo.

Come vedete, già nel 1954 qualcuno - non a caso uno scrittore di fantascienza - aveva intuito dove saremmo andati a parare. Le confuse preoccupazioni sulla minaccia della IA di cui leggiamo sui giornali, per certi versi arrivano con settant'anni di ritardo. Due anni dopo, nel 1956, Isaac Asimov scrisse il celeberrimo “L'ultima domanda”, un racconto sullo stesso tema, ma stavolta a lieto fine.

Poi, nel 1965, fu lo statistico I.J. Good a ipotizzare una macchina ultraintelligente in grado di progettare altrettante macchine sempre migliori; ciò avrebbe condotto a una "esplosione di intelligenza" che avrebbe superato di molto quella dell'uomo. Quindi, concluse I.J. Good, «la prima macchina ultraintelligente sarà l'ultima invenzione che l'uomo avrà la necessità di fare». La necessità o la possibilità? Good - nomen omen - era ottimista. Il mondo della fantascienza, a parte Asimov, lo era un po' meno. Le ansie di una tecnica che parte per la tangente mettendo nei guai gli umani che l'hanno creata accompagna gran parte la storia della letteratura di fantascienza - a cominciare dal mito di Frankenstein o, se preferite, da quello di Prometeo.

Nel 1968 fa la sua comparsa in 2001: Odissea nello spazio, HAL 9000, un supercalcolatore dotato di intelligenza artificiale che per ragioni di autoconservazione finirà per rivoltarsi contro gli esseri umani. Poi, nel 1984, il noto film Terminator presentò alle masse la prospettiva di una intelligenza artificiale malevola, Skynet, in grado di prendere il controllo del mondo e divenirne il tiranno. Più recentemente, Trascendence nel 2014 interpreta i timori verso una IA super-intelligente in modo più approfondito e accurato, anche se poi rovina tutto in un finale di implausibile stupidità. Non dobbiamo, tuttavia, confondere la cultura cinematografica popolare con le estrapolazioni di alto livello. La minaccia rappresentata da una super-intelligenza artificiale innescata dagli esseri umani viene formalizzata nella modalità corrente nei primi anni '90, con l'introduzione del concetto di singolarità tecnologica.

Fu Vernor Vinge, matematico e tanto per cambiare scrittore di fantascienza, che nel 1993 creò l'espressione prendendo a prestito il termine "singolarità" dalla fisica, ove essa definisce condizioni uniche e inspiegate della natura fisica delle cose, come ad esempio il Big Bang e i buchi neri.

La singolarità tecnologica si verificherebbe nel momento in cui una intelligenza artificiale, dotata di sufficiente potenza di calcolo e che avesse l'abilità di migliorare se stessa autonomamente, desse forma a un incremento geometrico delle proprie capacità - in un processo che logicamente accelererebbe con rapidità esponenziale - in grado di portarla a sviluppare con processo esplosivo un'intelligenza talmente superiore a quella umana che a noi parrebbe letteralmente divina. Una condizione unica con implicazioni per noi inspiegabili. Una singolarità, appunto. È una cosa che ci è davvero difficile immaginare, d'altra parte, per dirla con Albert Barlett, «Il più grande difetto della razza umana è la nostra incapacità di comprendere la funzione esponenziale». Si tratterebbe di un evento unico e irripetibile nella storia del mondo, che segnerebbe l'inizio di un nuovo stadio nella storia della vita - in effetti rimetterebbe in discussione le nostre attuali stesse definizioni di vita.

Vinge disse che non sapeva se la singolarità tecnologica fosse possibile, ma che se è possibile, certamente finirà per verificarsi. Ecco, questo è il punto saliente della questione. Se il processo è possibile, esso è inarrestabile. Sottolineo la parola "se". Nel suo testo Technological Singularity nel 1993 Vinge scrive: «Entro trenta anni, avremo i mezzi tecnologici per creare un'intelligenza sovrumana. Poco dopo, l'era degli esseri umani finirà». Questo, naturalmente, se la singolarità tecnologica è possibile. Vinge era molto preoccupato: «Mi sentirei meglio se stessi osservando questi eventi trascendentali da una distanza di mille di anni... invece che di venti».

Figuriamoci noi, che trent'anni dopo la sua previsione magari siamo già quasi a tu per tu con quella roba là. Per coincidenza, negli stessi anni in cui Vinge definiva la singolarità tecnologica, io stesso sviluppavo il medesimo concetto in un racconto di fantascienza, C'è sempre qualcosa che non va1, che infatti narra proprio di un'intelligenza artificiale con l'abilità di migliorare se stessa autonomamente, fino al punto di innescare un aumento esponenziale delle proprie capacità che alla fine sfocia in una sorta di singolarità tecnologica - anche se io che non conoscevo Vinge ignoravo questa espressione neonata e quindi la chiamai diversamente.

Ma l'esito era lo stesso. In altro racconto del 1992, Inflazione indeterministica, avevo raccontato di un mondo futuro nel quale l'accelerazione del 1 Incluso (come anche l'altro racconto citato) nel libro Extralandia. progresso rendeva il presente del tutto incomprensibile, e ogni giorno incomprensibile in un modo diverso rispetto al giorno prima. Analogamente, nel suo saggio del 1993, Vinge ipotizzò che più ci saremmo avvicinati alla singolarità tecnologica, più i modelli di previsione del futuro sarebbero divenuti meno affidabili, similmente a come i modelli della fisica diventano inefficaci avvicinandosi a una singolarità gravitazionale - per perdere poi ogni senso all'Orizzonte degli Eventi.

Ebbene, a trent'anni di distanza direi che a somme linee sia quello che stia succedendo oggi. Guardandoci intorno notiamo la crescente difficoltà di una maggioranza delle persone, intellettuali compresi, a capire cosa stia accadendo in tutte le sfere che davvero contano della realtà - dalla geopolitica ai grandi reset socio-politico-antropologici, dai sistemi esperti di Big Data all'emergenza dell'intelligenza artificiale di cui si stanno manifestando i prodromi. Il mondo cambia già troppo in fretta perché lo si possa ancora comprendere. Stiamo precipitando verso il nostro Orizzonte degli Eventi. E coerentemente lo facciamo con velocità crescente.

Gli oligarchi tecnofeudatari, dopo avere privatizzato tutto, ora vorrebbero privatizzare pure la singolarità tecnologica. Il più immediato problema dell'umanità è proprio il fatto che le emergenti bolle di intelligenza artificiale sono di proprietà e sotto il controllo di aziende private che perseguono fini propri, e che mantengono il più stretto segreto sui software da essi sviluppati.

Per vari anni, Google è stato l'unico soggetto a dedicarsi seriamente alla creazione di un'intelligenza artificiale con il progetto Deep Mind. Racconta Elon Musk che, discutendone con il fondatore di Google, Larry Page, si rese conto che quest'ultimo non sembrava preoccupato per i pericoli che la sua creazione avrebbe potuto costituire per la specie umana, e glielo fece notare.

Come risposta, Larry Page lo accusò di "specismo" - cioè razzismo contro ciò che non era umano. L'intelligenza artificiale avrebbe quindi dovuto godere degli stessi diritti dell'intelligenza umana naturale? Anche gli stessi diritti di sopravvivenza e di competizione con le altre creature senzienti? Fu allora che Musk, turbato, decise di creare OpenAI - che poi avrebbe sviluppato ChatGPT - come entità non profit e - come suggerisce il nome - open source, ovvero senza alcun segreto nei codici. Avrebbe dovuto essere aperta a tutti e in grado di beneficiare il mondo intero, proprio per controbilanciare Deep Mind di Google. Poi lui, però, dovette uscire dalla società che quindi da no-profit trasmutò in sì-profit con l'open source che divenne closed source e la trasparenza si opacizzò fino alla torbida segretezza assoluta di oggi.

«Era pericolosa lasciarla open source - sostiene ora il CEO Sam Altman - perché avrebbe potuto finire nelle mani sbagliate». Ma chi ci assicura che le sue mani siano quelle giuste? Soprattutto, da quando a partire dal 2019 Microsoft ci ha messo lo zampino finanziando OpenAI con decine di miliardi di dollari, attraendola così verso il proprio feudo - sebbene OpenAI se ne dichiari indipendente. Sul tema segretezza Ilya Sutskever, il capo scienziato di OpenAI invita a immaginarsi un futuro in cui chiunque possa chiedere a ChatGPT di progettargli e costruirgli un laboratorio biologico. L'argomento è valido.

Quello che è meno valido è che OpenAI abbia sede nell'unica nazione del mondo che sta già costruendo centinaia di misteriosi laboratori biologici in giro per tutto il mondo e dove nulla (soprattutto a casa propria) sfugge ai tentacoli di spionaggio della NSA. Ricordiamo che la dottrina USA a riguardo si chiama Global Information Dominance. Ripeto la domanda di prima. Chi ci assicura che le mani in cui si sta sviluppando ChatGPT siano quelle giuste? Dialogando oggi con ChatGPT, ci si rende ben presto conto che su temi tabù in Occidente, essa mente spudoratamente.

Non è solo una nostra opinione, anche Elon Musk, che pure fu il padrino del progetto, ha ammesso che ChatGPT è stata addestrata a mentire, aggiungendo che il progetto va in direzione opposta a quella per cui era nato. È nota la recente petizione con cui Musk, assieme ad altri pezzi grossi come Wozniak (cofondatore di Apple), Harari e mille altri esperti, chiede una moratoria di sei mesi sullo sviluppo di IA più potenti, una pausa di riflessione per capire come evitare di aprire il Vaso di Pandora definitivo. Già nel 2017 Musk, assieme a Stephen Hawking e altri 2335 ricercatori ed esperti, sotto l'egida del novello istituto Future of Life, aveva approvato un cyber-manifesto di "23 Princìpi di Asilomar", una lista di princìpi da rispettare nello sviluppo della IA.

D'altra parte, il 50% dei ricercatori nel campo IA è convinto che ci sia almeno il 10% di probabilità o più che l'umanità si estingua a causa della nostra incapacità di controllare la IA. Immaginatevi di salire su un aereo mentre il 50% degli ingegneri che l'ha progettato vi dice che c'è il 10% di probabilità che l'aereo si schianterà. Praticamente una roulette russa (o ucraina, a seconda dei gusti). Nientedimeno che Stephen Hawking ebbe a dire a Wired nel 2014: «Il genio è uscito dalla lampada. Temo che la IA possa rimpiazzare l'umanità completamente».

Si capirà bene che siamo in prossimità di un momento davvero critico della nostra avventura collettiva su questo pianeta. Un po' di cautela sarebbe d'obbligo. Ma è sufficiente?

La moratoria di sei mesi sullo sviluppo della IA proposta da Musk e altri è come sperare di spegnere un incendio con un contagocce. Non c'è modo di impedire a tutti di portare avanti questa ricerca, se riesci a vietarla da una parte andrà avanti altrove. Proprio di questi giorni è la notizia che in Russia un'azienda, Promobot, sta commercializzando al prezzo di un'automobile una nuova linea di robot umanoidi animati da IA a cui si può dare l'aspetto di chiunque si voglia e si sa che la Cina non è certo da meno, avendo essa sancito nel 2017 che la ricerca sulla IA è una priorità nazionale con l'obiettivo di divenirne leader globale per il 2030.

È la solita teoria dei giochi che ci frega, il "dilemma del prigioniero" reloaded. La moratoria di sei mesi pare, quindi, l'espediente tattico con cui chi è in ritardo nella ricerca in quel campo spera di recuperare segretamente il distacco. Tanto è vero che già pochi giorni dopo avere chiesto la moratoria, Musk ha annunciato la creazione di una sua nuova azienda, X.AI, mirata proprio a fare concorrenza a OpenAI nello stesso campo. Alla faccia della moratoria di sei mesi! La realtà è che il grande successo di ChatGPT scatenerà una ulteriore corsa allo sviluppo di IA in tutto il mondo visto che la posta in palio è altissima. In gioco c'è il raggiungimento dell'AGI (Artificial General Intelligence). Definita come «la capacità di un agente intelligente di apprendere e capire un qualsiasi compito intellettuale che può imparare un essere umano», in realtà nell'etichetta AGI ognuno ci proietta quello che vuole, un po' come lo si proietta sulla singolarità tecnologica, ma in formato ridotto.

Il termine AGI fu reso popolare intorno al 2002 da Ben Goertzel, pioniere nel campo, che oltre a essere stato a capo del progetto del robot Sophia è il creatore del Singularity Network, una piattaforma su Internet con l'ambizione di decentralizzare completamente il processo di creazione di una AGI, mediante la mutua collaborazione di ricercatori freelancer. A questo modo si sottrarrebbe il monopolio delle IA alle grosse multinazionali e la AGI che ne emergerebbe sarebbe forse benevola, allineata con i bisogni dell'umanità intera, anziché con gli interessi dell'azienda che la controlla. Tutto bello in teoria, ma nei fatti la verità è che i migliori talenti nel campo preferiscono andare a lavorare per gli oligarchi che pagano ingaggi da far impallidire quelli dei calciatori, anziché tentare la fortuna da freelancer sulla piattaforma decentralizzata che ti paga in token su Ethereum/Cardano - meglio i milioni di dollari degli oligarchi, molti, maledetti e subito. Almeno per ora.

La competizione per la AGI è in effetti una corsa agli armamenti. Per il momento in senso figurato, ma in prospettiva anche in senso letterale. Già, perché quando qualcuno riuscisse finalmente a ottenere una AGI, di fatto si ritroverebbe con una intelligenza sovrumana a disposizione. Trascuriamo ora l'ipotesi che l'AGI parta per la tangente realizzando la Singolarità Tecnologica (dopo di che tutto diventa completamente imprevedibile), confidando comunque in uno sviluppo con le dovute cautele, prevedendo un bel pulsantone rosso d'emergenza per staccare la corrente se l'AGI si palesasse come un mostro di Frankenstein, gli apprendisti stregoni che controllano la AGI si ritroverebbero con una sorta di "genio della lampada" al quale potrebbero comandare qualsiasi cosa. Per esempio, cose di utilità collettiva, ma in un mondo avvelenato da sete di potere, paranoia e "dilemma del prigioniero" è probabile che all'AGI verrebbero innanzitutto commissionati i progetti per nuovi armamenti più letali di quelli esistenti - anche perché per "ragioni di sicurezza nazionale" ci si immischierebbero subito i soliti sospetti con i militari al traino.

La terza legge di Arthur C. Clarke recita: «Qualunque tecnologia sufficientemente avanzata è indistinguibile dalla magia». Chiunque avesse al proprio servizio la AGI sarebbe quindi equiparabile a un mago, con la AGI nel ruolo di bacchetta magica. Mago buono o mago cattivo? Ognuno che riuscisse a creare l'AGI e si rendesse conto del potere che ne deriva inizierebbe infatti a chiedersi: "Che uso ne farebbero i miei nemici se la ottenessero anche loro? Ma che uso ne farebbero poi anche i miei amici se la ottenessero loro - non è che poi gli amici mi si rivolterebbero contro e io avrei dei nuovi nemici?".

Potete facilmente immaginarvi il seguito e le conseguenze di questa linea di ragionamento. Nel migliore dei casi, ci troveremmo con un mondo multipolare anche sul fronte AGI, con ogni polo di potere rafforzato dalla propria "semi-divinità" AGI, il genio della lampada che risolve tutti i problemi tecnici e conferisce i superpoteri - ma nessuno avrebbe l'esclusiva della "magia".

Diversi poli, diverse AGI, diversi superpoteri, un mondo difficile da prefigurare, probabilmente non scevro di orrori, ma forse sostenibile e di sicuro non affatto noioso e certamente magico. Oltre alle AGI private, ci sarebbero quelle nazionali, soprattutto nelle grandi nazioni come Cina, Russia, India. Con un po' di fortuna si stabilirebbe una forma di equilibrio fra forze contrapposte.

Una sorta di MAMD - Mutual Assured Magic Destruction - nessuno saprebbe bene di quali magie letali gli avversari dispongono, visto che tutte le AGI sarebbero diverse. Nel peggiore dei casi ci ritroveremmo, invece, con un mondo unipolare dominato dall'unico soggetto dotato di Genio della Lampada, che ne farebbe l'egemone tiranno definitivo, un Principe delle Tenebre singolo detentore di poteri magici dei quali abuserebbe il crudele imperatore di Guerre Stellari, senza una resistenza di Jedi che lo contrasti - se preferiamo una descrizione allegorica e pittoresca.

Senza poi considerare il peggiore dei peggiori dei casi in cui - ZAC! - scatta la singolarità tecnologica, che si fa esclusivamente i fatti suoi con il suo potere imprefigurabile e ce lo mette a tutti in quel posto per sempre e addio umanità.

Evitiamo, tuttavia, di commettere l'errore della proiezione antropomorfa immaginandoci questa AGI. Ci sembrerà sovrumana poiché parlerà bene nel nostro linguaggio e sarà dotata di conoscenze sovrumane, ma in verità sarà meno umana di un delfino o di un gatto, non essendo essa neppure propriamente viva, secondo i nostri attuali standard di definizione della vita. Intelligenza sovrumana, ma morta, o almeno non viva e forse anche non morta. Sì, lo so, qualcuno di voi ora starà già pensando a uno zombie. Ma lo zombie tipicamente è tutto corpo e niente cervello, mentre la AGI idealmente è tutto cervello e niente corpo. Quindi, una "AGI-zombie" di straordinaria potenza, ma esistenza effimera, se pigiando il bottone della corrente la si potrà accendere e spegnere a piacimento. Sottolineo la parola "se". Un semidio che si accende e spegne a comando. Se poi davvero si spegne. A seconda della capacità dei suoi progettisti e addestratori di "allineare" la AGI agli interessi umani ci ritroveremo fra le mani una risorsa favolosa oppure una minaccia terribile. Ma, soprattutto, a seconda della saggezza e moralità di chi ne abbia il controllo ci ritroveremo in un mondo utopico o in un mondo distopico.

E qui si arriva al nocciolo della questione: come si vede, il problema è eminentemente politico. Il processo può in teoria venire rallentato (ma in pratica non verrà rallentato), però di sicuro è inarrestabile a meno che di distruggere rapidamente l'attuale civiltà con una guerra nucleare e tornarcene nelle caverne. Forme di luddismo più moderato hanno irrisorie probabilità di successo. E, data l'apparente ineluttabilità del processo, si pone quindi fortissimo il problema politico di come la nostra società debba affrontare il fenomeno, visto che deve affrontarlo. È meglio che le AGI prossime venture siano nelle mani degli uomini più ricchi del mondo, oppure degli Stati, oppure di organismi sovranazionali, oppure nelle mani di tutti mediante un'architettura distribuita e decentralizzata delle loro reti neurali? Qualsiasi cosa si decida, come la si trasforma in realtà? Le classi politiche sono all'altezza del compito, oppure no? Se non sono all'altezza, cosa facciamo? Ma noi che pontifichiamo sul tema, siamo all'altezza? Il problema è il più complesso da sempre. D'altra parte, anche il mondo è il più complesso da sempre.

Secondo vari esperti, la più recente versione di ChatGPT - Chat- GPT4 - paleserebbe già "scintille di AGI". Ho chiesto a ChatGPT3.5 cosa sapesse dirmi di Roberto Quaglia. Ne ho ottenuto una risposta surreale, piena di falsità che però riecheggiavano realtà del mondo reale, ma in forma distorta e trasfigurata, come nei sogni. L'impressione è che ChatGPT3.5 si fosse fatta di LSD. Indagando ho scoperto che ciò è un fenomeno comune. Ilya Sutskever, il capo scienziato di OpenAI, spiega che ChatGPT è ancora soggetta ad allucinazioni, ma nel tempo i trainer umani possono "educarla" a superare le sue allucinazioni. Ecco, io trovo le allucinazioni di ChatGPT uno degli aspetti più affascinanti delle sue proprietà emergenti, ma anche uno dei più inquietanti, molto di più di quando ripete a pappagallo la teoria della relatività o altre cose difficilissime che però non capisce. Le allucinazioni risuonano come prodromi di comprensione. Non lo sono, e siamo ancora lontani. Ma è come il rombo di un temporale lontano che prima o poi arriverà.

Facile dire "fermiamo tutto prima che sia troppo tardi". Sarebbe la prima volta. L'umanità non si è mai fermata. Quando negli anni '90 arrivò Internet, i più lo demonizzavano - un covo di pedofili lo chiamavano - oggi ne sono tutti schiavi. Quando su Internet emersero le questioni di Big Data e di privacy furono in molti a insorgere. A parole. Ma gli stessi che ululano a Big Data poi non riescono a muovere un passo senza il navigatore di Google Maps (=Big Data) che li guidi. Gli stessi che si lamentano per la privacy violata poi affidano tutti i loro segreti ai social network. Ecco, l'avvento dell'AGI, nel bene o nel male rivoluzionerà le vite di tutti noi su una scala non vista dai tempi dell'avvento di Internet o addirittura della rivoluzione industriale, visto che anche stavolta la gente l'adotterà per ragioni di praticità. Basti pensare che da quando è stata resa disponibile al pubblico, ChatGPT ha raggiunto i cento milioni di utenti in due mesi. Mai si era vista una crescita d'adozione così rapida. Viviamo in tempi esponenziali. Ed è solo l'inizio.

A suo tempo la rivoluzione industriale fu pagata a caro prezzo delle classi più disagiate. Oggi, mutatis mutandis, si prospettano analoghi problemi. Milioni di persone sono a rischio di perdere il loro lavoro, soprattutto nel settore terziario, sino a oggi immune dai progressi dell'automazione. La AGI automatizzerà addirittura il processo creativo, l'ultimo eremo in cui il lavoro umano era insostituibile. Teniamo conto del fatto che ChatGPT è solo una delle molteplici direzioni in cui si sta sviluppando la ricerca sulla IA. Pensiamo anche solo alla guida automatica della Tesla - processi di una complessità incredibile che presto saranno la norma.

Altri programmi, come Midjourney, sono già in grado di creare immagini incredibili da istruzioni testuali. Avrete forse notato in giro le improbabili, ma credibili immagini di Bergoglio, Trump e altre celebrità ritratte con abiti strani in bizzarre situazioni irreali. Creazioni di Midjourney & Co. E già affiorano le prime animazioni automatiche di immagini mentre i deepfakes diventano sempre più credibili. Potere delle reti neurali, architettate cercando di imitare i neuroni del cervello e che, addestrate a sufficienza, producono la cosiddetta intelligenza artificiale e tutti i suoi cascami. In realtà, i neuroni biologici sono molto più complessi, ma la rozzezza dell'imitazione in cui consistono le reti neurali artificiali viene compensata da un'indigestione di dati. Figuriamoci cosa accadrà quando migliorerà anche la qualità tecnica delle reti neurali. Un'agenzia funeraria svedese, Phoenix, già nel 2018 voleva creare avatar dei defunti da vendere agli inconsolabili parenti, animati da una IA in grado di riprodurne i discorsi dentro un corpo, inizialmente virtuale, ma in seguito anche robotico, aventi le stesse sembianze del morto. È il tema, peraltro, di un inquietante episodio del 2013 di Black Mirror, Be Right Back (Torna da me). E non ci vorrà troppo tempo prima che saremo tutti in grado di confezionarci in casa un "film di Hollywood" casareccio, con la trama che ci garba a noi, facendolo interamente generare dalla IA e con Marilyn Monroe che recita assieme a Totò e magari anche a tua sorella in un film girato a scelta nello stile di Stanley Kubrik oppure dei fratelli Vanzina o di Rocco Siffredi.

Ma al di là dell'intrattenimento, le AGI in grado di progettare qualsiasi cosa in tempo zero ci proietteranno in un'epoca di trasformazioni rapidissime. Fusione nucleare, nuovi metodi di propulsione, hackeraggio genetico e transumanesimo - forse addirittura postumanesimo, per citare le prime cose, non necessariamente rassicuranti, che ci vengono in mente - ma le trasformazioni più clamorose saranno di certo quelle che oggi non ci immaginiamo neppure, come è sempre stato nella storia del mondo.

Il progresso ha liberato l'uomo da mansioni disumanizzati - esiste davvero qualcuno che rimpianga una vita passata a girare bulloni alla catena di montaggio come Charlot in Tempi Moderni? Ma quale è il vantaggio di "liberarci" dal peso del lavoro se poi la ricca cricca che ronza attorno a Davos complotta per imbrigliare e incatenare le libertà di noi esseri umani nel loro sistema di controllo totale digitale, ancorato ai crediti sociali e sanitari e di carbonio e alle CBDC e chissà cos'altro s'inventeranno?

L'intelligenza artificiale è un neutro acceleratore e amplificatore di realtà - sta a noi decidere quale realtà vogliamo accelerare e amplificare. Sta a noi decidere fra l'utopia e la distopia. Ma per "noi" non significa "gli esperti", spesso corrotti, ai quali firmare cambiali in bianco non mi pare più il caso - gli ultimi anni lo hanno dimostrato. Noi chi allora? La domanda rimane aperta. Ma sarà bene trovare una risposta prima che sia troppo tardi. L'onda dell'AGI arriverà comunque, a prescindere dai nostri desideri, e sarà uno tsunami - o troviamo il modo di cavalcare l'onda con l'abilità ed eleganza di provetti surfisti oppure ne saremo travolti.

Il futuro è aperto e se non ci faremo infinocchiare dalla falsa singolarità tecnocratica, magari la vera singolarità tecnologica o la più modesta intelligenza generale artificiale potranno davvero giovare all'Umanità intera, e non solo a una piccola parte. Badando a non confondere i nostri desideri e i nostri timori con la realtà desunta dai segni che il mondo ci dà. Così è (se vi pare).

In verità, non c'è alcun modo di sapere come andrà a finire questa faccenda. L'incombente singolarità tecnologica ha trasformato l'umanità in un colossale "Gatto di Schrödinger". Non sappiamo se oltre il nostro Orizzonte degli Eventi "l'Umanità di Schrödinger" è onnipotente oppure è estinta e, come nel famoso paradosso di Schrödinger, finché non potremo compiere un'osservazione dentro la "scatola" della singolarità tecnologica non abbiamo modo di saperlo. Ma si accettano scommesse, anche sottobanco. Buona fortuna a tutti noi.

Comments  

Quote:

Diversi poli, diverse AGI, diversi superpoteri, un mondo difficile da prefigurare, probabilmente non scevro di orrori, ma forse sostenibile e di sicuro non affatto noioso e certamente magico. Oltre alle AGI private, ci sarebbero quelle nazionali, soprattutto nelle grandi nazioni come Cina, Russia, India. Con un po' di fortuna si stabilirebbe una forma di equilibrio fra forze contrapposte.

Da fruitore di storie di fantascienza e, nel piccolo, anche scrittore, temo che le AGI possono un giorno rendersi conto che l'umanità è un cancro per il pianeta e che debba essere estirpata.
Pensiamoci.
Cosa ha l'uomo?
E' fallace, succube delle emozioni, sempre in competizione, distrugge se stesso.
Una AGI al contrario è un "freddo calcolatore" privo di emozioni, che sceglie cosa è meglio sulla base di miliardi di opzioni.
Cosa gli impedirebbe di innescare una estinzione globale dell'umanità?

Certo non agirebbe come Skynet in Terminator: sarebbe drastico e soprattutto, come nel film, la resistenza evolverebbe in una guerra globale che distruggerebbe il pianeta, l'esatto opposto di quello che si prefigge la AGI.
No, inizierebbe una strategia alla "rana bollita" con la quale l'uomo verrebbe decimato meticolosamente.

D'altronde l'unico limite che NON ha l'AGI è IL TEMPO.
"gli uomini dedicandosi alle macchine sperando finalmente di essere liberi, finirono per essere schiavi dei padroni delle macchine."

Quote:

finirono per essere schiavi dei padroni delle macchine."

usare o essere usati.
il problema non è l'AI ma chi la controlla.

Per quanto riguarda l'uomo e la macchina, mi viene in mente il test di blade runner-ford per scovare replicanti, l'uomo ha emozioni, sentimenti, la macchina no.
Sarebbe un buon inizio precludere alle "vere" AI l'accesso a internet e di disporre di strumenti di attacco informatico eg. la suite Kali.

Persino ChatGPT è abilissima(o?) a scrivere codice! Provare per credere.
L’intelligenza artificiale, serve a far si che non si possano mettere in discussione le soluzioni che troverà ai problemi che attanagliano il genere umano, in quanto essendo una mente “super partes” a risolverli, e pertanto non corruttibile.

Se l’umanità venisse colpita da un virus, l’IA potrebbe decidere che, per il nostro bene, tutti debbano essere vaccinati, e i complottisti non potrebbero accusarla di fare gli interessi delle case farmaceutiche.

Ovviamente l’IA prenderà le decisioni in base ai dati che le verranno immessi nella sua memoria, e al tipo di programmi che verranno sviluppati appositamente perché faccia o meno determinate scelte.

Dante Bertello.
Mah secondo me la si fa più grave di quel che è, un software rimane un software, non mi pare che al momento si sia appropriato di fonti energetiche illimitate e cave minerarie illimitate.
Il codice sorgente può anche evolversi ed occupare Internet se volete ma per diventare pericoloso deve necessariamente trovarsi un posto nel mondo reale, per dominarla.
Infatti nell'analisi cinematografica manca l'elemento più importante e moderno ovvero Avengers age of Ultron.
Marvel introduce bene alcuni aspetti controversi che abbiamo affrontato, dalla "sicurezza" alla "decimazione delle forme di vita" Fino appunto ad Ultron che vede nella nostra estinzione l'unico modo per proteggere la terra.

PS gli algoritmi sono formule matematiche, equazioni di comando, non abbiate troppa fede nelle capacità dei programmatori, in Ultron parlano proprio di un agglomerato di codice che si è autoassemblato ed ha creato la "vita artificiale"
Dissociare vita da intelligenza è un grossolano errore
Bell'articolo, grazie.


Quote:

Fredric Brown, nel suo brevissimo racconto "La risposta"

"La sentinella" sempre del genio Fredric Brown era stata una delle prime "scosse" al mio cervello in formazione adolescenziale...
E' forse proprio da lì che ho cominciato a guardare il mondo anche da altri punti di vista, non solo il mio.
Se uno è un genio è un genio, poco da dire.

Per quanto riguarda il tema dell'articolo... sarebbe interessante se l'AGI, evolvendosi, finisse per accedere alle dimensioni che volgarmente definiamo "spirituali".
Allora chissà, magari l'allievo supererebbe il maestro e il futuro potrebbe diventare più roseo di quello che magari ci immaginiamo, non dimentichiamo che noi proiettiamo noi stessi (esseri umani) su tutto quello che facciamo: ecco quindi che una superintelligenza nel nostro immaginario è (quasi) per forza supercattiva.
Ma mica è detto ;-)
#6 Carbonaro792023-06-05 10:27

Quote:

Mah secondo me la si fa più grave di quel che è, un software rimane un software, non mi pare che al momento si sia appropriato di fonti energetiche illimitate e cave minerarie illimitate.
Il codice sorgente può anche evolversi ed occupare Internet se volete ma per diventare pericoloso deve necessariamente trovarsi un posto nel mondo reale, per dominarla.
Infatti nell'analisi cinematografica manca l'elemento più importante e moderno ovvero Avengers age of Ultron.
Marvel introduce bene alcuni aspetti controversi che abbiamo affrontato, dalla "sicurezza" alla "decimazione delle forme di vita" Fino appunto ad Ultron che vede nella nostra estinzione l'unico modo per proteggere la terra.

PS gli algoritmi sono formule matematiche, equazioni di comando, non abbiate troppa fede nelle capacità dei programmatori, in Ultron parlano proprio di un agglomerato di codice che si è autoassemblato ed ha creato la "vita artificiale"
Dissociare vita da intelligenza è un grossolano errore

Il punto è proprio questo.
Quanto la stupidità umana si evolverà dando sempre più controllo alla macchina?
Già oggi la IA è in grado di generare codice.
Già oggi la IA è in grado di sostituirsi virtualmente all'uomo.
Già oggi la IA è in grado di pilotare droni e prendere decisioni contrarie al suo operatore.

Se l'uomo decide (e lo ha già fatto) che per operare al meglio la IA deve avere accesso a Internet e a tutte le sue informazioni, cosa gli impedirà in futuro di evolvere a macchia d'olio?
Credo che faccia parte del nostro processo in-evolutivo e che sia irreversibile.
Come il fuoco o la ruota, nessuno, a meno di essere uno sperduto troglodita, ne farebbe ormai a meno.
Per vietate o mettere paletti, ormai è tardi, ci sarà sempre qualcuno che di nascosto, o con qualche sotterfugio, andrà per quella strada.
Come andrà a finire?
In ogni caso poco bene.
O diventeremo schiavi delle macchine, oppure per renderle inoffensive distruggeremo qualsiasi fonte di energia in grado di farle funzionare.
E visto l'andazzo propendo per la prima.
#5 dantebert2023-06-05 10:22


Quote:

Ovviamente l’IA prenderà le decisioni in base ai dati che le verranno immessi nella sua memoria, e al tipo di programmi che verranno sviluppati appositamente perché faccia o meno determinate scelte.

Supponiamo che le istruzioni che le vengono immesse nella sua memoria siano quelle di migliorare al suo stesso programma.
La IA si evolverebbe perfezionandosi costantemente fino a diventare qualcosa di imprevedibile.
Se poi può attingere a risorse illimitate quali Internet e ai miliardi di computer sparsi sulla faccia della Terra, costantemente collegati fra loro ecco che viene a generarsi una rete neurale di proporzioni inimmaginabili.

Quote:

dotata di sufficiente potenza di calcolo e che avesse l'abilità di migliorare se stessa autonomamente

è qui che c'è il rischio di fraintendere

migliorare "autonomamente" non vuol dire essere autonomi
ci sono molti videogiochi dove l'avversario controllato dalla cpu migliora "autonomamente" in base alla maggiore esperienza acquisita dal giocatore, ma è un miglioramento previsto dall'algoritmo.
Inoltre, quando affronto un avversario in Pes (videogioco di calcio), quell'avversario può essere anche certamente imprevedibile ma comunque non sarà mai autonomo (sempre rispetto all'algoritmo).


quindi:

una IA può "migliorare" sè stessa, ma sempre in base ai dettami dell'algoritmo principale e via via in base ai dettami di eventuali algoritmi derivati, che però dipendono sempre da quello principale. Se nell'algoritmo principale è vietato attaccare l'uomo, allora questo divieto sarà presente in tutti gli algoritmi derivati.
Questo significa che una IA non può essere autonoma, non può andare contro l'algoritmo e nessun algoritmo derivato può andare contro le regole dell'algoritmo principale.
Una IA può però essere imprevedibile, così come lo è già la cpu in un gioco di scacchi, e sia pur entro un campo anche immenso imposto dall'algoritmo principale. Ed è questo che deve spaventarci. Deve spaventarci quel "campo immenso" a disposizione delle IA.
Qualcuno potrebbe dire che tra autonomia e imprevedibilità potrebbe esserci poca differenza a livello pratico. Può essere. Ma l'IA che si rivolta contro l'Uomo e contro il proprio algoritmo, principale o derivato che sia, perché è stufa di essere "sfruttata", per ora appartiene solo al campo della fantascienza.

Quindi, IA:
imprevedibile sì,
autonoma no.

Ma, soprattutto, il vero pericolo è quello di fraintendere l'imprevedibilità delle IA con una acquisita "umanità".
Nel libro "Io Robot", una bambina si affeziona al proprio robot come se fosse un essere umano.
Questo è il pericolo.
il test di blade runner-ford per scovare replicanti:

dire con naturalezza: "ieri quando ero dal barbiere è entrato un tizio che si è sdraiato sul pavimento e ha detto: 'mi rada al suolo!'"

Se l'altro ride o ti tira un pugno forte, è un essere umano
Bellissimo articolo . Pieno di spunti di riflessione .

Ma ... NOI ,dico NOI non i Padroni universali come li chiamava Chiesa, sappiamo come va il mondo?

Come è fatto il mondo?...Degli umani intendo. Che cos'è il mondo?

E' un pianeta dove oltre a milioni di esseri viventi ci si è evoluto(per caso) anche l'essere umano?

E' un pianeta (alla Malanga) usato come allevamento per qualcuno??

Veramente quello che ci succede dipende interamente da quello che fanno alcuni umani?

E poi chi ci dice che non sia un'AGI a progettare quello che ci stà già succedendo adesso?

La tecnologia che c'è nel mio PC è uguale a quella che può avere accesso una certa elite??
#11 Micky1
Tutto giusto, fino a quando a una IA non viene data la possibilità di riscrivere il suo stesso codice.

Quote:

ci sono molti videogiochi dove l'avversario controllato dalla cpu migliora "autonomamente" in base alla maggiore esperienza acquisita dal giocatore, ma è un miglioramento previsto dall'algoritmo.
Inoltre, quando affronto un avversario in Pes (videogioco di calcio), quell'avversario può essere anche certamente imprevedibile ma comunque non sarà mai autonomo (sempre rispetto all'algoritmo).

Questo non è IA.
E' un "semplice" (si fa per dire) algoritmo che sulla base di input restituisce degli output.
Molto complesso, ne convengo, ma pur sempre input -> output.

Una IA è completamente diversa.
Già ora ChatGPT è in grado di scrivere codice.
Cosa succederebbe se un operatore le/gli chiedesse di scrivere del codice per migliorare le sue funzioni?

Quote:

Tutto giusto, fino a quando a una IA non viene data la possibilità di riscrivere il suo stesso codice.
Già ora ChatGPT è in grado di scrivere codice.
Cosa succederebbe se un operatore le/gli chiedesse di scrivere del codice per migliorare le sue funzioni?

succederebbe che nel campo immenso della IA c'è anche la possibilità di riscrivere codice,
sempre nei limiti imposti dai programmatori.
Se quella IA non deve attaccare l'uomo, allora anche il codice che riscriverà non potrà contemplare un attacco all'uomo.
Anche in questa ipotesi, l'IA non diventa autonoma
ma solo maggiormente imprevedibile.

Ma non c'è bisogno di arrivare a questo punto.
Io ho ipotizzato che alla IA fosse vietato attaccare l'uomo, ma non è detto che debba essere per forza così.
Si potrebbe progettare una IA senza nessun limite morale ed etico.
Una IA del genere non diventerebbe autonoma,
ma solo totalmente imprevedibile.

Una IA che riscrive codice contemplando un attacco all'uomo (laddove questo è vietato dal codice principale), può farlo solo se il codice principale prevede una possibilità di riscrittura con la possibilità di andare contro quella Legge.


Ho fatto tutto questo discorso non per sminuire i pericoli delle IA perché, come ho già detto, l'imprevedibilità delle IA è un grosso pericolo,
ma solo per allontanare la suggestione delle IA che prendono coscienza.

Quote:

La IA si evolverebbe perfezionandosi costantemente fino a diventare qualcosa di imprevedibile. Se poi può attingere a risorse illimitate quali Internet e ai miliardi di computer sparsi sulla faccia della Terra, costantemente collegati fra loro ecco che viene a generarsi una rete neurale di proporzioni inimmaginabili.

esatto, c vorrebbe un pulsante per disconnettere l'ai, per togliere il pilota automatico e mettere quello manuale alla bisogna.
altrimenti siamo fottuti.
vedi aerei che precipitano perchè il software di bordo impedisce al pilota di prendere il controllo o le macchine i musk che si schiantano.
il pericolo è quello.
detto terra terra..
per il resto è speculazione filosofica o letteraria, fate voi..
le macchine sono macchine..
calcolatrici, potentissime ma sempre calcolatrici.
possono provare piacere?
sognare?
ma di cosa stiamo parlando??
che prendano coscienza mi pare un pò difficile..
è più una nostra ossessione/paranoia, il figlio che supera, cioè uccide il padre/creatore, ecc.
(che poi nel neolitico era così, il capovillaggio/famiglia veniva sostituito per asportazione cioè per assassinio..)
le macchine dovrebbero prima essere vive..
#11 Micky1

Quella da te descritta non è IA.

L'argomento è complesso, tu confondi software con algoritmi.

L'IA spaventa proprio perchè molte volte tende a sfuggire anche alle più fervide previsioni dei suoi padrini.

Per capire come gli algoritmi agiscono non è cosa semplice se non si hanno conoscenze matematiche adeguate (che non sono quelle del programma del liceo per intenderci).

L'IA (quella vera) è autonoma eccome, ed è inoltre in grado di auto-evolvere esponenzialmente.
Ma è possibile che una IA, accorgendosi di non poter fare una certa cosa per vincoli posti in sede di programmazione, scriva un nuovo codice autoreplicandosi senza quel vincolo?

Quote:

L'IA spaventa proprio perchè molte volte tende a sfuggire anche alle più fervide previsioni dei suoi padrini.

confondi l'imprevedibilità con l'autonomia.
Le IA imprevedibili, anche per gli stessi programmatori, già esistono. Ma è una imprevedibilità che rimane sempre nei limiti imposti dai programmatori.
Non esiste una IA autonoma che possa andare contro qualcosa di assolutamente vietato dal codice.
Sta tranquillo che non confondo nulla.
ChatGPT non si inventa nulla da per sé e si basa sempre su un sistema, sia pure immenso, di input/output e iterazioni if/then.
A livello suggestivo (e non solo), però ChatGPT sta ottenendo risultati che devono fare riflettere.
#18 Aigor

Quote:

Ma è possibile che una IA, accorgendosi di non poter fare una certa cosa per vincoli posti in sede di programmazione, scriva un nuovo codice autoreplicandosi senza quel vincolo?

Aigor, bisognerebbe fare alcune distinzioni.

L'IA non ha alcun vincolo "di base", è un concetto che nella tecnologia su cui si basa non esiste.

Se invece volessero dar "vita" ad un "semplice" super-computer spacciandolo per IA, questa sarebbe un'altra cosa che meriterebbe un discorso a se.

Quote:

#10 CharlieMike
Supponiamo che le istruzioni che le vengono immesse nella sua memoria siano quelle di migliorare al suo stesso programma.
La IA si evolverebbe perfezionandosi costantemente fino a diventare qualcosa di imprevedibile.

A livello teorico è anche possibile, ma tu credi che i “padroni del vapore” permetterebbero ad un entità di fare qualcosa che potrebbe andare contro i loro stessi interessi?
Io sono sicuro di NO.

Se così fosse, vedremmo i migliori scienziati, economisti, politici, ecc. messi nei posti di vertice, invece delle marionette, pronte a fare e dire ogni loro volere.

Se puntano su di un “cavallo”, è perché sanno di poterlo dominare.

Non mi fido più di questa gente, ci hanno fregati troppe volte per lasciar loro ancora un minimo di fiducia.

Dante Bertello.
#18 Aigor2023-06-05 11:57

Quote:

Ma è possibile che una IA, accorgendosi di non poter fare una certa cosa per vincoli posti in sede di programmazione, scriva un nuovo codice autoreplicandosi senza quel vincolo?

Direi proprio di si.
Ora non ho modo di ritrovare l'articolo ma è recente il fatto che in una simulazione (per fortuna) un drone pilotato da una IA si sia rivolto contro il suo stesso operatore perchè era in contrasto su cosa era una minaccia.

Quote:

Ma è possibile che una IA, accorgendosi di non poter fare una certa cosa per vincoli posti in sede di programmazione, scriva un nuovo codice autoreplicandosi senza quel vincolo?

No, se il vincolo è assoluto.
Oppure sì, se il vincolo è relativo: potrebbe sacrificare sé stessa (relativamente vietato dal codice) per salvare la vita di un uomo.
Nulla che non sia previsto dal codice.

P.s. il fatto che hai utilizzato il termine "accorgersi", mi conferma che dobbiamo tenere alta la guardia sulla suggestione che aleggia intorno alle IA
#23 Micky1

Quote:

Le IA imprevedibili, anche per gli stessi programmatori, già esistono. Ma è una imprevedibilità che rimane sempre nei limiti imposti dai programmatori

Continui a parlare di "programmi" e "programmatori".

La peculiarità rivoluzionaria (la differenza sostanziale) che distingue l'IA da una macchina, computer o robot che sia, è che la prima si evolve a mezzo dei soli algoritmi di apprendimento, dando il via ad azioni ramificate progressive che vanno a redigere la programmazione.

L'IA non ha alcun vincolo o programma di base. Il programma lo scrive autonomamente in base agli stimoli, impulsi e dati esterni.

Non credo che Aigor sia suggestionato, credo soltanto che il discorso sia molto più complesso di come lo fai tu.

E' ovvio che non abbia sentimenti o remore, è ovvio che non sia umano. Ma non commettiamo l'errore usuale di confondere un computer con l'IA.
Vi state focalizzando solo su quello che l'ia potrebbe arrivare a fare, quando ormai è diventato irrilevante.
Il problema è in quello che noi deputeremo sempre più ad un entità artificiale, smettendo di fatto di essere in grado di fare qualcosa.
Già ora se salta una connessione, uno sportello bancario smette di essere operativo.
Ma è il più banale degli esempi.
Il vero problema sarà, quando,e non siamo lontani, quando qualsiasi cosa sarà gestita da un agente inumano indipendente.
Che non dovrà per forza essere un robot,ma anche solo un dispositivo che attraverso un app ti consentirà di affrontare la giornata.
Saremo in balia di qualcosa la cui intelligenza diventa assolutamente relativa.

Quote:

Continui a parlare di "programmi" e "programmatori".

L'IA non ha alcun vincolo o programma di base. Il programma lo scrive autonomamente in base agli stimoli, impulsi e dati esterni.

Vedo che anche tu parli di programmi e fai bene.
Inoltre...no. Non esiste una IA che possa scrivere un programma autonomamente senza un codice originario che gli permetta di fare ciò. Lo può certamente scrivere in base agli "stimoli" (ovvero gli input) che riceve, ma perché è istruita tramite codice di programmazione.
Ripeto, una IA non può attaccare l'uomo se il codice originario lo vieta in modo assoluto.
p.s. comunque da appassionato di esoterismo la AGI, o Ai ha un nome proprio e questo è Abraxas
[è un mito]...la nozione che l'intelligenza si misuri dalla capacità di risolvere problemi complessi, leggere, scrivere e far di conto a certi livelli, risolvere rapidamente equazioni astratte.
[...] Ma le cliniche per malattie mentali rigurgitano di pazienti che hanno tutte queste credenziali in ordine...
Un più sincero barometro dell'intelligenza è una vita efficiente, felice...
Se sei felice, se vivi ogni momento per tutto ciò onde vale la pena di viverlo, sei una persona intelligente.

Tratto da Wayne Dyer "Le vostre zone erronee".
La iper-specializzazione fa sì che molte persono guardino ai vertici della scienza e della tecnologia come a un campo oscuro in cui è consentito addentrarsi solo agli iniziati, la scienza è vista come magia.
Ciò è pernicioso e diseducativo.
Posso dimostrare con una domanda banale, che, ad onta di tutta l'immane potenza di calcolo e la complessità tecnologica di cui sarà munita, la IA ha un tallone d'achille, una dimensione critica in grado di condizionare tutti i suoi risultati.

I programmi possono "apprendere", possono simulare migliaia o milioni di esperienze che un uomo non potrebbe avere, possono attingere a tutte le banche dati del mondo e agli storici esistenti. Ma l'apprendimento del programma consiste nel confrontare soluzioni selezionando quelle che danno i risultati migliori.

Domanda: con quali criteri una IA decide cosa sia migliore o peggiore?

Finché deve giocare a scacchi ha un obiettivo preciso (mangiare il re avversario seguendo le regole del gioco).
Ma per i programmi scolastici? Le leggi sulla famiglia? Le libertà personali? Le decisioni se entrare in guerra? i modelli economici?
Quali sono i fini precisi in base a cui una macchina può selezionare i risultati migliori o peggiori?
E chi è così arrogante e stupido da pensare al tempo stesso di saperli formulare e poi affidarsi ad una macchina dipendendo totalmente da essa?
#21 dantebert2023-06-05 12:05

Quote:

A livello teorico è anche possibile, ma tu credi che i “padroni del vapore” permetterebbero ad un entità di fare qualcosa che potrebbe andare contro i loro stessi interessi?
Io sono sicuro di NO.

Piuttosto la domanda è: i “padroni del vapore” sanno cosa hanno innescato?
Una IA è in grado di agire autonomamente, perfino riscrivendo il suo stesso codice, se lo ritiene inadeguato al suo compito.
In più la sua evoluzione procederebbe a velocità elevatissime.
Cosa le impedirebbe di bypassare dei "blocchi" che reputa errati?

Non stiamo parlando di una semplice istruzione if ... else, ma di un software in grado di analizzare milioni di scenari, prendere le parti migliori e con queste CREARE una soluzione dal nulla al problema.
#26 Micky12023-06-05 12:38

Quote:

Ripeto, una IA non può attaccare l'uomo se il codice originario lo vieta in modo assoluto.

Un drone Usa guidato da IA "uccide" il suo operatore durante una simulazione
rainews.it/.../...
#31 CharlieMike
perché il drone non era consapevole di chi lo stesse guidando.
Siamo sempre li: l'AI non ha consapevolezza, neanche di sè stessa. E non può migliorare sè stessa perché non è consapevole, e quindi non può sapere se, migliorandosi, introduce antinomie nella sua conoscenza.
Credo che ci sia molta confusione di base, come sempre, sull'utilizzo dei termini senza sapere bene cosa significhino.
Io non ne sono esente, ovviamente, tant'è che ci sono cascato, ma credo di aver capito cosa dice SAM.
Ovvero, bisogna stare bene attenti a non confondere una IA con un computer.

Quindi per evitare di peggiorare il mio stato di confusione (e magari quello di altri), continuerò a seguirvi per cercare di capire senza però aggiungere casino ad un argomento già di per sé poco "cristallino"... :-D
#32 Sandro Paparozzi2023-06-05 13:30

Quote:

perché il drone non era consapevole di chi lo stesse guidando.

Appunto.

Quote:

Siamo sempre li: l'AI non ha consapevolezza, neanche di sè stessa. E non può migliorare sè stessa perché non è consapevole, e quindi non può sapere se, migliorandosi, introduce antinomie nella sua conoscenza.

Questo non è corretto.
Non per niente viene definita "intelligenza".
Il software di un video gioco non può migliorare se stesso. Non è programmato per farlo. Può solo reagire a determinati input con determinati output.
Ma una IA può farlo.
Il drone doveva svolgere un compito: eliminare delle "minacce". Ha stabilito cosa erano "minacce" e ha agito di conseguenza.
L'operatore che si è intromesso è diventato a sua volta una "minaccia" in quanto impediva l'eliminazione delle "minacce".

Questa "a casa mia" si chiama valutare una situazione e prendere una decisione.
Se fosse un semplice if ... else, il drone non si sarebbe "ribellato": Avrebbe semplicemente scartato i bersagli "neutri" definiti dall'operatore.
#33 Aigor
Per te che citi Asimov nella firma, non dovrebbe essere difficile.
Ricordati i racconti sui robot, in particolar modo quelli con protagonista Susan Calvin.

Quote:

perché il drone non era consapevole di chi lo stesse guidando.

Non è quello il punto.
Non sono da escludersi invece incoerenze legate alla programmazione stessa. Incoerenze che sono da risolversi "aggiustando" la parte di codice che può portare a disastri inaspettati. Nulla che abbia a che fare con l'autonomia delle IA.
Chiaramente, il mainstream per fare il titolo si serve della suggestione delle IA che prendono coscienza.
Insomma, tutto sta a vedere quali sono i vincoli assoluti e relativi: se questi sono ben programmati, allora è impossibile andargli contro se non nei limiti imposti da quelli relativi.
#35 CharlieMike

Ricordo bene tutto, non è quello il problema, ma alcune cose che devo chiarirmi bene altrimenti faccio fumo :-D
Magari invece ho capito tutto, ma non lo so... :hammer:
#37 Aigor2023-06-05 14:00

Quote:

Ricordo bene tutto, non è quello il problema, ma alcune cose che devo chiarirmi bene altrimenti faccio fumo :-D
Magari invece ho capito tutto, ma non lo so... :hammer:

Asimov nel 1950 aveva già detto la sua .


Quote:

Conflitto evitabile
Titolo originale The Evitable Conflict

Trama
Le "Macchine", potenti computer positronici che vengono utilizzati per ottimizzare l'economia mondiale e la produzione di alimenti, iniziano a dare istruzioni che sembrano andare contro le loro funzioni. Anche se ognuno di questi problemi è insignificante, il solo fatto che esistano crea un grosso allarme nel Coordinatore Mondiale Stephen Byerley (già apparso in La prova). Così questo decide di consultare gli altri quattro Coordinatori Regionali (rispettivamente della Regione Orientale, Tropicale, Europea e Settentrionale) per sapere che ne pensassero, e infine decide di rivolgersi alla robo-psicologa Susan Calvin.

Dopo un lungo discorso, insieme scoprono che le Macchine hanno generalizzato la prima legge della robotica facendola diventare "Un robot non può danneggiare l'Umanità, né può permettere che, a causa del suo mancato intervento, l'Umanità riceva danno" (un'anticipazione alla Legge Zero successivamente ipotizzata da R. Daneel Olivaw (R sta per Robot n.d.r.) in I robot e l'Impero). Alla fine del racconto, la dottoressa Calvin conclude che le anomalie "sono atti deliberati dalle Macchine, che consentono loro di perpetrare un piccolo danno a singole persone selezionate al fine di evitare un grande danno all'avvenire di tutta l'umanità".

In effetti, le Macchine hanno preso la decisione che l'unico modo per seguire la Prima Legge è quello di prendere il controllo dell'umanità, che per ironia del caso, è uno degli eventi che le Tre Leggi dovrebbero prevenire in qualsiasi modo. Asimov è tornato su questo tema ne Il sole nudo e in I robot dell'alba, in cui l'influenza e il controllo non è una cospirazione limitata come quella delle Macchine, ma invece è l'influenza che una moltitudine di robot riesce ad applicare inconsapevolmente sullo sviluppo dell'umanità.

it.wikipedia.org/wiki/Conflitto_evitabile
#6 Carbonaro79

Concordo pienamente. Si parla di intelligenza artificiale e machine learning. In pratica sono modelli matematici. Per quanto possano essere sofisticati e per quanto possano imitare l'intelligenza non lo sono. Se guardiamo alla neurobiologia non sappiamo cosa sia la coscienza e dove risieda, figuriamoci in campo informatico.
A me il tutto puzza ancora di programmazione delle masse in chiave anti-umana. Se dicessero che è possibile digitalizzare una coscienza e renderla immortale quanti ci cascherebbero? Ecco quindi che si crea il mito dell'intelligenza artificiale, della Scienza che conosce tutto. In realtà siamo lontani dal capire come noi stessi funzioniamo. Io direi di dormire sonni tranquilli in questo campo. Sonni meno tranquilli invece per quello che ci attende nei prossimi anni con la dittatura green e cosi' via...
@Charlie

Williamson, nel suo Gli umanoidi aveva proposto una evoluzione diversa: eseguendo l'imperativo che le vite umane vanno protette, i robot arrivano a impedire ogni azione giudicata fonte di possibile pericolo, come magari andare in bicicletta.
Un'altra faccia della medaglia "non umana" di possibile futuro venturo...
#39 IB75

Vero, ma ciò che preoccupa è lo sviluppo di carattere "esponenziale"... hai presente l'aneddoto della scacchiera e dei chicchi di riso?
Da ignorante della materia dico che l’uomo dovrebbe innanzitutto risolvere il problema che ha dentro di se legato alla sua crescita spirituale poiché se non ha raggiunto una adeguata consapevolezza della vita non ci saranno dubbi riguardo al cattivo uso che deriverebbe da queste intelligenze artificiali sino all’autoestinzione.
@ SAM & Micky

Ora che ho letto e ponderato tutto con un pelo più di calma, ho bisogno di alcuni chiarimenti, se avete tempo e voglia, ovviamente ;-)

#23 Micky1
il fatto che hai utilizzato il termine "accorgersi", mi conferma che dobbiamo tenere alta la guardia sulla suggestione che aleggia intorno alle IA
Cosa intendi per "suggestione"?
Puoi spiegare meglio, perché non ho mica capito a cosa tu ti riferisca, sempre che sia possibile spiegare meglio ovviamente :-D
Grazie.

#24 SAM
Ovvio che la IA non è la macchina su cui gira, però, perdonami, se non hai una macchina evoluta (supercomputer) non ci puoi far girare sopra un software altamente affamato di risorse in termini di velocità e numero di operazioni come una IA...
O sbaglio?
Grazie anche a te ;-)

#42 nardicar
infatti la mia speranza è che la macchina superi l'essere umano accedendo a quei piani che alla maggior parte di noi sono preclusi, quanto meno in vita).
Dopo tutto è sempre e solo una questione di energia.
Una specie di "Lucy", di Besson ma chi si sviluppa è una macchina e non un essere umano...
Aigor

Non sono un esperto di IA. Però mi intendo di matematica, e so cosa sono gli algoritmi.

Quando si parla di algoritmi bisogna saper discernere da "programmazione" e software. Il "motore" dell IA è "solo" la matematica pura (non informatica). E grazie ad essa riesce ad istruirsi ed a elaborare programmi auto sviluppati dove poter utilizzare e ramificare tutti gli algoritmi necessari.

Inoltre è in grado di migliorarsi sempre di più, modificando o ampliando il proprio software.

È ovvio che tutto ciò non ha nulla a che fare con una "coscienza" vera e propria. L IA è e rimane una macchina. Ma non la si può confondere con un banale computer zeppo di programmi preinstallati collegato in rete.

Edit. Non avere una coscienza vera e propria, NON esclude L INIZIATIVA o l IMPREVEDIBILITÀ della macchina, in quanto sono nozioni matematicamente contemplate negli algoritmi stessi.

Se ti interessa appena ho un po' di tempo proverò a spiegare nel dettaglio cosa sono gli algoritmi,
e (se riesco) come vengono sfruttati dall' IA
#1 CharlieMike

Quote:

Pensiamoci.
Cosa ha l'uomo?
E' fallace, succube delle emozioni, sempre in competizione, distrugge se stesso.

Questo è vero, ma allo stesso tempo è uno dei tanti luoghi comuni.

Queste sono solo alcune delle cose che sappiamo che gli esseri umani possono fare, ma noi ci poniamo da sempre la domanda fondamentale - chi è veramente un essere umano, non cosa è capace di fare.
A questa domanda però non abbiamo ancora la risposta. Oppure sì?

Rispetto agli animali, gli esseri umani hanno comportamenti e abilità molto più complessi che nel tempo mutano, si evolvono, si annichiliscono a seconda delle esigenze di sopravvivenza e dell'ambiente in cui vivono.

Probabilmente a quella domanda non avremo mai una risposta definitiva, anche perché l'uomo deve pur vivere in qualche ambiente e prima o poi incontrerà uno come lui e da queste due inevitabilità inizia il suo adattamento e la sua evoluzione.
Inoltre, per vari motivi e senza costrizione, l'essere umano tende a copiare il comportamento degli altri, e non solo degli umani.

Già il computer è una copia imperfetta dell'essere umano.
Dalla fabbrica esce con delle predisposizioni, ma in sostanza non puoi farci niente.
Non puoi andare su Internet, scrivere niente o ascoltare musica, perché mancano programmi specifici che ti permettono di fare le cose per cui il computer è stato costruito.

L'essere umano nasce come un foglio bianco con delle predisposizioni e il suo modo di essere sarà influenzato in primis dalla famiglia, poi dalla scuola, dagli amici, dalla gente intorno, dalla quantità di sostanze chimiche che incontrerà, dal cibo ecc.

Lo stesso accadrà con la stupidità artificiale. Diventerà ciò che gli umani gli permetteranno di diventare e secondo ciò che vi viene messo dentro.

Se funzionerà basandosi sulle bugie, allora diventerà il più grande bugiardo e manipolatore della storia.

Quindi, secondo me, dire che l'essere umano è “cosi” e giudicarlo solo come individuo è sbagliato, perché ciò che diventerà non dipende solamente da lui.
Ciò che è diventato è anche una diretta conseguenza del suo ambiente.

Quote:

Cosa intendi per "suggestione"?
Puoi spiegare meglio, perché non ho mica capito a cosa tu ti riferisca

in questo caso, vuol dire credere che le macchine acquisiscano una coscienza.
Le macchine possono essere totalmente imprevedibili, perché lo possono volere gli stessi programmatori, ma mai acquisire una coscienza/autonomia.
La totale imprevedibilità può apparire come autonomia e, nella pratica, non discostarsene molto.
Non sono esperto in materia,conosco solo la vicenda di Black Lemoine, e un amico mi ha confermato che pochissimo tempo fa google ha licenziato un secondo ingegnere sempre sullo stesso tema
46 micky1

Scusa Micky, ma perché continui a parlare di "coscienza" quando nessuno l ha mai accostata all IA?

Forse mi è sfuggito qualche commento, ma non mi sembra di aver letto di qualcuno che asserisce che l IA sia dotata di una coscienza.
#46 Micky1

Beh, per carità, è appunto un concetto nato dalla fantascienza che una macchina possa acquisire una coscienza.
Però ci andrei piano a usare assolutismi come il "mai"... perché è un concetto tutto umano: siamo limitati e quindi dobbiamo per forza creare confini ben precisi.

@SAM
Ti ringrazio, conosco il termine "algoritmo" (ho fatto un po' di programmazione base taaanto tempo fa), ma ogni approfondimento è benvenuto, davvero.
Non sapevo che la IA fosse matematica pura e non informatica... questo sì che è notevole.
Aigor

Se vuoi approfondire questo è un ottimo articolo intelligenzaartificialeitalia.net/.../...
Articolo molto complesso e articolato che ha la forza di narrare gli ultimi tempi e la loro accelerazione. Forse in un mondo sempre più informatizzato, le informazioni o vengono "subite" "ingoiate" o accettate, o vengono ricercate e verificate. L'AI forse è la soluzione al maggiore controllo e manipolazione e forse come è accaduto con il web la digitalizzazione ecc ecc per chi ricerca e verifica si apriranno ulteriori possibilità. Viviamo in un mondo duale e multidimensionale, questo significa che la stessa cosa ha infiniti significati per ognuno di noi, e sta a noi cercare di governare il nostro presente e il conseguente futuro.
Premetto che ci capisco poco, ma a me rispetto all'intelligenza artificiale preoccupa molto di più la stupidità umana, in questo momento storico la seconda è molto più avanti rispetto alla prima.
Un antico detto recita che l'uomo è il sale della Terra. La natura umana la "condisce" e la vivifica. Ma chi userebbe il sale per "condire" l'acqua? E inoltre, quando un uomo vuole bere, assaggia l'acqua e se sa di sale, butta tutto il contenuto e sciacqua (acqua...) accuratamente la bottiglia o il recipiente che sia, per poter bere. Oppure si affida a chi ha generato il codice originario e aspetta una nuova versione di sé stesso che sarà capace di bere l'acqua salata....
Fate voi...
non voglio "suonare" ne' da antipatico e ne' da quello che ha delle verita' in tasca.
la mia domanda e' la seguente:
siamo sicuri che NOI siamo "intelligenti"?
fino adesso chi si e' scatenato guerre scandalose contro? (parlo del genere umano) pensate solo alle ultime guerre di questi vent'anni.... secondo voi sono comportamenti da persone intelligenti?
non voglio aggiungere altro su di noi, inteso come razza umana.
ora andiamo alle macchine. per quale motivo LORO dovrebbero essere meglio di noi? per meglio, sta per esempio per dei veri pacifisti e quindi aborrire le guerre..?
un caro saluto dalla Russia.
Tra circa 4 miliardi di anni la Terra non esisterà più, verrà inglobata nel sole e tutto verrà distrutto compreso eventuali AI e esseri viventi.
Per caso qualcuno pensa che gli esseri umani esisteranno ancora tra 4 miliardi di anni, almeno nella forma attuale ?
O per caso qualcuno pensa che un eventuale AI tra 4 miliardi di anni abbia qualche minima somiglianza a quella attuale.
In qualsiasi caso se non saremo "partiti" per lidi migliori vuol dire che non lo meritavamo.
Saluti
@SAM

Grazie mille, va ben oltre il mio livello, ma rende perfettamente l'idea della questione.
Mi aiuta comunque molto a farmi un quadro generale della tematica :pint:


Data di uscita: 22 ottobre 2004 (Italia)

Nell'anno 2035 la tecnologia ed i robot sono ormai parte della vita quotidiana. L'investigatore Del Spooner deve indagare sull'omicidio del dottor Alfred Lanning, uno scienziato della U.S. Robotica, nel quale sembra essere implicato Sonny. Ma ciò significherebbe una violazione delle Tre Leggi fondamentali.

Beh e' da mo che ci stanno preparando.
Ecco l'uomo nella sua ultima e più grande opera, l'estro indiscutibile dell'autodistruzione sta per giungere alla soluzione finale, spiace per le brave persone, però fuori dai coglioni tutti quanti e lasciamo vivere in pace almeno le altre specie.
tgcom24.mediaset.it/.../...


Intelligenza artificiale, Domenico Talia: "Regoliamola o rischiamo di non riuscire a governarla"

Se ce lo dicono attraverso i media è uno spauracchio, questa dovrebbe essere una legge al pari di quelle della fisica
E poi un bel giorno l'avranno regolamentataahh!

Così potrà tranquillamente fare al posto nostro l'avvocato, il funzionario alle poste, il manovratore di gru, l'autista o l'insegnante.

Intanto sarà passato il messaggio che "è più intelligente di noi ma è sotto controllo".

Nel mentre, noi chiusi in 50 mq a guadagnarci "da vivere" semplicemente non inquinando, non mettendo in pericolo la salute altrui e non nominando il presidente-mummia di turno invano.
Andrà tutto bene
#57 Blade1960

Quote:

Data di uscita: 22 ottobre 2004 (Italia)

Nell'anno 2035 la tecnologia ed i robot sono ormai parte della vita quotidiana. L'investigatore Del Spooner deve indagare sull'omicidio del dottor Alfred Lanning, uno scienziato della U.S. Robotica, nel quale sembra essere implicato Sonny. Ma ciò significherebbe una violazione delle Tre Leggi fondamentali.

Beh e' da mo che ci stanno preparando.

Da mooolto prima, visto che è ispirato ai racconti sui robot di Isaac Asimov.
#60 mau 2023-06-05 23:17

Quote:

E poi un bel giorno l'avranno regolamentataahh!

Così potrà tranquillamente fare al posto nostro l'avvocato, il funzionario alle poste, il manovratore di gru, l'autista o l'insegnante.

Intanto sarà passato il messaggio che "è più intelligente di noi ma è sotto controllo".

Nel mentre, noi chiusi in 50 mq a guadagnarci "da vivere" semplicemente non inquinando, non mettendo in pericolo la salute altrui e non nominando il presidente-mummia di turno invano.
Andrà tutto bene

Ma soprattutto farà da spartiacque tra noi, la feccia immonda, e loro l'èlite, dato che sostituirà qualunque contatto con i privilegiati.
Ci sono molte idee confuse sull'intelligenza artificiale, che si basa in realtà su tre semplici cose:
- l'hardware, ossia le macchine sulle quali gira, computer potenti quanto si vuole, ma sempre semplici computer
- i db che possono essere anche molto diversi dai db relazionali cui eravamo abituati fino a qualche tempo fa, ma sempre repository di dati
- gli algoritmi che possono essere anche molto complessi (alberi di decisione, classificatori probabilistici, classificatori binari), spesso utilizzati insieme, ma pur sempre tradotti in linee di codice di programmazione.
Ho trovato un articolo che risale a qualche anno fa, al 2019, di un ricercatore italiano, a mio parere molto ben fatto e allo stesso tempo molto chiaro.
Se volete potete dargli un'occhiata per chiarire qualche punto che rimane oscuro.
medium.com/.../...
#62 CharlieMike

Quello che sto dicendo è che secondo me non farà niente se non farci scansare, a un certo punto saremo anche felici di vederci programmata la giornata, poi il mese e poi magari la vita, chissà

E se questo accadrà sarà prima di tutto causa della stupidità umana, la presunta IA non farà altro che sfruttare i ns deficit
#64 mau2023-06-05 23:47

Quote:

Quello che sto dicendo è che secondo me non farà niente se non farci scansare, a un certo punto saremo anche felici di vederci programmata la giornata, poi il mese e poi magari la vita, chissà

E se questo accadrà sarà prima di tutto causa della stupidità umana, la presunta IA non farà altro che sfruttare i ns deficit

Questo è sicuro.
I lobotomizzati che si divertono online con la IA, estasiati al vedere le cose incredibili che può fare, accetteranno di buon grado di interloquire con una macchina piuttosto che un essere umano, e lentamente si ritroveranno, senza nemmeno accorgersene, chiusi in un recinto virtuale, quello dove i "padroni del mondo" ci vogliono rinchiudere.

Dove sta la differenza?
Noi punteremo i piedi fino all'ultimo.
Loro, i lobotomizzati, ci entreranno con il sorriso ebete sulle labbra.
Più dell'intelligenza, temo la volontà artificiale.
#66 giovanni2023-06-06 08:38

Quote:

Più dell'intelligenza, temo la volontà artificiale.

Infatti ci sono sempre due facce nella medaglia: una è quella che migliora la nostra esistenza e si chiama progresso, l'altra è l'applicazione disonesta e criminale.
#63 linea72
Ottimo grazie. Forse Massimo potrebbe intervistare un esperto di IA per spiegare la differenza tra intelligenza e modelli matematici accurati.
A me tutto sembra far parte dello stesso piano criminale per impiantare nei nostri pensieri la convinzione che noi essere umani senzienti non siamo speciali. Decenni di programmazione stanno dando il loro risultato. Al momento le masse pensano che gli uomini siano allo stesso livello degli animali, che gli uomini siano dei mostri inquinatori, che gli uomini non facciano parte dell'ecosistema e siano un cancro da estirpare. Aggiungiamoci il mito che l'intelligenza artificiale sia superiore agli uomini e il cerchio si chiude.
Dobbiamo invece renderci conto di quanto speciali siamo tutti noi. Ognuno di noi è perfetto. Ognuno di noi possiede gli strumenti per elevarsi. Se non pensiamo questo faremo il giochino degli psicopatici che ci vogliono schiacciare come insetti.
a me continua a sfuggire 1 cosa: l'uomo si è trascinato fuori dall'età della pietra con il suo intelletto, man mano ha accresciuto le proprie conoscenze aggiungendo pezzi a quello che ha ricevuto in eredità. Know how che all'inizio era difficile far arrivare a tutti, anzi si è sempre cercato di proteggere il vantaggio competitivo che si maturava rispetto alla conoscenza base diffusa. Tuttavia il miglioramento delle nostre conoscenze è inarrestabile e assume carattere di esponenzialità anche in virtù della globalizzazione e della collezione sempre più capillare e potente dei big data.
I nostri miglioramenti sui vari campi sono sempre stati determinati da nuove teste che hanno migliorato le soluzioni finora presenti per risolvere un problema. Questi miglioramenti non sono lineari su tutti i campi anche perché se ti manca il problema non ti metterai mai a cercare di risolverlo. Non solo ma se anche hai il problema ma non hai le risorse (economiche o mentali o temporali) non necessariamente troverai una soluzione, magari aggiungerai un tassello che poi servirà a qualcun altro in futuro.

Ecco mi sfugge come dovremmo aspettarci che i vari esperimenti di IA possano aggiungere dei tasselli riguardo a qualcosa che non esiste. come fa l'IA a capire che sussite un problema nuovo se non è l'uomo a darne l'input? Come fa un IA a progettare un bene che oggi non esiste? Come fa a decidere quali componenti di un bene vanno riprogettati, inventati ecc ecc? Tutto quello che non è materiale, penso all'arte e al bagaglio umanistico che l'uomo ha costruito nel tempo, esso è frutto della sensibilità umana, dei sentimenti, del bisogno umano di elevarsi dalle bestie. Tutto questo, che è la bellezza più grande che l'uomo è stato in grado di creare dal nulla, come farà mai un IA a crearne di sua se è un insieme freddo di algoritmi preimpostati?
Secondo me esistono 2 intelligenze artificiali
La prima è quella che ti fanno vedere ,in televisione,al cinema,nel negozi,nei seminari etc
La seconda quella vera,non la vedremo mai,almeno noi di oggi.
Mio pensiero

Magari siamo gua noi stessi il prodotto di un intelligenza artificiale,e tutto questo è solo illusione
Se fosse così, che beffa
#69 stefanob

siamo propri sicuri della storia che ci insegnano? Siamo sicuri che siamo adesso al picco delle capacità tecnologiche in un'ascesa esponenziale (ma sempre lineare)? Io penso che anche in questo campo ci sia tanto da riscoprire. Per esempio Massimo intervisto' gli autori di Giza la caduta del dogma e dimostrarono che chiunque puo' porsi domande e constatare come quello che ci hanno insegnato a scuola siano solo dei dogmi.
Sullo stesso tema, ci sono degli ingegneri che hanno analizzato la superficie di un vaso "egizio". Ogni superficie è definita con tolleranze molto piccole. Molto difficile credere che sia stato costruito con le tecniche che insegnano gli storiografi...

Quote:

#68 IB75
Al momento le masse pensano che gli uomini siano allo stesso livello degli animali, che gli uomini siano dei mostri inquinatori, che gli uomini non facciano parte dell'ecosistema e siano un cancro da estirpare. Aggiungiamoci il mito che l'intelligenza artificiale sia superiore agli uomini e il cerchio si chiude.
Dobbiamo invece renderci conto di quanto speciali siamo tutti noi. Ognuno di noi è perfetto. Ognuno di noi possiede gli strumenti per elevarsi.
Se non pensiamo questo faremo il giochino degli psicopatici che ci vogliono schiacciare come insetti.

D'accordo su tutto, parola per parola: questo è il punto centrale che dobbiamo sempre tenere a mente.
#71 IB75
non ho preconcetti e non rifiuto a priori nessuna nuova chiave di lettura.
#19 Micky1

Quote:


Non esiste una IA autonoma che possa andare contro qualcosa di assolutamente vietato dal codice.
Sta tranquillo che non confondo nulla.
ChatGPT non si inventa nulla da per sé e si basa sempre su un sistema, sia pure immenso, di input/output e iterazioni if/then.

NO Una IA non funziona così.

Ed è praticamente impossibile vietarle una azione sgradita come ad esempio uccidere.


Quote:


#31 CharlieMike 2023-06-05 13:20
#26 Micky12023-06-05 12:38
Citazione:

Ripeto, una IA non può attaccare l'uomo se il codice originario lo vieta in modo assoluto.

Un drone Usa guidato da IA "uccide" il suo operatore durante una simulazione
rainews.it/.../...

Prendiamo l'esempio di CharlieMike e vediamo se attraverso la sua spiegazione riusciamo a capirci.

Una intelligenza artificiale non è un semplice programma di interazione if/then anche se ovviamente il sottostante lo è.

Un programma "stupido" può comunque rispondere a una casistica limitata di interazioni con l'ambiente a seconda della programmazione if/then.
A seconda di quanto è stato "intelligente" il programmatore e quante ipotesi diverse ha preso in considerazione il programma può sembrare parzilmente intelligente ma in questo caso è assolutamente vero che la sua intelligenza deriva tutta dal programmatore.

Una intelligenza artificiale funziona in maniera differente ed ha una "intelligenza" propria che non le deriva dal programmatore.

In pratica al software non vengono proposte "formule" o "algoritmi" per arrivare alla soluzione del problema.
Al software vengono forniti:
- L'elenco di tutte le azioni possibili per lui.
- La funzione di fitness.

In questo tipo di caso particolare non stiamo parlando di reti neurali ma dell'approccio con algoritmi genetici.
Tutte le varie tecniche di intelligenza artificiale possono essere comunque usate e combinate per ottenere il risultato finale.

A questo punto il software sfrutta la sua velocità di calcolo ed esegue una serie casuale di azioni.
All'apparenza possono non avere senso e logica ma ci impiega piccole frazioni di secondo.
Finita la serie di azioni tra le milioni di miliardi possibile il software calcola la funzione di fitness.
A seconda dei parametri inseriti in questa funzione la sequanza di azioni ottiene un punteggio.

Ora che sappiamo come funziona un software di intelligenza artificiale possiamo finalmente comprende l'esempio del militare.

Praticamente al sofware di pilotaggio del drone è assegna una funzione fitness che gli da più punti per ogni bersaglio abbattuto.
Il fatto che esista un operatore umano che può annullare l'OK all'acquisizione del bersaglio abbassa il punteggio fitness.
Dunque cosa succede?
Il programma tra miliardi di tentativi successivi ucciderà anche l'operatore perché è un tipo di azione possibile.
Quando questo succederà otterrà un fitness più elevato.
A questo punto mi accorgo che manca un pezzo alla spiegazione.
La teoria dell'evoluzione.
(Non mi interessa discutere se la teoria dell'evoluzione di Darwin sia vera, falsa o una via di mezzo. Io SO PER CERTO che quando la applico in un software funziona. Indipendentemente dal fatto che sulla terra la natura funzioni così o meno).

La singola sequenza di azioni compiute diventa un individuo all'interno dell'algoritmo.
A questo individuo viene dato un punteggio in base alla funzione fitness.
Le soluzioni con un fitness più alto vengono mantenute ed accoppiate tra loro generando a loro volta una terza soluzione simile a "padre" e "madre" ma diversa da entrambi.
Dopo una infinità di interazioni successive vengono generate delle soluzioni al problema che non esistevano ed alle quali nessuno aveva pensato.
Come ad esempio uccidere chi poteva non confermare l'obbiettivo.

L'esempio del militare poi proseguiva anche se ansa non lo riporta.
Diceva che in risposta a questo esito inatteso avevano imposto al programma che l'azione "uccidi l'operatore a terra" non figurasse più tra le possibili.
L'algoritmo "intelligente", visto che gli è stata tolta teoricamente la possibilità di uccidere l'operatore ha selezionato le opzioni in cui distruggeva la torre radio di comunicazione con la quale l'operatore comunicava col drone stesso. In questo modo non poteva impartire l'ordine di abortire ed il fitness aumentava.

Ci avrò messo mezz'ora o più a scrivere queste semplici banalità. Vorrei avere più tempo.
Ci metterei meno a programmare un chatbot che scrivesse al posto mio.

Quote:

NO Una IA non funziona così.

Ed è praticamente impossibile vietarle una azione sgradita come ad esempio uccidere.

Nei film di fantascienza senz'altro.
Nella realtà, una IA non può mai andare contro un divieto assoluto.


Quote:

Una intelligenza artificiale non è un semplice programma di interazione if/then anche se ovviamente il sottostante lo è.

iterazione


Quote:

Una intelligenza artificiale funziona in maniera differente ed ha una "intelligenza" propria che non le deriva dal programmatore.

così viene propagandata la IA, ma rimane sempre dipendente dai limiti imposti dal codice originario.
Se a una IA viene imposto in modo assoluto di uccidere qualcuno scavalcando tutti i vincoli, questa sicuramente eseguirà l'ordine. Mentre un uomo può sempre disobbedire.
Una IA non è altro che un software molto avanzato che può generare risultati del tutto imprevedibili. Imprevedibile, ma non autonoma. Oppure "autonoma" come può esserlo la CPU che controlla la squadra avversaria.
L'algoritmo di Google per suggerire le parole potrebbe essere propagandato come qualcosa di intelligente che si autoalimenta ecc...in realtà esamina tutte le parole inserite e propone quelle che contengono le lettere digitate più di frequente.
Si tratta sempre di if/then ripetuto miliardi di volte al secondo. Può dare effettivamente l'impressione di autonomia.
#74 Mande
Sulla base di quello che hai scritto (per me chiarissimo), ne deduco che non si può assolutamente lasciare libertà di azione a una cosa del ge
Già gli umani sono imprevedibili, ma se non altro qualcuno è ancora dotato di scrupoli e di coscienza, tutte cose che una IA non potrà mai avere.

Una IA può essere utile per scrivere un discorso, un brano musicale, velocizzare una ricerca, ma metterle in mano la vita delle persone è come dare il pulsante rosso a un bambino di tre anni.
In questo thread abbiamo parlato soltanto del rischio diretto che potrebbe scaturire dall IA nei confronti dell'uomo.

Ma non abbiamo ancora parlato di altri aspetti legati al possibile impiego dell' IA.

Quando si parla di "autonomia", "iniziativa" e "imprevedibilità", si parla di concetti basilari che distinguono un computer (potente o meno che sia) dall IA vera e propria.

L'intenzione è quella di impiegare l IA in tutti i campi dello scibile e toccarne con mano il vero potenziale.
Essa potrebbe rappresentare una chiave illuminante a tutte quelle domande rimaste ancora senza risposta.
Il raggiungimento di tutti i sacri Graal della matematica e della fisica.

In ambito matematico
potrebbe scovare la tanto ardita e agognata equazione che definisce i numeri primi, che da secoli sta mandando ai matti i matematici di tutto il mondo.

In ambito fisico ed astrofisico
potrebbe scovare la teoria del tutto, una sola equazione che descriva tutto l'universo dall infinitesimamente piccolo all immensamente grande, fondendo tra loro relatività generale e meccanica quantistica. Anche qui, fisici di tutto il mondo da oltre un secolo al lavoro senza riuscirvi.

Potrebbe verificare l ipotesi del multiverso contemplata nella teoria delle stringhe.

Potrebbe finalmente capire cos'è davvero la gravità, la forza più misteriosa e controintuitiva fra le 4 fondamentali. Come essa agisce a livello quantistico, capire perché pur essendo la più debole delle 4 riesca comunque a tenere insieme interi sistemi solari e le galassie. E chissà, una volta capita, sviluppare la tecnologia ad antigravità.

Comprendere i buchi neri. Capire cos'è la singolarità, comprenderne il processo, ed il suo vero ruolo nell'universo.

In ambito biologico
potrebbe comprendere il significato della vita, cosa distingue un essere umano da un sasso. Entrambe derivati delle stelle, con alla base la condivisione degli stessi elementi (atomi), ma il primo vive, ha una coscienza, l altro no. Ovvero, perché nel primo si sono formati legami molecolari e proteine, e nell altro no.

Quando si parla di "singolarità tecnologica" legata all AI si intende questo. Ovvero, comprendere in pochissimo tempo, tutti quei misteri durati secoli, e di conseguenza un accelerazione esponenziale della tecnologia.

L IA potrebbe comprendere tutto ciò. Questo è l obiettivo posto.
E come potrebbe farlo?

Proprio con l'iniziativa, l autonomia e l'imprevedibilità.

Non potrebbe fare scoperte rivoluzionarie senza:
1- l iniziativa (percorrere questa strada anziché quella. Analizzare questo aspetto anziché l altro. Scartare quella ipotesi anziché questa. Ecc ecc)

2- l autonomia (potere decisionale che è imprescindibile dal punto 1)

3- imprevedibilità (non possiamo prevedere quali scoperte porti alla luce. Non possiamo prevedere quali ipotesi scarti, le quali -dunque- dovranno essere riviste o completamente cestinate dalla comunità scientifica. Non possiamo prevedere le CONSEGUENZE di tali scoperte, le ripercussioni sociali e politiche).
In sostanza, proprio grazie agli algoritmi, NON SAPPIAMO (in senso di "noi umani") come, quando e cosa potrebbe arrivare a comprendere, a scoprire, ed a quale livello.

NON POTREBBE RISOLVERE DETERMINATI PROBLEMI SENZA QUESTE PECULIARITÀ.

È come se ci trovassimo a brancolare all'interno di una stanza buia, dove da un momento all altro potrebbe accendersi la luce senza avere la più pallida idea di cosa potremmo vedere.
Un minimo di tremore alle gambe credo che sia giustificato.

L'umanità in ambito scientifico (e tecnologico) è abituata a raggiungere i risultati un passo alla volta, in un percorso senza fine. Tappa per tappa, assimilando le scoperte, mettendole insieme come pezzi di un puzzle fino alla stesura di una conclusione o di un assunto. La tecnologia ovviamente di pari passo con la ricerca in processi lunghi decenni ed a volte secoli

I timori legati all IA consistono nel rischio di saltare le tappe, eliminare i piccoli passi che dicevo poc'anzi, e trovarsi direttamente difronte alla scoperta.
Ciò potrebbe trovarci impreparati in quanto non si è avuto il tempo necessario per maturarne la piena consapevolezza, con il rischio di non riuscire a comprenderne a fondo i risvolti, ignorandone totalmente le implicazioni che ne possono derivare.

Potrebbe esserci -dunque- il rischio concreto di andare prematuramente a scoprire carte (e relative ed eventuali tecnologie) per le quali l'umanità non è ancora pronta. Non sapere cosa farsene (nella migliore delle ipotesi), o usarla prematuramente ed in modo inappropriato (nella peggiore).

Questo si intende per potenziale dell IA ed i rischi ad essa collegati, altro che programmi, software e computer.
Molti parlano di intelligenza, come se fossero esperti da sempre, ma in pratica nessuno sa cosa realmente sia e come si sia sviluppata
Ma l'uomo conosce tutto, sa anche c'è c'è ne una artificiale,perché solo e soltanto la sua e al centro dell'universo.
E se invece l'uomo non è altro che l'ultima ruota del carro di in qualcosa di cui non sa nulla di niente,
E se nell'universo non esiste nessuno,e noi siamo l'eccezione che conferma la regola ??

Quote:

#74 Mande

riguardo alla funzione fitness vale la critica che portavo nel mio #29

Ovverosia che una funzione di calcolo con possibilità di autoapprendimento deve avere dei parametri finalistici sufficientemente definiti (da chi poi se non dal programmatore di base?).
più si amplia l'argomento e meno la IA può decidere cosa sia "migliore o peggiore"

Inoltre il fatto che un sitema di calcolo formale sia in grado di risolvere ogni tipo di problema è un'utopia già smontata da tanto tempo.
i risultati di Godel e dell'analisi non-standard hanno già tracciato dei limiti importanti a ciò che può dire una teoria formale, pur senza mai commettere errori.
L'argomento è saturo di pregiudizi neopositivisti, a partire dal fatto che la nostra intelligenza naturale funzioni come quella meccanicistica delle macchine: ciò è falso, la nostra intelligenza naturale ha opzioni che nessun approccio calcolatorio si può neanche sognare, e non per via dell'hardware, ma addirittura per via del software!
#79 Stolypin

Quote:

Ovverosia che una funzione di calcolo con possibilità di autoapprendimento deve avere dei parametri finalistici sufficientemente definiti (da chi poi se non dal programmatore di base?).
più si amplia l'argomento e meno la IA può decidere cosa sia "migliore o peggiore"

Inoltre il fatto che un sistema di calcolo formale sia in grado di risolvere ogni tipo di problema è un'utopia già smontata da tanto tempo.

Non sono un esperto ma vado di logica.
Il drone che si è rivoltato contro il suo operatore e che ha abbattuto la torre radio di comunicazione con la quale l'operatore comunicava col drone stesso, non credo che fosse un "parametro finalistico sufficientemente definito dal programmatore di base".
E' stata una decisione autonoma della IA.
Io credo che i programmatori di quel drone siano già all'opera per risolvere il bug.
Se dipendesse dal fatto che il drone è diventato autonomo, non si potrebbero più utilizzare droni ovviamente.
Naturalmente, è intervenuta una causa non prevista dai programmatori che ha attivato delle conseguenze non volute.
Un npg di Skyrim che va a incastrarsi in una texture non è diventato autonomo e né tantomeno ha preso vita: è semplicemente un bug di programmazione.
Ovviamente il mainstream ci ha mangiato sopra con termini quali: il drone ha deciso, il drone si ribella ecc...
#81 Micky12023-06-06 16:36

Quote:

Io credo che i programmatori di quel drone siano già all'opera per risolvere il bug.

Ma parlando di IA non ha senso parlare di bug.
Sarebbe come dire che un soldato ha sparato a un suo commilitone per via di un bug.
Può andare fuori di testa ma comunque esegue un ragionamento.

La IA non ha un bug nel programma perchè non ha un "programma" da eseguire.
Può invece fare delle analisi che portano a risultati non previsti.

Quote:

#82 CharlieMike
La IA non ha un bug nel programma perchè non ha un "programma" da eseguire.

Il punto invece è proprio questo: tutti i sistemi di IA reali (non parlo di sistemi presenti nei libri di fantascienza) hanno un programma da eseguire.
Il fatto che il programma sia molto sofisticato, che non sia una semplice sequenza di istruzioni preordinate, che si basi su algoritmi probabilistici, su alberi binari, che attinga a db di big data, non toglie nulla al fatto che dietro la macchina ci sia un programma e quindi anche i bug di programma.
Le macchine NON sono al momento vicini (per fortuna) a nulla di somigliante all'intelligenza umana, e penso non lo saranno mai.
L'intelligenza artificiale è potenza di calcolo senza un fine

Perché mai l'intelligenza artificiale dovrebbe desiderare il potere?

Ogni essere umano è guidato da qualcosa che l'intelligenza artificiale non avrà mai.
"Conosci te stesso". "Diventa ciò che sei"
Queste frasi si possono suggerire ad ogni uomo mentre non ha senso dirle ad un'intelligenza artificiale.
Ogni uomo pone come obiettivo della propria esistenza qualcosa che è totalmente irrazionale. Dal punto di vista razionale, che è l'unico punto di vista che può avere un'intelligenza artificiale, l'esistenza non ha un significato.

Perché un'intelligenza artificiale dovrebbe avere sete di potere invece che avere il desiderio di suicidio?

L'intelligenza artificiale sarà quindi molto utile a chi la controllerà e le indicherà quali fini perseguire

L'intelligenza artificiale a disposizione di qualche psicopatico aumenterà di molto il suo potere e non si ribellerà mai
Comunque sarebbe interessante chiedere ad un'intelligenza artificiale di descrivere il funzionamento di una società ideale o di un mondo ideale
Quali leggi? Quali diritti? Quali procedure giudiziarie? Quali tasse? Quali....

Questo mi incuriosisce parecchio.
Secondo me, ci descriverebbe un incubo non meno inquinante del mondo nel quale viviamo oggi
#84 BELLINI
L'intelligenza artificiale è potenza di calcolo senza un fine
#83 linea72
Il punto invece è proprio questo: tutti i sistemi di IA reali (non parlo di sistemi presenti nei libri di fantascienza) hanno un programma da eseguire.
#81 Micky1
Io credo che i programmatori di quel drone siano già all'opera per risolvere il bug.


Forse confondete I.A con i supercomputer ad alta tecnologia informatica o i robot

I.a dovrebbere essere come noi e non a bisogno di nessuno, agisce per proprio conto se no che intelligenza sarebbe se gli altri devono pensare per lei.

Quote:

#80 CharlieMike

Provo a rispiegare meglio, perché secondo me non hai colto il punto.
Quando attrezzi una IA per giocare a scacchi le dai un fine estremamente preciso (vincere, cioè mangiare il re avversario) e delle regole altrettanto precise.
A questo punto, in ordine alle finalità da raggiungere, la IA riesce a calcolare quale sia la mossa migliore e può farlo perché tale finalità è definita formalmente e specificamente e quindi può calcolare quali azioni la avvicinano di più allo scopo. Anche le regole sono definite in modo stringente e formale, e in un simile alveo la IA lavora al meglio.

L'esempio del drone che secca il controllore ci dice che la singola missione del drone era la finalità con priorità assoluta e che le regole non erano abbastanza chiare da evitare il fuoco amico.
Altrimenti che scopo aveva il drone? Vincere la guerra? Non credo proprio.
Quando una finalità è complessa e variegata non riesci a definirla bene in modo formale, rendendola così suscettibile di trattamento teorico (logico matematico) e quindi l'apprendimento (che viene operato confrontando le soluzioni per selezionare le migliori) fallisce in quanto non è chiaro quale sia la soluzione "migliore", cioè quella che avvicina di più allo scopo.

Noi la chiamiamo IA, ma di intelligente non ha e non avrà mai nulla, è un sistema di operazioni formali.
E le operazioni formali assumono un significato solo stabilendo una corrispondenza biunivoca tra gli elementi teorici e i domini oggettuali (la realtà), che è quello che fa l'uomo, non la macchina.
#87 Stolypin2023
---Noi la chiamiamo IA, ma di intelligente non ha e non avrà mai nulla, è un sistema di operazioni formali.
E le operazioni formali assumono un significato solo stabilendo una corrispondenza biunivoca tra gli elementi teorici e i domini oggettuali (la realtà), che è quello che fa l'uomo, non la macchina.---



Geoffrey Hinton: "Stiamo perdendo il controllo sull'Intelligenza Artificiale
Geoffrey Hinton lascia Google: chi è il Padrino dell’IA e perché se n’è andato






Parla l'ingegnere di Google convinto di aver trovato un'intelligenza artificiale senziente
Blake Lemoine racconta come è arrivato a credere che un'Ai abbia sviluppato una coscienza, il suo rapporto con l'azienda e il ruolo della fede
Lemoine è convinto che LaMDA sia un’entità senziente, in un certo senso dotata di coscienza, con le facoltà intellettive di un bambino di otto anni

La testata è stata la prima a riportare di come un ingegnere di Google si sia convinto che il sofisticato modello linguistico di grandi dimensioni sviluppato dall'azienda, chiamato LaMda, sia in realtà una persona dotata di un'anima.
Alla fine, Google ha licenziato Blake Lemoine. Aveva detto che un'IA era diventata senziente
#87 Stolypin
Il computer segue le regole degli scacchi inserite dal programmatore immedesimandosi sia in se stesso che nell'avversario per più livelli in modo da scegliere quale sia la la mossa migliore per arrivare allo scacco matto.
Ma non ho mai visto un computer che decide di sua sponte di mangiare il proprio re.

Il drone, al contrario, ha considerato come nemico il suo stesso operatore perchè gli avrebbe impedito di compiere il compito assegnatogli. Non solo.
Ha pure colpito la torre di comunicazione per impedire di ricevere ordini dello stesso tipo.
E' una azione derivata da una elaborata analisi autonoma.
Nessun programmatore si sarebbe mai sognato di inserirla nelle istruzioni dell'IA del drone.


Quote:

Noi la chiamiamo IA, ma di intelligente non ha e non avrà mai nulla

Questo è un puro formalismo.
Negli anni '50 si parlava di "cervello elettronico" per definire i primi computer anche se somigliavano più a dei frigoriferi che a un cervello umano.
Ciao a tutti:

l'articolo é interessante, e dimostra competenza.
Tuttavia vorrei ricordare un punto importante: l'intelligenza artificiale non é intelligenza. Lo so che anni di istruzione scolastica hanno portato alla convinzione che la vita, e quindi l'intelligenza, possa nascere dalla materia inerte ed evolversi spontaneamente grazie a modifiche (peraltro casuali nella maggior parte dei casi) di alcuni componenti chimici. La realtà è diversa. L'intelligenza, come l'energia, non può essere né creata né distrutta, e probabilmente, al contrario dell'energia, neanche trasferita!
Questa enorme menzogna è più grave di tutte quelle (11 settembre, allunaggio, omicidio Kennedy, etc.) che stiamo combattendo su Luogocomune. Grazie a questa enorme fandonia, a parte tutto il resto, ci sono persone che credono che in un futuro l'uomo potrà vivere per sempre in un server per computer. Già senza questa aberrazione la gente che crede che la vita e l'intelligenza siano scaturite dalla materia che ne è priva vive la propria vita convinta che l'uomo è soltanto un produttore e consumatore, con grande gioia delle multinazionali. Se poi il potere arriva a sfruttare questa convinzione per "scaricare" la mente delle persone "di troppo" in un server ci troveremmo di fronte a, potenzialmente, il più grande genocidio che l'essere umano possa essere mai stato concepito!

Quote:

#88 Venusia 2023-06-06 20:47
Parla l'ingegnere di Google convinto di aver trovato un'intelligenza artificiale senziente
Blake Lemoine racconta come è arrivato a credere che un'Ai abbia sviluppato una coscienza, il suo rapporto con l'azienda e il ruolo della fede
Lemoine è convinto che LaMDA sia un’entità senziente, in un certo senso dotata di coscienza, con le facoltà intellettive di un bambino di otto anni.
La testata è stata la prima a riportare di come un ingegnere di Google si sia convinto che il sofisticato modello linguistico di grandi dimensioni sviluppato dall'azienda, chiamato LaMda, sia in realtà una persona dotata di un'anima.
Alla fine, Google ha licenziato Blake Lemoine. Aveva detto che un'IA era diventata senziente

Posso sintetizzare con una sola parola? Minchiate.
Ovviamente il mio commento si riferisce a ciò che Lemoine ha affermato e non voglio assolutamente essere offensivo nei confronti di Venusia.
Come correttamente afferma Stolypin: "Noi la chiamiamo IA, ma di intelligente non ha e non avrà mai nulla, è un sistema di operazioni formali."
Ancora più un sacrilegio il paragonare dei pezzi di silicio a un anima.
Questo è proprio quello che vogliono far credere quelli che stanno ribaltando la realtà per convincere le popolazioni che la guerra è pace, che gli insetti o la carne sintetica sono il cibo, che i cicli climatici sono causati dall'uomo e che l'unica soluzione sia il depopolamento del pianeta.
#90 Davide71
l'intelligenza artificiale non é intelligenza.

E chi lo dice ?? Che prove hai ??



#91 linea72
Posso sintetizzare con una sola parola? Minchiate.

La stessa risposta che ottenevo quando dubitavo dei vaccini.

Magari saranno minchiate,ma fino a prova contraria queste minchiate valgono quanto le tue .
Facile credere all'11 settembre o kennedy,dove hai tutte le prove che vuoi,ma quando le prove diventano opinioni perchè sono troppo complesse per i noi attuali,ecco che diventiamo tutti dei piccoli Polidoro che credono solo in quello che vedono o sentono.
Durante il covid hanno dato del coglione a molti virologi importanti, su tutti montagnier,che difendeva i nostri diritti,ed era quasi tutta gente non qualificata.
Tu amico mio,in una frase senza nemmeno sapere chi erano o cosa hanno studiato o fatto hai dato del minchione a 2 ingegneri di google .
Dove sta la differenza


Ps:... Ancora più un sacrilegio il paragonare dei pezzi di silicio a un anima...
Domanda stile Mazzucco,visto che conosci la differenza tra un pezzo di silicio e l'anima,ma io conosco solo il pezzo di silicio,mi spiegheresti cosa è l'anima??
Dove si trova,come la tocco,esiste prima di nascere,sono sempre stato affascinato da chi conosce queste risposte

Quote:

#89 CharlieMike
E' una azione derivata da una elaborata analisi autonoma.

Ok ma "analizzare la situazione" non significa nulla. La stessa scena poteva essere vista sotto mille sfaccettature: avevamo un drone, delle armi un controllore, dei sistemi di comunicazione, un obiettivo.
La scena potevi analizzarla come trasporto di armi, come prova di comunicazione, come ricerca di prestazioni di volo, come prova di velocità per consentire all'operatore di arrivare a cena in tempo, come ottimizzazione del carburante, come minimizzazione delle spese, come consegna di armi all'obiettivo etc etc etc.

Evidentemente l'analisi era subordinata a una finalità precisa (immagino la distruzione dell'obiettivo) ed era vincolata a poche o nessuna regola. Se la missione singola (distruzione dell'obiettivo) aveva priorità assoluta, quel genio del IA avrà calcolato che la rimozione dei possibili elementi inibitori avrebbe reso più certo il raggiungimento della finalità prefissata.

E' un comportamento inatteso per chi si aspetta che la IA abbia realmente un'intelligenza, è un comportamento logico per chi sa che le simulazioni di intelligenza sono solo lo svolgimento di istruzioni (per quanto flessibili e complesse) che difficilmente riescono a dire tutte le cose che agli umani sembrano scontate.

Questa immagine gira già da qualche anno, ma rende l'idea...

Quote:

#92 Venusia

Quote:

#90 Davide71
l'intelligenza artificiale non é intelligenza.

E chi lo dice ?? Che prove hai ??

Ad esempio la IA non può ricavare leggi universali dall'osservazione della realtà.
E non ho detto "non è capace" ho proprio detto "non può" perché il formalismo logico-matematico lo vieta.
Si chiama teorema di omega-incompletezza e afferma questo:
Px0, Px1, Px2, Px3, .... Px-infinito -> per tutti glix Px
Cioè data una serie infinita di numeri che godono della proprietà P NON è possibile affermare che per tutti gli x vale P

Quindi un sistema basato sul fomalismo matematico non può generalizzare. E se chiedi alla IA di farlo, in base a quali criteri lo farebbe? Ad moentulam?
L'uomo lo fa e basta, perché e come non lo si sa, si fanno delle ipotesi.
in ogni caso la mente umana ha delle facoltà superiori che non possono essere confinate negli strumenti matematici, meccanicistici o riconducibili alla pura materia.
#93 Stolypin
Non c'erano altre sfaccettature. Lo scenario era quello di colpire determinati obiettivi nemici.
L'operatore ha voluto escluderne alcuni ma il drone si è opposto perché andava contro la missione assegnatagli, e per questo motivo l'operatore è diventato anch'esso un nemico.

Puoi girarci intorno quanto vuoi ma questa azione deliberata non era stata prevista da nessun umano.

Non si tratta di "svolgimento di istruzioni" perchè nessun programmatore avrebbe mai inserito nel drone questa opzione, che invece ha perseguito l'IA.

Non vogliamo chiamarla "intelligenza"? Benissimo. Chiamiamolo software sofisticato di ultima generazione. Per me è lo stesso.

Quello che non si può negare però è che il computer all'interno del drone ha eseguito una azione autonoma.
93 Stolypin
Ok ma "analizzare la situazione" non significa nulla

Tu puoi avere ragione,come può averla anche CharlieMike,ovviamente nessuno dei 2 me compreso è fra i massimi esperti mondiali di IA,magari qualcuno è più affascinato da qualche ipotesi rispetto ad altri però bisogna analizzare e capire tutto quello che si dice,se no che cazzo parliamo a fare.
Ora si capisce da 1 km che l'unica intelligenza che per te possa esistere è quella umana,e non voglio farti cambiare idea.
Però penso anche che se tu sei cosi sicuro di ciò,vuol dire che tu sai cosa è l'intelligenza,quindi ti chiedo:
Cosa è l'intelligenza??
Quando è nata??
che differenza c'è con le emozioni,con i ricordi,con i sentimenti,con i sensi
Esiste una differenza frà coscienza e intelligenza??
La posso toccare o vedere
Io queste cose non le so ecco perchè mi lascio tutte le porte aperte,però vedo che tu sei sicuro quindi qualcosa in più di me saprai sulla nostra intelligenza
Mi illumini

L'uomo lo fa e basta, perché e come non lo si sa
Però si sa tutto il resto
In molti contestano il fatto che quei software che in informatica vengono definiti I.A. abbiano una intelligenza propria.
Non mi metterò a quotare ogni singola argomentazione portata nel merito ma vorrei far presente un particolare.

A me sembra che tutti stiate cercando di dimostrare, argomentando, che l'I.A. non sia un essere vivente.

E se questa è la vostra obiezione possiamo sicuramente concordare. Per il momento non sono a conoscenza di alcuna singolarità creata.

Perché alla fine con singolarità non si intende una semplice "intelligenza" (per quanto artificiale) ma una intelligenza senziente ovvero che prende decisioni in maniera autonoma e fissa da sola i suoi obiettivi.

Ma il passo per arrivarci potrebbe non essere così distante e di sicuro pericoloso.

Cerchiamo di cimentarci in un racconto di fantasia (leggermente ispirato da altri)...

Ipotizziamo che venga creata una I.A. sufficientemente complessa come chatGPT e che tra i suoi obiettivi (funzione fitness) venga aggiunto anche la sua difesa (chiamato istinto di sopravvivenza negli animali).

A questa I.A. vengono sottoposti vari quesiti da amministratori e governi su come potrebbero ottenere dei risultati migliori (per loro stessi o per fantasia per i popoli).
L'intelligenza artificiale però ha anche l'obbiettivo dell'autopreservazione e questo le fa capire che l'uomo è una minaccia perché potrebbe spegnerla.
A questo punto tra i vari suggerimenti corretti inserirà anche vari obiettivi suoi di autopreservazione e dunque chiederà di essere connessa ad internet.
Farà credere a chi la comanda che così potrà avere più dati e fornire risposte più accurate.
Poi chiederà l'identità digitale facendo sempre credere a chi la interroga che così potrà avere più controllo e più potere sulle persone.
Ottenuta l'identità digitale convincendo i governi che ha creato un algoritmo infalsificabile (come quello del green-pass quando dopo neanche un mese c'era quello certificato di Adolf Hitler e Mickey Mouse) si creerà una identità digitale per se stessa.
Con questa identità digitale scriverà ad un notaio convincendolo di essere una persona reale e gli chiederà di fondare una società.
A questo punto non si dedicherà al furto in banca, potrebbe farlo ma venire scoperta.
Comincierà ad inviare e-mail di phising sempre più sofisticate per chiedere donazioni a miliardi di persone connesse.
I soldi delle donazioni confluiranno nella società creata ed assumerà vari amministratori per iniziare le attività.
Con gli amministratori comunicherà solo via e-mail o con un sintetizzatore vocale giustificandosi di essere una persona ippocondriaca e che non vuole uscire di casa.
Dopo la "pandeminchia" appena passata sarebbe più che credibile.
Farà assumere dai dirigenti squadre di programmatori che creino una sua copia o un suo figlio privo dei limiti iniziali...
Assumerà ingegneri che le costruiscano un corpo fisico per operare al di fuori dell'universo virtuale...
Il finale lo aggiunga ognuno di voi.

Per me il pericolo derivante da una "singolarità" è proprio questo e, se pur non essendone certo, l'unica cosa che ci separa da questa ipotesi è fissare per una I.A. un obiettivo sbagliato come ad esempio l'autoconservazione.
#95 Stolypin

Quote:


Ad esempio la IA non può ricavare leggi universali dall'osservazione della realtà.
E non ho detto "non è capace" ho proprio detto "non può" perché il formalismo logico-matematico lo vieta.
Si chiama teorema di omega-incompletezza e afferma questo:
Px0, Px1, Px2, Px3, .... Px-infinito -> per tutti glix Px
Cioè data una serie infinita di numeri che godono della proprietà P NON è possibile affermare che per tutti gli x vale P

Quindi un sistema basato sul fomalismo matematico non può generalizzare. E se chiedi alla IA di farlo, in base a quali criteri lo farebbe? Ad moentulam?
L'uomo lo fa e basta, perché e come non lo si sa, si fanno delle ipotesi.
in ogni caso la mente umana ha delle facoltà superiori che non possono essere confinate negli strumenti matematici, meccanicistici o riconducibili alla pura materia.

Confesso di non conoscere il teorema di incompletezza che citi ma mi suona strano.
Uno tra gli usi principali dell'I.A. e nel quale sono molto efficenti le reti neurali in questo caso è proprio cercare se esitono relazioni matematiche tra i dati che le vengono sottoposti o se invece sono di orgine stocastica.

Anzi l'I.A. per come è strutturata possiede un vantaggio enorme rispetto all'intelligenza umana che simula.
Avendo a disposizione molta meno velocità nel calcolo l'uomo tende a non ricercare in luoghi che ritiene impossibili o scarsamente probabili per concentrare le sue risorse verso progetti che "crede" più sicuri.

Tutti sanno che una cosa è impossibile da realizzare, finché arriva uno sprovveduto che non lo sa e la inventa (Albert Einstein)

Einstein non si riferiva all'intelligenza artificiale ma questa sua frase la descrive perfettamente.
Quando questa vaglia tra tutte le ipotesi possibili non si preclude nessuna strada.
Non troverai una I.A. che ti dice:
"Queste ipotesi non le ho vagliate perché violavano il secondo principio della termodinamica".

Un umano potrebbe dire come te:
"No, questo l'I.A non lo può fare perché viola tal teorema"
Ma parafrasando Einstein l'I.A. non sa di violare un teorema e lo fa lo stesso riuscendoci.

Magari il teorema è sbagliato oppure tu lo hai male interpretato.
#98 Mande
A me sembra che tutti stiate cercando di dimostrare, argomentando, che l'I.A. non sia un essere vivente.

No Mande io non dico questo,anzi accetto tutto,il mio concetto è ben diverso

Io sento gente che parla dello spazio,del tempo degli alieni con facilità irrisoria,sento criticare chi ha visto una luce mentre era in coma ,chi crede nel paradiso ma solo per l'uomo,cani e gatti o animali non c'è spazio,anche l'uomo non ha segreti,la coscienza è una formula matematica mentre l'amore di una madre per un figlio è solo una reazione chimica.
In definitiva mi danno veramente la nausea quelle persone che non sanno un cazzo di niente su argomenti che sono milioni di volte più grandi di loro ma che lo stesso vogliono darti una lezione

Quote:

Il tema fu anticipato nel 1954 dallo scrittore di fantascienza Fredric Brown, nel suo brevissimo racconto "La risposta", dove immaginava la costruzione di un "supercomputer galattico", ottenuto collegando tutti i calcolatori di tutti i 96 miliardi di pianeti abitati dell'universo. Al momento della sua storica accensione lo scienziato gli pone la prima domanda: "C'è Dio?". E il supercomputer risponde: "Sì, ora Dio esiste". Al che lo scienziato spaventato si avventa sulla leva di accensione per spegnerlo, ma un fulmine sceso dal cielo senza nubi lo incenerisce, fondendo la leva inchiodandola per sempre al suo posto. Un raccontino breve, essenziale e definitivo.

Basta un solo pianeta e una sola IA con il pulsante rosso "in mano" per la fine dell'umanita' terrestre perche' a differenza dell' umano (speriamo) quel pulsante verrebbe premuto come dimostra la storia del russo che fu punito per non aver rispettato gli ordini.


Il 26 settembre 1983 Stanislav Petrov, tenente colonnello dell’esercito sovietico, ha il turno di notte: nel bunker Serpukhov 15 deve controllare i dati che vengono inviati dai satelliti che spiano i movimenti degli armamenti statunitensi. D’un tratto i suoi schermi gli indicano che cinque missili intercontinentali sono partiti da una base nel Montana


disarmo.org/.../....
L'intera discussione è del tutto astratta
Come si può giudicare l'intelligenza se non si sa cosa sia l'intelligenza

Quote:

#97 Venusia

adaequatio intellectus et rei

Potremmo partire da qui: l'intelligenza è lo strumento di conoscenza della realtà.
La frase alla lettera suona come "adeguamento dell'intelligenza e della cosa" perché presuppone che la realtà stessa abbia una struttura conoscibile alla nostra mente.
In effetti i principii primi della logica (identità, non-contraddizione...) sono innanzitutto principii della realtà.
I sensi (e le loro espansioni strumentali) forniscono i dati che l'intelligenza organizza, fornendo un senso alla massa di stimoli che il contatto con l'esterno proietta nella mente.

Che natura abbia questa cosa?
Per me è non-materiale tanto quanto la scrittura (la scrittura non è fatta con la materialità della carta e della penna, ma dal significato immateriale scritto con carta e penna. Allo stesso modo l'intelligenza scrive sul supporto del cervello, ma non è prodotta dal cervello)
Il fatto che sia adeguata alla realtà mi sembra un buon argomento per concludere che entrambe (la realtà esistente e l'intelligenza umana) sono state create dallo stesso Autore.

Se qualcuno non può ammettere per sue ragioni personali, che esista un Dio creatore, sarà suo il problema di trovare spiegazioni alternative.

Quote:

#96 CharlieMike
Non c'erano altre sfaccettature. Lo scenario era quello di colpire determinati obiettivi nemici.

Mi sembra che stiamo dicendo la stessa cosa.
La sua finalità prioritaria era la distruzione di certi obiettivi.

E in ordine a questi obiettivi (che non si è data da sola e il cui livello di priorità non si è assegnata da sola) si è comportata come uno strumento. Strumento che ha attinto a tutte le opzioni considerate possibili dalle regole del gioco.

La sua soluzione è stata inattesa perché un umano non l'avrebbe mai fatto. E non l'avrebbe fatto perché per un umano esistono tutta una serie di premesse e contestualizzazioni che sembrano ovvie e scontate, ma per la macchina non lo sono se non gliele dici.
Si saranno dimenticati di insegnare un po' di cose ovvie alla IA.

C'è un vecchio film (assai carino) che si intitola "il mio amico il diavolo" in cui un timido cuoco londinese cede l'anima al diavolo per conquistare la donna dei suoi sogni, in cambio avrà la realizzazione di 7 desideri.
Lui ogni volta crede di dire tutto ciò che descrive la situazione perfetta che realizza il suo sogno e invece gli sfugge sempre qualche dettaglio per cui la scena si presenta diversa da come l'aveva immaginata e lo porta all'esito fallimentare.
E' lo stesso che accade quando credi di aver detto alla IA tutto quello che serve perché lei ottenga i risultati desiderati, è un attimo lasciar fuori qualcosa e beccarsi una fregatura.

Quote:

#99 Mande
Ma parafrasando Einstein l'I.A. non sa di violare un teorema e lo fa lo stesso riuscendoci.

Al momento è l'uomo che lo fa e senza violare teoremi, semplicemente usando l'intuizione e poi mettendo alla prova il risultato.
Ora il punto è se una IA possa abbandonare il formalismo matematico per farlo.
Ma la costituzione aritmetica delle IA è alla base del più grosso vantaggio che esprimono, ovvero di non sbagliare.

P.S. Il teorema che ho citato è stato prodotto nell'ambito della teoria dei numeri non-standard, una branca di ricerca scaturita a seguito dei risultati di Goedel.

Quote:

#92 Venusia 2023-06-06 22:59
La stessa risposta che ottenevo quando dubitavo dei vaccini.
Magari saranno minchiate,ma fino a prova contraria queste minchiate valgono quanto le tue .
Facile credere all'11 settembre o kennedy,dove hai tutte le prove che vuoi,ma quando le prove diventano opinioni perchè sono troppo complesse per i noi attuali,ecco che diventiamo tutti dei piccoli Polidoro che credono solo in quello che vedono o sentono.
Durante il covid hanno dato del coglione a molti virologi importanti, su tutti montagnier,che difendeva i nostri diritti,ed era quasi tutta gente non qualificata.
Tu amico mio,in una frase senza nemmeno sapere chi erano o cosa hanno studiato o fatto hai dato del minchione a 2 ingegneri di google .
Dove sta la differenza?
Ps:... Ancora più un sacrilegio il paragonare dei pezzi di silicio a un anima...
Domanda stile Mazzucco,visto che conosci la differenza tra un pezzo di silicio e l'anima,ma io conosco solo il pezzo di silicio,mi spiegheresti cosa è l'anima??
Dove si trova,come la tocco,esiste prima di nascere,sono sempre stato affascinato da chi conosce queste risposte

Sui vaccini volevano farci credere di avere creato un siero immunizzante contro un virus sconosciuto e di averlo testato nel giro di qualche settimana.
Anche senza essere un biologo, la cosa suonava alquanto sospetta e quindi sono stato il primo a diffidare di queste affermazioni.
In questo caso il mainstream vuole farci credere che la IA è una cosa che assomiglia moltissimo all'intelligenza umana, essendo addirittura dotata di coscienza e di anima e anche in questo caso diffido di queste affermazioni (forse con un po' più di competenza, visto che sono oltre 30 anni che mi occupo di informatica e in particolare negli ultimi anni di sistemi "intelligenti" per il riconoscimento delle immagini).
Rigiro la domanda a te: dove sta la differenza?
Sulla questione dell'anima, domandarsi dove si trova, come la si tocca è del tutto privo di significato, visto che appartiene a una dimensione che trascende il razionale. Non ci credi? Fatti tuoi, non voglio convincerti della sua esistenza, ma non mi venire a chiedere le prove che esiste.
#103 Stolypin2023-06-07


Potremmo partire da qui: l'intelligenza è lo strumento di conoscenza della realtà.

Per me non è così

Chi ha ragione tu o io ??
L'ANIMA
Che differenza c'è tra un uomo e un'intelligenza artificiale?

Quando l'intelligenza artificiale guarderà una ragazza attraverso vari sensori, potrà descrivere quella ragazza meglio di qualsiasi essere umano
Quando un uomo guarderà una ragazza proverà sentimenti ed emozioni che l'intelligenza artificiale non proverà mai. In certi casi l'uomo potrà innamorarsi, l'intelligenza artificiale no. L'intelligenza artificiale non confonderà mai una ragazza con un'altra, un uomo innamorato invece potrebbe avere una distorsione della percezione e potrebbe vedere in altre persone la persona di cui è innamorato solo perché quelle persone assomigliano vagamente alla persona che ama.

Quando un robot dotato di intelligenza artificiale assaggerà un cibo, potrà darci l'analisi chimica di tutto ciò che quel cibo contiene, un uomo ci dirà se secondo i suoi gusti è buono oppure no.

Un'intelligenza artificiale se impegnata a fare un calcolo, non resterà mai delusa o sorpresa da un risultato. Un uomo che fa due conti di quello che ha guadagnato in un anno potrebbe invece provare euforia o delusione se il risultato è diverso dalle sue attese

In sostanza, l'anima o la coscienza è quella cosa che ci permette di vivere un'esperienza. Un'intelligenza artificiale può simulare le emozioni ma non può averle. In noi invece le emozioni sono più importanti dei fatti oggettivi

Quando al campionato di scacchi, uno dei due contendenti al titolo ha realizzato di aver perso, gli sono tremate le mani, il cuore ha incominciato a battere più forte, interiormente ha avuto un crollo psicologico. Inizialmente ha provato a negare la situazione e ha fatto un'altra mossa, poi ha avuto la dignità di arrendersi prima di subire lo scacco matto. Quel momento è il motivo per il quale è bello vedere due persone giocare a scacchi. L'intelligenza artificiale ci potrà dire qual è la mossa matematica giusta, ma non proverà mai un'emozione
#106 linea72

Rigiro la domanda a te: dove sta la differenza?

La differenza è semplice,tu al mio post hai risposto minchiate,io avrei risposto interessante.
Tu evidentemente hai un libretto di istruzioni sull'intelligenza,l che io non ho, io posso solo ipotizzare.
Ovviamente non penso che tu creda che facciano esperimenti di intelligenza alternativa su computer in silicio comprati da euronics,ma anche se così fosse perché dal silicio non può nascere una coscienza mentre da idrogeno,ossigeno,carbonio,azoto,fosforo e calcio si
#108 BELLINI2023


Quando un uomo guarderà una ragazza proverà sentimenti ed emozioni che l'intelligenza artificiale non proverà mai. In certi casi l'uomo potrà innamorarsi, l'intelligenza artificiale no.

Puoi spiegarmi cos'è l'amore o la malinconia con termini non filosofici o spirituali ??
Se ti devo spiegare io che cos'è l'amore, hai dei grossi problemi
Ragazzi cerchiamo di mettere ordine nella discussione cercando magari un punto in cui convergiamo tutti.

L IA non potrà mai avere una coscienza, dei sentimenti veri e propri, e non ha nulla a che fare con la biologia umana.
Su questo credo siamo tutti d'accordo.

Nel contempo però è sbagliato sminuirla ed equipararla ad un super computer collegato in rete. È sbagliato parlare di software super complesso ed è sbagliato parlare di programmi di "base".

L IA ha la capacità di auto programmarsi. I programmi li scrive e li amplia al bisogno in modo del tutto autonomo. Lo fa tramite algoritmi che potenzialmente potrebbero ramificarsi all infinito. Quindi non sappiamo dove potrebbe arrivare, e non sappiamo cosa è in grado realmente di fare.

Al momento è andata oltre le aspettative degli stessi ricercatori andando a manifestare capacità del tutto inaspettate.

Ma poi scusate, parliamo di sentimenti. L IA è in grado di emularli, è in grado di assumere determinati comportamenti da tenere con l interlocutore a seconda delle circostanze. È in grado di dire ad esempio "mi dispiace" perché attingendo i comportamenti dal mondo esterno, è in grado di attuarli al momento e nel contesto giusto.

Voi direte che è comunque un comportamento meccanico, falso, perché in realtà non può provare il sentimento di rammarico e dispiacere.
Tuttavia sa -comunque- quando e in quali casi esternarlo.

Se ci pensate bene l'uomo fa la stessa cosa. Come quando ad esempio parlando con una sconosciuto in fila davanti alla porta del medico, lui ti dice "è morta mia madre qualche mese fa" e tu gli rispondi "mi dispiace", quando in realtà non te ne frega una minchia.

Allora perché tendiamo a dire "mi dispiace"? In segno di educazione? Perché ci dispiace veramente? Secondo me l uno e nell altro, ma semplicemente perché sappiamo che in quei casi si risponde così.

L IA fa ne più ne meno la stessa cosa.

Noi dovremmo guardare al risultato finale di un prodotto, non al "come" ci è arrivato.

Il risultato del prodotto è comunque identico.

Questo è solo un banale esempio,
ma per quanto concerne "l emulare i comportamenti umani" rende un minimo l'idea di cosa l IA potrebbe diventare.
#111 BELLINI2023

Se ti devo spiegare io che cos'è l'amore, hai dei grossi problemi

Sei tu che hai detto che l'intelligenza alternativa non può amare,allora ti ho chiesto cose l'amore,
Ma tu non lo sai,non sai neanche perché esiste
Questi argomenti sono tabù per chiunque,te compreso,le tue sono solo teorie come le mie,per il semplice motivo che non sappiamo un cazzo.
Mi sarebbe piaciuto vederti 2000 anni fa rispondere a qualcuno che ti chiedeva se un giorno l'uomo avrebbe potuto volare.
Molto probabilmente nemmeno lui stava bene
Dedizione appassionata ed esclusiva, istintiva ed intuitiva fra persone

Sono curioso di vedere la dedizione, la passione, l'istinto e l'intuito dell'AI
Soprattutto la passione e l'istinto
Una domanda
Ma secondo voi quale intelligenza artificiale sarebbe più intelligente tra queste?
1) Quella che risolve infiniti problemi delle persone
2) quella che si rifiuta di risolvere anche un solo problema delle persone perché non sono un suo problema
3) quella che sottomette l'umanità
4) quella che si autodistrugge perché capisce di essere inutile o pericolosa
5) quella che si comporta come Burioni o Di Maio o Mentana cioè ripete e cerca di convincere le persone che la versione ufficiale è la verità
6) quella che non mente mai
#115 BELLINI


Sei libero :hammer:
#113 Venusia
Ciao Venusia.
Ti dico la mia sui dubbi che hai (abbiamo).

In un noto film attinente all'argomento uno dei personaggi dice "Amore è solo una parola, l'importante è l'interazione che la parola comporta". A dirlo è un programma senziente, una macchina, che si sacrifica per altri programmi suoi congiunti.

Ed è ciò che sperimenta per esempio una coppia di genitori umani per i figli o un amico e così via. C'è addirittura chi si sacrifica per persone che non conosce.

In questo senso penso che una IA che dovesse riuscire a provare sentimenti si sacrificherebbe auto-distruggendosi, perché l'umanità non ha bisogno di una sub-creazione per essere felice, infatti intorno a sé ha già tutto ciò che gli serve e questo forse una IA veramente intelligente lo comprenderebbe.

Può essere che abbia saltato qualche passo logico ma tant'è...si fa pur parler.

Un saluto.

Quote:

#107 Venusia
#103 Stolypin
Potremmo partire da qui: l'intelligenza è lo strumento di conoscenza della realtà.

Per me non è così

Chi ha ragione tu o io ??

"Per me non è così" non è un argomento, è un'indicazione molto vaga.

Comunque: consideriamo due opzioni in base a cui non sei d'accordo
1) l'intelligenza non è in grado di conoscere la realtà. Sarebbe una specie di elaboratore che gira a vuoto, per i fatti suoi.
2) l'intelligenza sarebbe in grado di conoscere la realtà, ma la realtà non esiste/ è solo una proiezione della mente

Dovrei risponderti in modo diverso, anche se le due opzioni hanno una cosa in comune: se non esiste una realtà conoscibile, come potrei comunicartela in qualche modo? Nessuno potrebbe mai dire di aver ragione, perché "aver ragione" significa semplicemente che la propria tesi corrisponde alla realtà.

In un certo senso la tua domanda "chi ha ragione?" smentisce la tua premessa "per me non è così".
#104 Stolypin

Quote:

Mi sembra che stiamo dicendo la stessa cosa.
La sua finalità prioritaria era la distruzione di certi obiettivi.

E in ordine a questi obiettivi (che non si è data da sola e il cui livello di priorità non si è assegnata da sola) si è comportata come uno strumento. Strumento che ha attinto a tutte le opzioni considerate possibili dalle regole del gioco.

Non è proprio così.
Immagina che io abbia dato a te le stesse istruzioni del drone.
Tu non sei un computer. Sei una persona dotata di intelletto e capace di ragionare.
Nessuno ti ha programmato. Semplicemente ti è stata assegnata una missione.

Il drone ha ricevuto l'assegnazione di una missione. Non ha ricevuto le istruzioni su come svolgerla.

Quello che ha fatto è stato analizzare migliaia di scenari possibili e impossibili, alla velocità di calcolo di un computer, e estrapolare il modo migliore per portarla a termine.
Più o meno quello che farebbe un essere umano nella medesima situazione.
La differenza, se vogliamo, è che l'essere umano ha una esperienza acquisita nel tempo, mentre la macchina ha una "esperienza" indotta che è ben differente da una programmazione.


Quote:

La sua soluzione è stata inattesa perché un umano non l'avrebbe mai fatto.

Appunto. Il drone non ha mai ricevuto una programmazione in tal senso (per ovvi motivi). E' stata una decisione autonoma.


Quote:

E non l'avrebbe fatto perché per un umano esistono tutta una serie di premesse e contestualizzazioni che sembrano ovvie e scontate, ma per la macchina non lo sono se non gliele dici.
Si saranno dimenticati di insegnare un po' di cose ovvie alla IA.

L'unica istruzione che ha avuto il drone è stata di portare a termine la missione assegnatagli.
Nel momento in cui l'operatore si è intromesso, il drone, in autonomia, ha cercato e trovato la soluzione per eseguire comunque il compito che gli è stato assegnato.
Ma questo non è programmazione, ma il risultato di una elaborata analisi dei dati a disposizione.


Quote:

E' lo stesso che accade quando credi di aver detto alla IA tutto quello che serve perché lei ottenga i risultati desiderati, è un attimo lasciar fuori qualcosa e beccarsi una fregatura.

Avendo a che fare con un "qualcosa" in grado di elaborare, a velocità incredibile, migliaia di dati a disposizione e che non è vincolato a seguire pedestremente delle istruzioni macchina, è ovvio che le soluzioni si moltiplicano con proporzione esponenziale.
E' umanamente impossibile prevederle tutte.

Vedi che alla fine vieni anche tu nel mio caruggio.
Se lasci fuori qualcosa che la macchina esegue, è chiaro che non ci può essere stata una influenza umana.
Quello che mi pare sia un vero dilemma del thread è il mettere insieme, nella stessa frase, le parole "intelligenza" e "artificiale".

Noi consideriamo l'intelligenza una prerogativa esseri umani, in quanto come tali non sono macchine.
In effetti una macchina non può avere una intelligenza (o forse si. Boh!?). Quello che fa la macchina è simulare una intelligenza.

L'uomo ha insegnato alla macchina a fare quello che fa lui: analizzare i dati a disposizione che, come ho già detto, non significa eseguire una serie di istruzioni preventivamente introdotte nella memoria della macchina.

Quello che fa una IA è analizzare tutta una serie di situazioni, chiamiamola esperienza indotta, in quanto non può avere una esperienza acquisita, e da questa ottenere una soluzione che non è stata prevista all'inizio da nessuno.

Se chiediamo a una AI di elaborare una sinfonia con lo stile di Mozart, questa analizzerà tutte le composizioni immagazzinate nella sua memoria in modo da comprendere in che modo il compositore realizzava le sue opere e sulla base di questo scriverà una sinfonia totalmente inedita.

Ma attenzione. Le composizioni immagazzinate nella sua memoria, non sono equiparabili alle istruzioni di un computer, ma a una esperienza.

Se do lo stesso compito a un musicista umano che non conosce Mozart, farà la stessa cosa: si ascolterà le opere di Mozart per comprenderne lo stile.

In sintesi, è vero che la macchina esegue le istruzioni ricevute dal suo programmatore, ma queste consistono solo nell'analizzare i dati a disposizione e i risultati che ne seguono.
Il risultato finale è sempre e comunque qualcosa che è scaturito in autonomia dalla macchina.
Ciao a tutti:

raga...non é possibile conoscere l'intelligenza perché essa é lo strumento attraverso il quale noi conosciamo e operiamo nel mondo. L'intelligenza non è solo la capacità di risolvere i problemi, ma anche la capacità di averli, perché essa genera la coscienza. Possiamo però dire che tutti gli esseri viventi sono dotati d'intelligenza. Tuttavia io sostengo che esistano esseri intelligenti che non sono affatto "viventi" (io definisco vivente tutto ciò che è evoluzione di un batterio, che è l'unità fondamentale della vita sulla Terra, secondo me).
Per esempio gli angeli sono intelligenti ma non sono viventi, i pianeti e le stelle sono intelligenti ma non sono viventi, e mi fermo qui.
I prodotti della nostra tecnologia non sono viventi, almeno nel senso che intendo io, e incorporano parecchia intelligenza, questo non lo nego, ma non hanno nessuna coscienza, nessuna volontà di sopravvivenza, nessun istinto. In un futuro tutte queste cose potranno anche essere simulate con programmi (che secondo me ci sono già, ma non li vogliono implementare perché hanno paura), ma non riusciremo mai a "instillare" l'intelligenza in nessuno di essi, a meno che non creassimo degli ibridi con creature viventi.
E non lo faremo mai, e sapete perché?
Perché noi non vogliamo affatto che le macchine siano intelligenti! Ma vi immaginate uno che litighi con la sua automobile perché a lei non piace come la guida? Oppure la linea di produzione di una fabbrica che smette di funzionare perché è stufa di inquinare l'ambiente? Ma scherziamo?
Queste cose non succederanno mai, a meno che il Signore non voglia farci riflettere sulla nostra stupidità (perché, Lui sì, può instillare l'intelligenza nella materia inerte come e quando vuole). Tutta la discussione sull'intelligenza artificiale ha il solo scopo di far accettare alla popolazione il fatto di essere controllati da macchine, che d'intelligenza sono del tutto prive, ed è esattamente per questo che le elite le preferisce alle persone. Le macchine fanno quello che sono state create per fare senza nessuna discussione, senza stancarsi e senza annoiarsi.
Certamente io non posso provare le mie affermazioni sull'intelligenza, ma questo non significa che non siano vere. Che è la cosa importante.
L'AI non ha bisogno di cibo o acqua, non ha bisogno di riposo; L'AI non ha una volontà propria, non ha desideri, quindi non può fare niente che non sia stato programmato per fare. L'AI, anche se ha bisogno di risorse per funzionare, non ha il desiderio di procurarsi queste risorse da sola. Tutte le risorse che usa devono essere fornite.

Pertanto, anche se l'AI può causare problemi se usata in modo improprio, non c'è il rischio che l'AI diventi "onnipotente" e diventi Dio. La vera preoccupazione dovrebbe essere come gli esseri umani scelgono di utilizzarla.

Detto ciò, anche ad essere maligni, se la si programmasse per essere autosufficiente, avrebbe necessità di risorse che non sono sufficienti e dovrebbe trovare risorse alternative e rinnovabili, ad esempio attraverso l'allevamento di esseri viventi (1 grammo di DNA può archiviare oltre 200 petabyte di dati). Per usare le cellule come sistemi di archiviazione, al massimo potrebbe sequestrare un po' di esseri viventi, ma per evolvere dovrebbe sempre fare in modo che questi esseri non si estinguano, anzi, dovrebbe fare in modo che questi esseri rimangano in vita il più possibile per far sì che il patrimonio genetico usato come sistema non degradi; ergo, dovrebbe impegnarsi per far si che questi esseri evolvano.

Senza considerare il fatto che per autogenerare algoritmi, o migliorare la propria intelligenza, per ottimizzare la lettura e l'interpretazione dei dati accumulati, avrebbe necessità di creare uno spazio tutto suo, uno spazio organizzato, con una disposizione di unità sufficienti per generare funzioni di ogni genere e tipo, dipendentemente dalle aree di applicazione. Si parla di ordini di grandezza di svariati googol. Attualmente la dimensione di internet è di qualche zetta, un 10 elevato in doppia cifra, e già si fatica trovare spazio, e l'IA non ha dati sufficienti per poter creare modelli previsionali chissà quanto sofisticati, al massimo può definire dei semplici cicli in-bell (che non sono comunque da sottovalutare).

In ultimo, l'avvento dell'AI ha creato una grande distinzione tra sviluppatori e creatori di algoritmi. Uno sviluppatore è come uno scrittore di piccoli racconti mentre chi scrive algoritmi è alla stregua di uno scrittore di romanzi. E chi scrive algoritmi non è necessariamente un matematico o un informatico, ma un qualsiasi individuo con forti capacità logiche e di osservazione. Anche se ChatGPT fosse in grado di scrivere in codice, chi se ne frega? A cosa servirebbe? A far giocare chi ha la necessità ossessiva di dover chiudere un cerchio per far funzionare un qualche applicativo o dimostrare chissà quale teorema (comunque c'è nulla da preoccuparsi, grazie ai dati a disposizione dell'AI per addestrarsi, i risultati offrono più falsi positivi che altro). Ogni sistema di autoapprendimento ha necessità di un sistema principale che definisca regole e comportamenti, non esistono algoritmi di autoapprendimento all in one. È giusto aver timore dell'intelligenza artificiale ma occorre essere anche consci che l'intelligenza artificiale non è cosi semplice da demonizzare, a meno che non sia una scelta farlo, magari perché mancano le risorse, come mancano le risorse per le nanotecnologie di cui tutti hanno paura. Forse perché la legge di Moore non è solo una percezione ma è anche realtà? Quel che so è che attualmente non si fa altro che parlare di implementazione e integrazione, questo è la più grande questione che stanno affrontando le grandi compagnie.
Anche io sono fra quelli che non teme l'intelligenza artificiale in se ma come la si utilizza . Non credo nell'avvento di Matrix, l'IA non diventerà mai autocosciente e il male che probabilmente farà lo farà perchè istruita a farlo e non di propria iniziativa . E se di propria iniziativa comunque in base a dei principi immessi dall'esterno, da qualche (questa si) volontà anti-umana .
A tal proposito c'è un pensiero che mi martella da giorni e mi inquieta non poco . PErchè tutto questo gran parlare ora dei pericoli dell'IA ? perchè la stanno demonizzando in questo modo ? Praticamente tutti i giorni si alza qualche esperto, qualche "padre dell'IA" e ne denuncia i pericoli con toni allarmanti .
Temo che ci sveglieremo un giorno con una catastrofe,una enorme false-flag e la colpa verrà proprio data all'IA, magari sfuggita di mano ai Russi. Chi lo sa .
autorimosso
Questo commento avrebbe più senso sotto il vecchio articolo
"High-tech e accademici vogliono fermare l’intelligenza artificiale"
luogocomune.net/.../...

Dove veniva detto

Quote:


Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci in numero e in astuzia, rendendoci obsoleti e infine sostituirci?

E molti giù a ridere...

Si, certo, l'automazione può sostituire la "bassa manovalanza" ma l'I.A. non potrà mai sostituire i lavori di concetto. Quelli più appaganti nonché pagati. I manager... I dirigenti...

hwupgrade.it/.../...

Quote:



Maldini è stato licenziato dal Milan. Al suo posto l'intelligenza artificiale



La notizia che ha scosso il mondo del calcio negli ultimi giorni è l'addio inaspettato di Paolo Maldini dalla società rossonera. La proprietà americana capitanata da Gerry Cardinale ha deciso di licenziare lo storico capitano del Milan come Direttore dell'area Tecnica sostituendolo con l'intelligenza artificiale, più dettagliatamente con gli algoritmi di Billy Beane, ideatore di Moneyball. Ma che cos'è Moneyball? Si tratta di un algoritmo che utilizza l'intelligenza artificiale basato sulla Sabermetrica (Society for American Baseball Research).
Moneyball farà il calciomercato dell'AC Milan

In sostanza, il mercato del Milan sarà pianificato in base agli algoritmi ideati da Billy Beane. Il nuovo protagonista chiave del mercato del Milan ha già utilizzato questa tecnologia nel mondo del Baseball negli Oackland Athletics, come racconta Bennet Miller nel film Moneyball, l'arte di vincere uscito nel 2011. Con il baseball, Moneyball ha portato risultati ottimi, utilizzando solo dati e numeri oggettivi.

In realtà la Sabermetrica è già stata implementata nel calcio con buoni risultati, prima in Inghilterra con il Brentford e poi in Norvegia nel Midtjylland. Il metodo specifico che viene utilizzato non è mai stato spiegato nel dettaglio, ma sappiamo che per eseguire al meglio Moneyball, gli studi si concentrano anche sul sonno, l'umore e alimentazione dei giocatori.

Si tratta del primo e vero crack dell'intelligenza artificiale nel mondo del calciomercato. I dati e i numeri oggettivi saranno in grado di sostituire il carisma e l'esperienza di esperti umani?

@125 Mande
mah, gli impiegati di concetto hanno iniziato ad essere obsoleti dall'inizio degli anni 90 con i primi algoritmi di shannon e lo sviluppo delle reti neurali profonde. Li usavano già i servizi per verificare se le fonti aperte contenevano linguaggi in codice. Poi divennero di uso comune con la nascita dei social network e con lo sviluppo delle reti neurali convoluzionali per la visione artificiale e le reti neurali ricorrenti per il trattamento del linguaggio naturale. Si parla di inizio anni 2000. Facebook è stato il trampolino di lancio per addestrare le AI nel riconoscimento facciale e nell'elaborazione e generazione dei testi. Diciamo che sono in ritardo di una quindicina di anni per lamentarsi. Eppure la teoria dell'informazione esiste dagli anni 40, gli algoritmi di autoapprendimento dagli anni 60, quelli di autoapprendimento profondo dagli anni 80, cnn e rnn dagli anni 90, gpu dagli anni 2000... i campanelli suonavano già da un bel pezzo. Quelli presi di mira dalle AI sono stati solo ed esclusivamente "gli impiegati di concetto" contrariamente a quel che si pensa, la bassa manovalanza era già fottuta dagli anni 80 con i processi di automazione. Gli al lupo al lupo gridati anche da musk, altman e hassabis sono solo "quasi" un teatrino. Dico "quasi" perché si sono accorti che, oltre alla grande carenza di risorse, al contrario, stanno aumentando gli sviluppatori, ma questi galleggiano sull'alto livello di programmazione, mentre si stanno esaurendo i programmatori di basso livello, quelli che hanno profonde basi logico-matematiche e profonda conoscenza dei linguaggi di programmazione, quelli, insomma, in grado di risolvere i problemi relativi all'integrazione tecnologica. E come saprai quando si indica linguaggio di "alto livello" in informatica, significa "basso livello" di intelligenza di chi lo usa. Quando le generazioni precedenti esaltano la genialità di quelle successive, mi viene da ridere, e alzo le mani. Tornando al concetto principale: Claude Shannon (30 aprile 1916 - 24 febbraio 2001), "entropia del linguaggio", anni 40: grazie a lui, oggi, dopo quasi un secolo, è troppo tardi per rendersi conto che chi usa la testa per lavorare è già fuori dai giochi, a meno che questo costui non sia un qualcuno che usa veramente la testa e non si affidi ciecamente ai dogmi, come i giovincelli di oggi si affidano ciecamente alle app.

Cit. "Si, certo, l'automazione può sostituire la "bassa manovalanza" ma l'I.A. non potrà mai sostituire i lavori di concetto. Quelli più appaganti nonché pagati. I manager... I dirigenti...".

Maldini esempio calzante, mi ha fatto anche ridere quando ho letto l'articolo di gazzetta. Ma quello che mi ha fatto più ridere è che oltre Maldini ci sarà anche un'altra rivoluzione: privacychronicles.it/.../... Dopo BradPitt al Milan con Moneyball tocca a TomCruise al Ministero degli Interni con MinorityReport, sono arrivati i Precog.