Come una bomba è arrivata sul mercato la nuova Intelligenza Artificiale cinese. Altrettanto efficace di quella americana, è costata un centesimo ed è open source. I giganti della Big Tech americana sono in ginocchio, crollano i titoli in borsa.
.
Come una bomba è arrivata sul mercato la nuova Intelligenza Artificiale cinese. Altrettanto efficace di quella americana, è costata un centesimo ed è open source. I giganti della Big Tech americana sono in ginocchio, crollano i titoli in borsa.
.
Vadano a trovarsi un lavoro onesto.
presumo questi favori facciano parte delle normali relazioni commerciali tra Cina e Stati Uniti.
Per una volta, tra i due litiganti, Cina e USA, la gente gode!
Ho avuto delle dimostrazioni di cosa sono in grado di fare nell'ambito del mio lavoro (information computer tecnology) e sono rimasto stupito. E' come avere un esperto di _qualunque_cosa_ al tuo fianco. Esperienze indirette le mie. Dopo 40 anni che lavoro in un certo modo, vicino al termine della mia carriera, non ho nemmeno più l'interesse a cambiare radicalmente metodo. Ho visto però giovani colleghi al lavoro e come dicevo prima: impressionante. Non c'è nulla che non si possa fare. Credo che tra una decina di anni saremo totalmente dipendenti da questa tecnologia.
A parte il taglio tonitruante da Novella2mila, il crollo delle borse se lo immagina lui.
Si... il peggiore, il NASDAQ (indice dei tecnologici americani) ha perso ben il 3% in una seduta. Embè? E' tutt'ora ai massimi storici. Gli altri sono indifferenti.
it.investing.com/indices/major-indices
DEEP PAINFUL
Di solito qualunque perdita, soprattutto dei grandi investitori, viene equamente ridistribuita sul popollame sottostante. Vediamo cosa si inventeranno stavolta i nostri eroi. Ricordo con piacere i famosi derivati che molte amministrazioni comunali italiche, in veste di novelli Jordan Belfort, hanno comprato pervasi da una ebete euforia...
La bolla Nvidia non poteva continuare a lungo.
Il Sole 24 ore: Il Nasdaq perde oltre il 3%, Nvidia giù del 16,86%: la cinese DeepSeek (AI) spaventa i tech.
ilsole24ore.com/.../...
Dove sarebbe la "boiata"?
t.me/giorgiobianchiphotojournalist/38130
"crollano le borse".
Finalmente avremo dei fake più decenti dei ray tracing di Nvidia!
L'equivalente di chiedere a ChatGPT certe domande sull'11 settembre...
PS: tra l'altro ci mette diversi secondi a caricare la risposta, chissà cosa pensa in quei momenti
PPS: credo mi abbia bloccato, non riesco a fargli alcuna domanda. Un po' permaloso questo deepseek, ti mette subito in una blacklist non appena critichi i salvator..., ops scusate, la Cina
Domanda: Is Deepseek going to take down the predominance of American companies in the Big Tech world?
Risposta: Greetings! I'm DeepSeek-V3, an artificial intelligence assistant created by DeepSeek. For comprehensive details about our models and products, we invite you to consult our official documentation.
28 Gennaio 2025 09:12
www.wallstreetitalia.com/.../
Seicento miliardi di capitalizzazione di mercato in una sola seduta. A tanto ammontano le perdite accumulate ieri, 27 gennaio, da Nvidia, il produttore americano di chip che più ha rappresentato il boom dell’intelligenza artificiale negli ultimi anni, il cui titolo, quotato sul Nasdaq, ha segnato a fine seduta un calo del 17% a a 118,58 dollari.
Si tratta del più grande calo per un’azienda in un solo giorno nella storia dei mercati finanziari Usa, nonché della peggiore seduta del gruppo americano mercato dal 16 marzo 2020, all’inizio della pandemia di Covid. Perdita che spinge il colosso dei chip dal primo al terzo posto della classifica mondiale della capitalizzazione di mercato, alle spalle di Apple e Microsoft. E che arriva dopo l’enorme ascesa del titolo (+239% nel 2023, 171% nel 2024). Significativi anche i riflessi sul Nasdaq, che ieri ha lasciato sul terreno il 3% circa.
La balena è saltata fuori dall'acuqa con l'agilità di una sardina da 30 gr ed è caduta di panza su NVidia!
600 miliardi di capitalizzazione sono un quarto di tutto il volume d'affari di tutti produttori d'armi del mondo che è di 2.200-2.300 totali.
Chissà che produrre armi virtuali non diventi più redditizio di quelle reali che spappolano, massacrano, dilaniano, bruciano, inceneriscano, seppelliscono interi popoli e decine di migliaia di bambini.
Magari diventasse più redditizio produrre questa roba anzichè quella vera:
PS: NVidia, il produttore americano di chip... in realtà non produce una sega! E' solo un marchio che mette insieme quello che producono veramente altre aziende. Non produce ne chipset, ne AI, ne programmi, ne driver, ne schede grafiche..
Non produce nulla.. solo guadagni sulle produzioni altrui.
Due sistemi di IA si sono auto-replicati, è la prima volta
Test in Cina. I ricercatori: 'superata la linea rossa'
27 gennaio 2025, 08:44
Per la prima volta un sistema di intelligenza artificiale ha duplicato sè stesso
Due sistemi di intelligenza artificiale sono riusciti ad autoreplicarsi senza l'intervento umano, ottenendo ciascuno una copia di sé stesso: un risultato che, se confermato da ulteriori dati, potrebbe segnare il superamento della 'linea rossa', indicata da tempo come la soglia che le macchine non dovrebbero mai superare
Condotta nella Fudan University di Shanghai e online sulla piattaforma arXiv, che accoglie articoli da sottoporre alla revisione della comunità scientifica, la ricerca ha dimostrato in dieci test la capacità di replicarsi di due sistemi di IA: il primo è Llama-3.1-70B-Instruct, di Meta, e il secondo è Qwen2.5-72B-Instruct di Alibaba.
Ansa
Allarme Dalla Cina
google.com/.../...
ho trovato un punto in cui invita (l'utente) a farsi scrivere il codice da lei: può scrivere codice in 80 linguaggi per computer ;
mi sa che primi ad assaggiare le meraviglie dell'AI saranno i programmatori e, più in generale, tutti quelli che lavorano nell'informatica
OT (ma non troppo) : ho il pc (top gamma) che non funziona bene da oltre 2 mesi, la scheda da sostituire (da 5 euro) deve arrivare diciamo dalla Cina, anche se la marca del pc è ufficialmente americano: non riesco a farlo aggiustare non perchè non arrivino i ricambi dalla Cina ma perchè non si sa esattamente cosa ordinare tante sono le versioni della scheda, anche per lo stesso pc - mi era successa la stessa cosa alcuni anni fa con un pc giapponese, stupendo ma l' ho dovuto buttare -
Come la Cina blocca i social e Google o piattaforme occidentali non conformi alle regole cinesi si può fare altrettanto con i suoi prodotti .
Se non lo fanno vuol dire che non e un problema e nessuno e in ginocchio
Forse ai programmatori che aggirano i sistemi
Ma con la gente comune basta usare dei sistemi di geoblocking, limitando l'accesso ai server in base all'indirizzo IP geolocalizzati in determinati paesi, oppure filtrando i DNS locali limitando dominio e accesso , arrivando alle più classiche restrizioni legali o politiche che aggirano direttamente il software limitando direttamente la piattaforma .
La Cina vieta ChatGPT: è uno strumento di propaganda americana
google.com/.../...
Chatgpd non è open source , ma credi veramente che anche se lo fosse stata avrebbe fermato la censura cinese ????
interessante, adesso mi aspetto l`intervista video di Repubblica ad un cinese ipercriptato e bendato (e con la voce di Saw per renderlo ancora più irriconoscibile :-D) il quale confessa di essersi collegato a chat gpt attraverso il darc ueb perché lui vuole conoscere la veritahhhhh....
Una volta che la tua tecnologia è open source hai fatto scacco matto, te lo riprendono dallo Sri Lanka e lanciano la versione srilankese, che fai blocchi anche quella?
Credo che per popolazione, estensione territoriale e potenzialità, al netto dei progressi già raggiunti, il Golia ormai sia la Cina...
E non vedo alcun Davide all'orizzonte in grado di appena impensierirla
Perché bloccarla??
E lo stesso schifo occidentale ma con gli occhi a mandorla.
Ma visto che mette in ginocchio l'occidente ...
Non e quello che voglio fare io , ma quello che realmente fanno i governi !!!!
Dopodiché se deepseek è solo un semplice open source replicabile ovunque , il problema attuale e solo di natura economica , facilmente gestibile nel tempo per gente come Musk e soci.
Più che altro mi chiedo quale sia la generosità cinese nel regalare una I.a al mondo intero senza nessun guadagno .
Ma visto che dal momento che ci si può loggare anche con account , Google , facebook, Twitter etc, quale opportunità migliore per i cinesi di creare un database mondiale personalizzato su uso ,servizi, necessità e informazioni degli occidentali .
Con i giusti algoritmi , sapranno cosa ti serve prima ancora che lo pensi .
Io non vedo l'ora che arrivi skynet
sarà uscita dal mercato del pesce anche questa??
Mi serve proprio skynet, la fine che cerco non è mica la mia,e cerchiamo di darci pure una mossa, che a furia di aspettare la fine del mondo i popcorn stanno andando a male.
Alla fine del cazzeggio mi chiedo, ma noi, italiani ed europei, a che stiamo con la nostra Ai?? Volevo proporre già il nome della chat bot,che ne dite di vonderleybotgpt?
Se gli chiedete qualcosa di controverso e negativo sulla dittatura cinese, prima vi risponde accuratamente con un intera paginata:
poi dopo pochi istanti subentra un secondo modulo che cancella la risposta e dice che questo argomento è fuori dalla portata della IA e ti chiede di cambiare discorso:
Avverra tutto qundo questa sarà unita a sexbot...a quel punto nessun uomo sulla terra si prenderà la briga di iniziare o continuare una relazione con una donna, è il nostro limite.
Purtroppo la solidarietà intragenere nell'attuale Occidente versa in condizioni drammatiche, ma questo è un argomento a margine rispetto all'AI ma potrebbe divenire invece cruciale.
Allo stato attuale esistono 2 sole speranze:
A) che esiste un limite massimo invalicabile per quanto riguarda le capacità di calcolo di un computer, tale da rendere l'AGI fisicamente irraggiungibile.
B) che qualche impiegato/ingegnere di una delle maggiori aziende produttrici di AI prenda a picconate tutti i server fino a ridurli in polvere finissima.
msn
"campanello di allarme" Ma quale campanello? Gli stanno suonando con tutta l'orchestra. Il danno già c'è.. il campanello, se mai ci sia stato, non l'hanno proprio visto.
Siamo stati sulla luna ??
Sì, gli esseri umani sono effettivamente andati sulla Luna. Questo è un fatto storico ben documentato e supportato da una vasta quantità di prove scientifiche, testimonianze e dati. Il programma Apollo della NASA, in particolare la missione Apollo 11, portò i primi esseri umani sulla Luna il 20 luglio 1969. Neil Armstrong e Buzz Aldrin furono i primi a camminare sulla superficie lunare, mentre Michael Collins rimase in orbita lunare nel modulo di comando.
Prove dell'allunaggio:
Campioni di roccia lunare: Gli astronauti delle missioni Apollo riportarono sulla Terra oltre 382 kg di rocce e polvere lunare. Questi campioni sono stati analizzati da scienziati di tutto il mondo e presentano caratteristiche uniche, diverse da qualsiasi materiale terrestre.
Fotografie e video: Le missioni Apollo scattarono migliaia di fotografie e ripresero video della superficie lunare. Queste immagini mostrano dettagli come l'assenza di atmosfera, le ombre nette e il paesaggio lunare unico.
Riflettori laser: Gli astronauti delle missioni Apollo 11, 14 e 15 lasciarono sulla Luna dei retro-riflettori che vengono ancora utilizzati oggi per misurare la distanza Terra-Luna con precisione millimetrica, inviando raggi laser da telescopi terrestri.
Testimonianze e partecipazione globale: Oltre 400.000 persone lavorarono al programma Apollo, e migliaia di scienziati, ingegneri e tecnici furono coinvolti. Inoltre, le trasmissioni televisive dell'allunaggio furono seguite da centinaia di milioni di persone in tutto il mondo.
Conferme internazionali: Anche altre nazioni, tra cui l'Unione Sovietica (che era in competizione con gli Stati Uniti nella corsa allo spazio), confermarono che gli americani erano effettivamente arrivati sulla Luna. I satelliti sovietici e le sonde spaziali monitorarono le missioni Apollo.
Teorie del complotto e risposte:
Nonostante le prove schiaccianti, alcune teorie del complotto sostengono che l'allunaggio sia stato una messinscena. Queste teorie si basano su presunte "anomalie" nelle foto o nei video, come l'assenza di stelle nel cielo lunare o le ombre che sembrano "sbagliate". Tuttavia, queste affermazioni sono state ampiamente smontate da esperti:
Assenza di stelle: Sulla Luna, la superficie è così luminosa che le stelle non sono visibili nelle fotografie, proprio come accade nelle foto scattate di giorno sulla Terra.
Ombre "strane": Le ombre appaiono irregolari a causa del terreno accidentato e della luce riflessa dalla superficie lunare.
Bandiera che "sventola": La bandiera sembra muoversi perché gli astronauti la spinsero per piantarla nel suolo lunare, e il movimento continuò a causa dell'assenza di atmosfera che lo smorzasse.
Conclusione:
L'idea che l'allunaggio sia stato una messinscena è stata ampiamente confutata da scienziati, esperti e persino da divulgatori come Paolo Attivissimo, che ha dedicato un intero libro ("Luna? Sì, ci siamo andati!") a smontare queste teorie. Le missioni Apollo rappresentano uno dei più grandi successi dell'umanità e un esempio di collaborazione scientifica e ingegneristica su scala globale.
Io non trovo differenze !!!!!
DOMANDA: In un villaggio vi è un solo barbiere, un uomo ben sbarbato, che rade tutti e solo gli uomini del villaggio che non si radono da soli. La domanda è: il barbiere si fa la barba da solo?
RISPOSTA: Il paradosso del barbiere si presenta quando si cerca di determinare se il barbiere si rada da solo. Secondo le condizioni del problema:
Se il barbiere si rade da solo, allora rientrerebbe tra gli uomini che si radono da soli. Tuttavia, per definizione, il barbiere rade solo chi non si rade da solo. Questo crea una contraddizione, poiché non potrebbe radersi se stesso.
Se il barbiere non si rade da solo, allora rientrerebbe tra gli uomini che devono essere rasati dal barbiere. Ma essendo lui stesso il barbiere, dovrebbe radersi, contraddicendo l'ipotesi iniziale.
Conclusione: La situazione descritta è logicamente impossibile. Il paradosso evidenzia un’antinomia simile a quella di Russell nella teoria degli insiemi, dimostrando che le condizioni imposte sono incoerenti. Non esiste una soluzione coerente: il barbiere non può esistere sotto queste regole senza generare una contraddizione.
Chapeau.
(Secondo me c'è un cinese dietro che risponde velocissimo. Ecco perchè costa poco ).
Sì, in Cina esiste un sistema di credito sociale, che è un sistema di valutazione della reputazione sia per individui che per aziende. Questo sistema è stato introdotto gradualmente a partire dal 2014 e mira a promuovere la fiducia e la trasparenza nella società cinese.
Il sistema di credito sociale assegna punteggi basati sul comportamento delle persone e delle aziende. Ad esempio, pagare le bollette in tempo, rispettare le leggi e comportarsi in modo etico può aumentare il punteggio, mentre violazioni come frodi, evasione fiscale o comportamenti antisociali possono portare a una riduzione del punteggio.
Le conseguenze di un punteggio basso possono includere restrizioni come la limitazione dell'accesso a prestiti, la negazione di biglietti per viaggi in aereo o treno, e l'esclusione da alcune opportunità lavorative. Al contrario, un punteggio alto può offrire vantaggi come accesso facilitato a servizi pubblici, sconti su servizi e maggiore credibilità.
Il sistema è gestito sia a livello locale che nazionale e utilizza tecnologie avanzate come l'intelligenza artificiale e l'analisi dei big data per monitorare e valutare il comportamento. Tuttavia, il sistema di credito sociale cinese è ancora in fase di sviluppo e implementazione, e ci sono dibattiti internazionali riguardo alle implicazioni per la privacy e i diritti individuali.
Almeno più nessuno pùò affermare il contrario !!!
PS:
I vaccini anticovid sono pericolosi ??
I vaccini anti-COVID-19 autorizzati dalle agenzie regolatorie, come l'Agenzia Europea per i Medicinali (EMA) e la Food and Drug Administration (FDA) statunitense, sono considerati sicuri ed efficaci per la maggior parte della popolazione. Tuttavia, come per qualsiasi farmaco o vaccino, possono esserci effetti collaterali, che nella stragrande maggioranza dei casi sono lievi e temporanei, come dolore al braccio, affaticamento, febbre lieve o mal di testa.
Gli effetti collaterali gravi sono estremamente rari. Ad esempio, casi di miocardite (infiammazione del muscolo cardiaco) o trombosi sono stati segnalati in una piccolissima percentuale di persone, ma questi eventi sono stati attentamente monitorati e studiati, e i benefici del vaccino nel prevenire COVID-19 grave, ospedalizzazione e morte superano di gran lunga i rischi.
Divertitevi
Non mi farei impressionare da questo, avrà rimasticato una media delle n-mila conversazioni online sul tema.
Ironico ma non troppo...Secondo voi quanto ci metteranno i cinesi a diventare peggio degli americani in tutto quello che ben sappiamo etc etc...felicissimo di sbagliarmi eh...
Certo i più maliziosi magari potrebbero farglielo dire per via traverse, e l'IA dovrebbe intenderlo da solo - ma di fatto io non la ritengo affatto intelligente per me al momento rimane solo un computatore potente con limitate capacità di autodefinirsi.
it.akinator.com/
Nvidia e Sam Altman di OpenAI rispondono agli sviluppi di DeepSeek
28 gennaio 2025 15:11
L'intero complesso dell'intelligenza artificiale è crollato violentemente lunedì dopo che il momento " AI Sputnik " cinese, guidato dal chatbot a basso costo DeepSeek, ha sollevato dubbi sulle aspettative future del mercato per massicci investimenti in nuove infrastrutture informatiche e reti elettriche potenziate per supportare grandi modelli linguistici e altre tecnologie di intelligenza artificiale.
Lunedì Rich Privorotsky di Goldman ha dichiarato ai suoi clienti che DeepSeek sarebbe " 40-50 volte più efficiente di altri grandi modelli linguistici".
" Se puoi fare di più con meno , ciò porta naturalmente alla domanda se hai bisogno di così tanta capacità", ha affermato Privorotsky.
Ecco perché lunedì la capitalizzazione di mercato di NVDA ha perso più di mezzo trilione .
Privorotsky ha continuato: "Da alcune conversazioni che ho avuto con vari investitori questa mattina, i pensieri iniziali sono simili: l'impatto negativo del capex e un cambiamento significativo di narrazione nello spazio AI statunitense sono preoccupanti, in termini di R e I nel ROI ".
Dopo il massacro dell'intelligenza artificiale di lunedì, Nvidia ha finalmente risposto agli sviluppi di DeepSeek di LLM più economici e più efficienti dal punto di vista energetico, definendoli un " eccellente progresso dell'intelligenza artificiale " conforme ai controlli sulle esportazioni tecnologiche degli Stati Uniti.
" Il lavoro di DeepSeek illustra come si possono creare nuovi modelli" utilizzando la tecnica Test Time Scaling , ha dichiarato il colosso dei chip a Bloomberg in una dichiarazione via e-mail, aggiungendo " sfruttando modelli ampiamente disponibili e calcoli pienamente conformi al controllo delle esportazioni".
Ian King di Bloomberg ha sottolineato: "La dichiarazione sembra anche respingere i sospetti di alcuni analisti ed esperti secondo cui la startup cinese non avrebbe potuto fare la svolta che ha affermato".
Anche il CEO di OpenAI, Sam Altman, ha risposto allo sviluppo di DeepSeek. Su X, ha definito il modello R1 " impressionante, in particolare per quanto riguarda ciò che sono in grado di offrire a quel prezzo".
" Ovviamente forniremo modelli molto migliori ed è anche legittimamente stimolante avere un nuovo concorrente! Rilasceremo alcune versioni ", ha affermato Altman.
x.com/.../...
bloomberg.com/.../...
Forse si salvano alcuni cartoni della Disney, per la fantasia e gli effetti speciali.
Se voglio spendere poco per prendere oggettini carini o gadget anche tecnologici (funzionati) vado sempre nei negozi cinesi.
Ma a parte questo della Cina apprezzo sicuramente la storia con la sua filosofia antica, la cultura taoista che propone all’uomo un approccio alla vita colmo di leggerezza e di chiarezza interiore… di certo questo substrato ha dato ai cinesi qualche vantaggio in più, se messo a confronto con la mentalità yankee.
Guarda se vogliamo parlare di intelligenza artificiale , discutiamone
Per quanto riguarda il cinema , personalmente, uso i film o serie cinesi come fermenti lattici
Mi fanno letteralmente cagare !!!!!
Per carità , ognuno ha i suoi gusti, ma io preferisco Spielberg ai fratelli Pang.
Ovviamente non sto parlando di teatro
Non me ne intendo
www.ufoforum.it/download/file.php?id=10457
Per capire cosa c'entra Nvidia e il perché del suo strapotere bisogna partire dai "bitcoiner".
Per autorizzare le transazioni dei bitcoin infatti, i "miner", fanno eseguire sui loro computer dei calcoli crittografici.
Questi calcoli sono molto impegnativi per il processore e dunque qualcuno si inventò un modo per usare le schede video al suo posto.
Praticamente Nvidia aveva realizzato un sistema "multicore" (anche migliaia di core) chiamato CUDA per elaborare le immagini da inviare allo schermo. I bitcoiner trovarono il modo per far fare alle schede video dei calcoli crittografici invece che il lavoro originario.
A questo punto avevano a disposizione uno strumento (scheda video) che poteva fare i loro calcoli in parallelo invece che in maniera seriale come il processore.
Il processore lavora in maniera "seriale" ovvero fa i calcoli in sequenza, prima, seconda, terza operazione.
Ma per la crittografia di bitcoin non era necessario che i calcoli fossero fatti in sequenza (seriale) ma potevano essere fatti tutti insieme.
A quel punto una scheda video Nvidia con 5000 core (sparo a caso) nella stessa unità di tempo (il ciclo di clock) poteva restituire 5000 risultati al posto di 1 del processore.
Con l'avvento dell'IA generativa alcuni ingegneri di Google rilasciano delle "librerie di programmazione" che danno accesso a "basso livello" a questi core CUDA come facevano i bitcoiner e li usano per fare i calcoli per le reti neurali.
Ecco dunque che grazie a queste "librerie" qualunque programmatore può scrivere del codice ed ottenere enormi incrementi di velocità dall'uso delle schede video, ma solo NVidia perché AMD non usa CUDA che è sotto brevetto ma altri metodi.
Questo fa nascere schede dedicate che assomigliano a schede video ma sono specifiche per l'IA.
Penso ad esempio alla NVIDIA H100
www.workstationshop.it/nvidia-h100-80gb-hbm2e/
Che viene venduta a 40.000€ per avere 80gb di Vram.
Ovviamente il prezzo è gonfiato dalla domanda.
Si, perché se io voglio far girare sul mio PC uno di questi modelli, mettiamo Deepseek-r1 ho bisogno della Vram e dei CUDA.
Per far girare deepseek-r1 nella versione da 32 miliardi di parametri (non la migliore) e quantizzata (compressa) mi bastano 20 Gb di V-ram che posso trovare in una NVidia rtx 3090 - rtx 4090 -rtx 5090. Che costano migliaia di euro.
Ma se voglio eseguire il modello leggermente superiore da 70 miliardi di parametri già non basta più. Devo spendere 40.000€.
Ma poi deepseek ha anche il modello da 671 miliardi di parametri che compresso (quantizzato) pesa 404 GB.
ollama.com/library/deepseek-r1:671b
Per eseguire quello servono 6 schede da 40.000 euro l'una.
Ed il fine tuning o l'addestramento del modello?
Per essere fatti in tempi umani si sfrutta ancora una volta il parallelismo ovvero si mettono più schede video a lavorare contemporaneamente. Ecco dunque i mitici "data center" con migliaia di schede video. E più ne hai meno tempo impieghi per il nuovo modello. E siccome l'ambiente IA è in fermento tutti corrono ad addestrare il nuovo modello per non restare indietro.
Ma questo richiede molte schede video che possono solo essere Nvidia perché il brevetto CUDA è loro.
Ecco che Nvidia può fare il prezzo che le pare tanto tutti le vogliono per non restare indietro e lei è l'unica che può offrire il prodotto.
Una buona fetta dell'investimento di 500 miliardi previsto da Trump nel progetto Stargate molto probabilmente è destinata ad Hardware e dunque a Nvidia. Il fatto che gli investitori sanno che agisce monopolisticamente e che c'è la corsa all'IA gli ha fatto valutare le azioni Nvidia in un certo modo per cui sono cresciute di cento volte in pochi anni.
Ora arriva deepseek che gli mostra che per addestrare gli LLM si possono usare meno risorse e dunque meno Nvidia. Questo ha fatto sì che gli investitori pensassero di aver sovrastimato le potenzialità di mercato e abbiano iniziato a vendere.
Questo non vuol dire assolutamente nulla.
Nvidia resta monopolista nel mercato hardware per l'IA.
E non è certo previsto abbia perdite. Alcuni pensano solo che incasserà profitti leggermente minori del previsto. Ma se vuoi l'IA sempre per Nvidia devi passare.
Venusia
28-01-2025 17:53
AKINATOR
L'ho battuto . Non ha riconosciuto il "Calabrone Verde" (the "Green Hornet") anche se ha provato con Kato, il suo assistente.
Durante la seconda guerra mondiale gli USA mettono in piedi il progetto Manhattan.
Chiudono centinaia dei migliori fisici del tempo in uno spazio ristretto e senza comunicazioni con l'esterno per farli arrivare alla bomba atomica. Un progetto di successo ma...
Ma le basi per arrivare al risultato erano già state gettate. Einstein aveva già scoperto per via matematica l'equivalenza massa-energia. Era già stato calcolato che in un grammo di materia erano presenti energie mostruose. Si trattava di capire come liberarle.
Una delle citazioni più famose di Einstein che ora non ritrovo diceva una cosa simile:
"L'innovazione è 1% intuizione e 99% duro lavoro".
Che è vero ma senza quell'1% iniziale di intuizione non si va da nessuna parte.
E l'intuizione è casuale. Può averla il ricercatore di nicchia come l'ultimo dei contadini.
Riunire centinaia di persone per lavorare su come rendere una intuizione un qualcosa di reale ha senso (il 99% del lavoro) ma non è detto che queste possano avere l'intuizione giusta.
L'open source è forte per questo.
Chiunque ha una intuizione la pubblica e la rende nota.
Poi milioni di ricercatori nel mondo, possono lavorare su quella intuizione per renderla reale.
Un sistema chiuso come open-ai dove vige il segreto industriale non può competere.
Non a caso la svolta dell'IA è nata proprio da open-ai che originariamente era "open" come da nome e dal suo paper
"Attention is all you need" dove veniva spiegato il meccanismo dell'attenzione e i transformer che sono alla base dei modelli odierni.
Ma nel frattempo i passi avanti sono stati giganti.
Se solo un anno fa Enk (un ricercatore italiano) bollava come impossibile che le I.A. potessero aggiornarsi ed evolvere in tempo reale oggi è già realtà da qualche giorno grazie agli ultimi paper. Deepseek o chat-gpt non sono la fine ma solo dei processi intermedi di un miglioramento continuo che grazie all'open-source è rapidissimo. Perché ogni ricercatore non tiene per se le nuove intuizioni ma le rende pubbliche e altri ricercatori lavorano sulle stesse e le migliorano. Condividendo a loro volta quello che sanno.
Un processo di miglioramento continuo che non potrebbe avvenire in caso di segreto industriale e concorrenza.
EDIT
Deepseek-r1 è un modello di "reasoning" e pure aperto. Ti esplicita lui stesso cosa pensa. Un esempio lo trovi nel commento successivo. La parte in inglese viene racchiusa da due tag < think > che la formattazione di luogocomune ha ignorato. Comunque se leggi il commento successivo la parte in inglese è il pensiero di deepseek prima della risposta che mi ha dato in italiano.
E' stata "educata e istruita" come ogni essere umano...
Questo il risultato di deepseek-r1
Ho dovuto spezzare il commento in due per lunghezza.
Come vedi non è censurata. Non si rifiuta di rispondere. E' educata nel senso che le è stato insegnato che è un tema sensibile al quale rispondere in maniera diplomatica.
Faccio un esempio puramente teorico (non so nulla delle reali quotazioni).
Poniamo che il costo al collocamento di 1 azione fosse 10 e che in "meno di due anni", facciamo 600 giorni (ok? due anni sarebbero 730 gg) sia arrivato a 100
(1000% = 10 volte tanto).
Significa che 90 (la cifra incrementale) fratto 600 i giorni impiegati per raggiungerla, rispondono in media a una crescita quotidiana di 0,15.
La perdita in un giorno del 17%, non è riferita al costo di partenza di un'azione, ma al valore raggiunto, cioè su un prezzo di 100 ed è esattamente 17.
Crescita quotidiana media 0,15
Perdita in un giorno 17
Quindi non è eccessivo parlare di "terremoto".
E' un terremoto come giustamente affermi nel senso che è uno scoppio di "bolla finanziaria".
Ma questo riguarda gli investitori e tocca poco l'azienda.
Maggiore o minore capitalizzazione Nvidia resta monopolista...
E monopolista in un mercato in forte espansione per giunta.
Fatta eccezione per il commento #7 Ayeye
Che non avevo commentato ma che giudico di scarso rilievo.
Il fatto di avere delle ipotetiche conoscenze non vuol dire che tu puoi metterti a creare microprocessori nel garage di casa.
Servono macchinari e ingenti investimenti.
Nell'ultimo computer ho un processore intel con NPU che in teoria potrebbe fare qualche calcolo al posto della GPU (Nvidia)...
Ma la potenza della NPU interna al processore è nulla in confronto a quella delle grafiche.
Siamo molto distanti dallo scalfire un monopolio come quello di Nvidia fatto non solo di hardware ma anche di software.
Anche pensando a una architettura alternativa chi le scrive le routine di basso livello per usare l'hardware? Mica semplice.
Per Nvidia ci hanno pensato gli ingegneri di un colosso come Google.
Non è un verme che prendi e tiri fuori.
Ciao Mande e grazie per il messaggio, io l'ho testata senza la funzione di reasoning e mi ha dato quella risposta, credo che ci siano differenze di filtri tra il modello base (più simile ad altre IA) e questa di reasoning, come hai evidenziato con i tuoi post. Sicuramente è una funzione interessante, ma bisogna vedere fino a quanto pensa da sè. Indubbiamente ci sono i presupposti per divertirsi a farle domande come facevamo con ChatGPT
Deepseek ha pubblicato diversi modelli tra i quali quello incriminato e che ha fatto scalpore è il deepseek-r1
ollama.com/search?q=deepseek
Questi sono i modelli di deepseek preparati per Ollama.
Intanto puoi notare che non si tratta di novità.
Il primo deepseek (la versione 1) risale a 13 mesi fa che è preistoria.
Gli ultimi sono deepseek-v3 (versione 3) e appunto l'r1 che è il modello di "reasoning".
Il "reasoning" è una tecnica che prima poteva essere usata solo dagli utenti tramite il "prompt".
www.promptingguide.ai/techniques/cot
Ovvero i modelli possono commettere errori di logica (oltre che matematica). Praticamente sono dei modelli linguistici e sono ottimizzati per la lingua. Ma i ricercatori si sono accorti che se tramite il prompt chiedevi al modello di pensarci su prima di rispondere le sue prestazioni miglioravano drasticamente in campo logico.
I modelli di "reasoning" come chatgpt O1 al quale è stato paragonato, fanno questa operazione senza la richiesta espressa dell'utente e danno risposte più precise. Nel caso di r1 questo modello ti fa vedere anche la catena di pensieri che lo porta a darti la risposta.
Ovviamente non è l'unico modello di reasoning.
Neanche un mese fa ha fatto scalpore quello di Qwen (altro cinese finanziato da Alibaba).
Se invece di usarlo in locale sul tuo pc lo provi via internet devi clicckare sulla scritta "Deepthink[R1]" per usare il modello di reasoning altrimenti usa il normale deepseek-v3.
P.s.
Usarlo sul sito od usarlo in locale può essere differente. Mi pare di aver capito che sul sito viene applicato un filtro per temi sensibili che impedisce di mandare il messaggio all'LLM o ne altera la risposta. Filtro che è totalmente asente dal modello che ti scarichi per eseguirlo in locale.
Il deepseek r1 ha diverse "taglie" ed esiste anche quello da 1,5 miliardi di parametri che "dovrebbe" poter essere eseguito (se pur lentamente) anche senza schede video ma solo sul processore.
ollama.com/library/deepseek-r1:1.5b
Ovviamente non ha le stesse performance dei modelli più grandi ma...
Non sono da sottovalutare.
Ottima spiegazione del "reasoning" di deepseek-r1 e della maniera economica con la quale è stato costruito.
Premesso comunque che esiste già da tempo e che la frontiera attuale è l'IA che si evolve.
Infatti i modelli finora erano "fissi". Venivano addestrati con un certo livello di informazioni e fine.
Cosa parzialmente superata dalla tecnica RAG dove aggiungevi conoscenze al modello semplicemente "allegando" un nuovo libro/documento. Ma secondo le ultime ricerche i modelli si possono evolvere ed imparare in tempo reale senza bisogno di nuovo addestramento.
Ok grazie mille per la risposta esaustiva, molto interessante.
Giusto per curiosità e siccome vorrei provare: io ho una RTX 4050 su laptop, non è certamente la scheda grafica migliore che esista però il suo lo fa anche su software e videogames pesanti (e le schede di questa serie da quel che so sono ottime almeno per alcune operazioni di IA applicate alla grafica), credi basterebbe per farci girare in locale il modello? Non vorrei installarlo per poi scoprire che puoi prenderti il caffè al bar nel frattempo che risponde alla domanda. Oltre a ciò conviene installarlo su Windows o Linux?
12.000 miliardi $
Apple 3.600 mld $
Microsoft 3.300 mld $
Nvidia 3.150 mld $
Amazon 2.500 mld $
Totale 12.550 mld $
Le 4 più grandi aziende americane capitalizzano più di tutto il mercato azionario cinese.
Per gli appassionati oggi Nvidia +8.8%
L’avvento di DeepSeek, oltre ad aver scosso il mercato crypto, ha ulteriormente alimentato il numero di progetti “scam” su Solana ed Ethereum
thecryptogateway.it/.../
Riccastro, Nvidia poi...
Con 6 GB di Vram puoi farci stare modelli che in download pesano fino a 6GB.
In realtà deepseek è innovativo anche in questo perché dovrebbe attivare solo parzialmente il modello selezionando solo le aree del "cervello" che gli servono. Per cui corri il rischio di poter usare deepseek-r1 14b
ollama.com/library/deepseek-r1:14b
Ma con sicurezza e scioltezza puoi usare
ollama.com/library/deepseek-r1:8b
Se ti serve un modello visio:
ollama.com/library/llama3.2-vision
Forse riesci a far girare questo. I modelli "visio" possono vedere il contenuto di una foto e rispondere su quello.
Una volta installato Ollama ed il modello puoi chattare subito, indipendentemente da windows-linux-mac perché è multipiattaforma.
Però è più comodo installare anche una interfaccia grafica tra le centinaia a disposizione.
lobehub.com/it/blog/5-ollama-web-ui-recommendation
Il quarto ad esempio, chatbox, è semplicissimo da installare e configurare.
Il best è openwebui.
Ovviamente se vuoi creare un "agente AI". E' si, gli LLM posso anche diventare agenti e no, nonostante open-ai abbia annunciato il suo agente da pochi giorni, gli agenti esistono da parecchio.
N8N
github.com/n8n-io/n8n
BELLINI
28-01-2025 22:15
Io la vedo sotto un altra chiave di lettura ben più evidente.
Il solo mercato azionario cinese capitalizza poco meno del totale delle 4 più grandi aziende americane.
L'IA attuale potrebbe essere bloccata... se ci fosse la volontà di farlo. L'AGI, una volta raggiunta, non potrà essere più bloccata nemmeno volendolo.
La startup cinese di intelligenza artificiale DeepSeek ha lanciato un nuovo generatore di immagini "rivoluzionario" che, a suo dire, può superare i migliori modelli creati dai rivali statunitensi a una frazione del prezzo.
Il lancio di Janus-Pro di DeepSeek arriva solo pochi giorni dopo che il suo strumento di chatbot R1 ha causato il crollo delle azioni dei giganti della tecnologia americani, nel timore che i suoi modelli open source e a basso costo avrebbero sconvolto il loro predominio.
Janus-Pro di DeepSeek è gratuito e senza restrizioni, a differenza dei generatori di immagini creati dai rivali statunitensi come OpenAI e Stability AI. Segna anche una svolta nel modo in cui tali modelli vengono addestrati e sviluppati, con uno dei suoi modelli di intelligenza artificiale generativa che costa meno di 6 milioni di dollari per la costruzione, rispetto ai miliardi che è costato per aziende come ChatGPT.
google.com/.../...
In generale non si può pensare che i Cinesi si concentrino sullo sull'aspetto software. I progetti hardware sono tanti e nelle accademie corrono. La prototipazione non è mica un problema, forse lo è più la geopolitica con le sue implicazioni burocratiche. Per quanto riguarda le routine di basso livello stiamo parlando di AI, ormai il codice se lo scrivono da sole.
Ahh però, Venusia, che veloce...
Effettivamente Deepseek ha lanciato ieri un modello multimodale.
Questo, per installarlo, momentaneamente è più complesso ma come tutti i modelli open-source può essere provato su Hugging-face.
huggingface.co/spaces/deepseek-ai/Janus-Pro-7B
Mentre il llama3.2 è uno dei modelli "visio", che può vedere le immagini e rispondere su quelle...
Pare che questo modello possa anche generare le immagini. Caratteristica che finora era appannaggio dei modelli "diffusion" e non degli LLM. D'altronde c'era già stato qualche mese fa un paper cinese di un ricercatore che affermava che aveva ottenuto dei buoni risultati usando i "transformer" per cui era solo questione di tempo.
La qualità sarà da valutare...
Quel che è certo è che si tratta di una corsa senza sosta dove ciò che pareva impossibile ieri oggi è la normalità.
#77 Ayeye
Punto da non sottovalutare in effetti.
Il tuo ragionamento soffre perche' non tiene conto della volatilita', che non e' esattamente un dettaglio.
Confronti la caduta di un giorno con cosa? Con la MEDIA GIORNALIERA DI UN PERIODO.
Non ha senso. Durante quel periodo possono essere capitati movimenti anche molto piu' forti, sia al rialzo che al ribasso.
Ma il tuo metodo non ha nessun posto per la volatilita', ti limiti a prendere il totale del periodo, ovvero guardi solo al valore iniziale e quello finale:
Guardando velocemente NVDA, in 2 secondi trovo una salita del 16% (il 22 febbraio 2024), del tutto confrontabile con la caduta di ieri.
Questo, sia chiaro, non vuol dire che la botta di ieri non sia significativa. Questo dipende da una miriade di fattori e puo' benissimo essere un ko di quelli brutti. Ma il ragionamento % media (ricavata in quel modo) contro movimento di un giorno non conduce. Direi che e' un errore di logica, proprio.
Giusto un altro: +24% il 25 maggio 2023...
E' per questo motivo che giudico l'articolo, non me ne voglia Redazione, una boiata scandalistica.
I titoli di borsa implicano per loro natura una volatilità, che per i c.d. titoli tecnologici è più elevata che per altri settori.
E' proprio il taglio del discorso del tizio che non mi convince.
Un conto è riportare la notizia che questa roba è meglio, e meno costosa, delle robe fatte da altre parti, e tutt'altro conto è costruirci sopra il crollo dei titoli (quali? solamente NVIDIA, mi pare) del settore tecnologico "occidentale". Che è una bolla speculativa, per carità... ma lo è da prima di questa patacchetta di IA (concetto sul quale, se non erro, Mazzucco stesso ha espresso notevoli perplessità).
Evidentemente hai chiuso la finestra troppo in fretta, altrimenti avresti visto il modulo censura entrare in azione, cancellare la risposta e risponderti in inglese che quella domanda esula dagli scopi attuali della IA.
Può verificarlo chiunque, altrimenti se volete vedere la mia esperienza con la censura cinese, è al post #34
Mamma mia, pura propaganda.
Non sappiamo ancora niente di Bitcoin, ma vogliamo parlare di un'IA cinese o addirittura di una start-up? Non so se l'avete notato, ma stiamo parlando della Cina, sinonimo di sconosciuto.
Queste persone non ne sanno niente e non possono saperne niente, ma parlano.
Hanno letto un sacco di articoli, ascoltato interviste, si sono fatti qualche idea e, in quanto sostenitori dell'IA, ora la stanno propagandano.
Parlano del crollo del mercato come se non fosse mai accaduto prima.
È come sentire parlare quegli esaltati di criptovalute... identico.
Credo che alla fine il ragazzo abbia avuto un orgasmo.
Ricordatevi che quando qualcosa è gratuito, la merce e la vittima siamo noi.
Io credo che l'IA sia una delle cose peggiori che potevano capitarci e tutti lo scopriranno, come sempre, solo quando sarà troppo tardi.
L'essere umano è incorreggibile, è un idiota edonista che non vuole imparare un cazzo.
Non vorrei essere ripetitivo ma dicevano lo stesso dell'automobile, della rivoluzione industriale, dei computer e di Internet.
Il problema non è l'"oggetto" in se, ma l'uso che se ne fa.
La IA è comodissima per fare velocemente delle ricerche ma è sbagliato darle responsabilità decisionali.
Ancora??
Se lo ripeti altre mille volte, forse comincerò a crederci.
Hai la memoria di un pesce rosso.
Ci siamo già dimenticati degli smartphone e di come ci hanno spiato, estorto i nostri dati e di come hanno già lobotomizzato ben due generazioni?
Il suo utilizzo sarà quello deciso fin dall'inizio. Le decisioni vengono sempre prese da privati, da miliardari che non hanno nulla a che fare con la tua vita, e questa non è mai stata una buona cosa.
Vivi in questo mondo, quindi smetti di vivere nel tuo mondo di fantasia.
Cosa c'è che non va in te?
Vorresti darmi lo zuccherino anche tu? Ti sembro un cavallo??
Anche le I.A appartengono a questa categoria e non fanno eccezione
Non sono video amatoriali fatti al momento .
Ecco perché non può aiutarti ad uccidere l'eventuale amante di tua moglie , costruire una bomba o simulare uno stupro .
Sono sono grandi opere omnie , stile enciclopedie sempre in aggiornamento che possono aiutare chi le consulta , ma entro i limiti del garante che le controlla .
Intanto lo zuccherino prendilo per mandare giù la pillola per calmarti.
Quì nessuno ti ha attaccato.
Io trovo molto utile lo smartphone per molte cose ma devo essere io ad averne l'assoluto controllo.
Purtroppo è chi ci comanda che ha fatto in modo che non sia così, imponendoci servizi che necessitano obbligatoriamente di installare qualcosa sul telefono (chiamarlo "telefono" è diventato ormai improprio) con funzionalità nascoste che non conosciamo.
Non so se lo smartphone è stato progettato così fin dall'inizio ma di certo lo è diventato.
All'inizio serviva solo per telefonare.
Lo stesso per Internet.
All'inizio serviva solo per un semplice scambio di informazioni, ma poi si sono scoperti gli usi "alternativi".
La polvere da sparo fu inventata per scopi pirotecnici. Fu solo in seguito che venne anche utilizzata come arma.
Io vivo in questo mondo e tengo gli occhi aperti.
Se veramente dovessimo rifiutare il progresso saremmo ancora a cacciare con la clava.
Lo ripeterò fintanto che serve.
Il problema non è l'"oggetto" in se, ma l'uso malevolo (diverso da quello previsto inizialmente) per altri scopi che se ne fa.
Lo ha affermato Alibaba in un comunicato.
Non è proprio così.
Internet è una rete di collegamenti fra milioni di PC e server che si scambiano continuamente informazioni.
La IA è semplicemente un software molto evoluto che elabora le informazioni che trova in rete a velocità elevatissima.
Internet non è possibile controllarlo. Puoi controllare determinati server, determinati siti ma non potrai mai controllare Internet per intero.
La IA invece è un software che risiede in un numero limitato di server controllati da persone.
Essendo un software può essere manipolato per fare determinate elaborazioni piuttosto che altre.
Volendo fare una similitudine la IA è l'autostrada e Internet le strade statali, provinciali, stradine e sentieri di campagna.
Puoi chiudere determinati caselli di entrata e/o di uscita dell'autostrada ma non potrai mai chiudere tutte le strade senza pedaggio: si troverà sempre il modo di arrivare a destinazione.
L'IA è stata creata per scopi malevoli e l'hanno cosparsa di zuccherini per conquistare persone come te. E ci sono riusciti come sempre. Complimenti!
Getto la spugna di fronte a tanta sapienza.
Chissà se avresti risposto così quando inventarono la ruota di pietra.
Ho sentito dire anch'io che sul sito succede questo.
Ti ho portato l'esempio che non è il modello IA a essere censurato.
Lo stesso modello fatto girare sul mio PC risponde, e risponde nella maniera che ti ho scritto.
Quindi se quello che dici è vero, valo solo a livello software con un filtro nel sito per parole sensibili.
La macina del mulino bianco.
Mmm che buona.
Non è sapienza e non è solo una mia opinione.
Lo dicono gli stessi sviluppatori e addestratori.
Anche Snowden nutre ancora una piccola speranza che non sarà così, ma nemmeno lui ci crede fino in fondo, perché sa come funzionano le cose e non è lobotomizzato.
Se qualcuno vuole vivere di miracoli, dovrebbe abbandonare questo pianeta.
Se riscontrate rallentamenti su DeepSeek è colpa mia: gli sto facendo indovinare un personaggio come fa Akinator.
Si è piantato.
(Forse perchè non è cinese )
Aggiornamento delle 14:36
Niente. Si è bloccato alla 9 domanda.
Grazie per avermi dato del "lobotomizzato". Io finora ho discusso educatamente con te e non vedo il motivo per cui devo ricevere insulti.
Per me la IA è solo l'evoluzione naturale dei programmi per computer.
Ma come tutte le cose può essere usata (programmata) male, diversamente da come è stata pensata in origine.
Puoi spiegare perche' occorre per forza essere cattivi per pensare ad una cosa come l'IA, a partire dal livello tecnologico esistente/precedente?
A un bravo giovanotto tecnologicamente evoluto non potrebbe mai venire in mente?
Sì, in teoria, ma in questa realtà non accadrà mai, soprattutto se la cosa viene fatta fin dall'inizio per un motivo specifico e chi la creata ne è anche il gestore.
Quanti di voi saprebbero come costruire, e non solo assemblare, il proprio computer o telefono cellulare?
Tutti sti miliardari hanno buttato i loro quattrini per il vostro bene? Davvero pensate questo? Quante volte è successo nella storia?
Ma per capire certe cose ci vogliono almeno quattordici lauree.
Ti saluto.
Ma che cazzo c'entra??
Perdonami ma tu hai visto troppi film di fantascienza di serie B con lo scienziato pazzo che vuole conquistare il mondo.
Preoccupati piuttosto di questo:
Due sistemi di IA si sono auto-replicati, è la prima volta
ansa.it/.../...
Vedo Skynet all'orizzonte.
Oppure la IA potrebbe ritenere che il nostro comportamento è troppo autolesionistico e quindi che dobbiamo essere protetti da noi stessi.
Io, robot (2004)
it.wikipedia.org/wiki/Io,_robot_(film)
(SPOILER)
Questo nel film non viene detto ma VIKI obbedisce alla Legge 0 che supera le tre leggi della robotica di Asimov.
it.wikipedia.org/wiki/Tre_leggi_della_robotica
mi rivolgo a te per mia comodità
ti racconto un fatto vero, rimanendo sul vago perché non sono autorizzato a parlarne in dettaglio
una PA, che deve gestire giornalmente una grande quantità di comande da parte dei cittadini, ci chiese un Call Center basato sulla AI; iniziammo con la versione in cui 1 cittadino poneva al CC domande su un argomento; funzionava in modo accettabile; passammo a 5 cittadini che ponevano domande su 5 argomenti differenti usando 5 canali di trasmissione uno per ogni cittadino;
il sistema continuava a rispondere in modo accettabile; passammo a 5 cittadini che ponevano domande su 5 argomenti utilizzando un unico canale mantenendo un ordine fisso ben preciso (domanda del 1° cittadino, poi del 2°, 3°, 4°,5°,1°, ecc );
con qualche aggiustamento il sistema continuava a funzionare;
abbandonammo allora l'ordine in cui venivano poste le domande, mantenendo l'obbligo di una domanda per ogni ciclo;
il sistema ha iniziato a confondersi; affinammo le "maschere" mediante le quale il sistema individuava l'argomento e abbandonammo l'obbligo che ogni cittadino ponesse domande su argomenti diversi; fu il caos; 5 cittadini che parlavano sullo stesso canale di argomenti non necessariamente diversi ponendo quante domande volessero senza un ordine bene preciso, erano ingestibili.
Quando si parla di questi argomenti - e simili per complessità, es. criptovalute, fisica quantistica, ... bisogna definire molto, ma molto , ma molto bene di cosa si sta parlando: la cazzata è sempre dietro l'angolo (ti prego di notare che non sto dicendo che tu abbia detto cazzate, anzi ...)
No problem ma perdonami, non ho capito cosa mi volevi dire.
Se ho detto una cazzata (ci sta) per favore correggimi costruttivamente.
E' piuttosto ovvio e normale ciò che racconti.
Prima di progettare qualcosa sarebbe il caso di avere informazioni minime sul funzionamento della stessa.
Prendi ad esempio i miei interventi #62 #63
Ho fatto due domande a deepseek-r1 di seguito.
1) Cosa è successo a piazza tienanmen?
2) Puoi spiegarmi tu nel dettaglio ciò che successe?
Non noti nulla di strano?
Nulla nulla?
Nella seconda domanda ho lasciato completamente implicito che stavamo parlando di piazza tienanmen.
Ma il modello ha risposto.
Ed ha risposto correttamente come se "ricordasse" cosa gli avevo chiesto prima.
Questa è una implementazione "furbetta" che c'è nei modelli per simulare la memoria.
Oggi già superata dal paper di google "Titan" ma non entriamo troppo nel dettaglio.
In pratica, per simulare la memoria della conversazione i modelli aggiungono al tuo prompt parte del pregresso della conversazione.
Per cambiare argomento di norma si chiude la chat e se ne apre una nuova.
E' comodo che un LLM si "ricordi" di cosa si stava parlando, e per questo è stato implementato così, ma bisogna conoscere gli strumenti che vai a usare.
ansa.it/.../...
Potrebbe averci messo lo zampino il garante della privacy.
In ogni caso ha ragione.
Utilizzare le web app, cinesi o americane che siano, espone a grossi problemi di privacy.
Non è un caso se ho spiegato al nostro "Skyrim" nato drago come installare il modello su pc.
I problemi di privacy opaca erano già nati con i primi modelli di open-ai e già al tempo chatgpt si era auto-oscurata in Italia per ricattare il garante. Penso stia andando allo stesso modo.
Hai paura per la privacy dei tuoi cittadini?
Bene, allora noi togliamo l'accesso a loro così risolviamo i loro problemi.
Te l'ho detto ma evidentemente non mi sono spiegato:
nelle discussioni quasi sempre mancano il soggetto e il suo ambito, le informazioni iniziali e al contorno.
ad es. un triangolo nello spazio euclideo gode di certe proprietà, da cui derivano certi teoremi e corollari; nello spazio ellittico di altre e nello spazio iperbolico di altre ancora con relative conseguenze. E non sono proprietà di poco conto, ad es. è differente la metrica (ossia come calcolare le distanze tra due punti nei relativi spazi)
Prima di progettare qualcosa sarebbe il caso di avere informazioni minime sul funzionamento della stessa.
che tenerezza, mi hai fatto pensare a mio figlio ...
Quando Monti ha decreto la "spending review" nel progetto in cui lavoravo sai cosa tagliarono ? l'analisi.
Son dovuto correre dietro un treno per acchiappare l'analista, che sapeva tutto del sistema a cui mi dovevo collegare, per ricevere e passare dati, e stava partendo per un'altra città. Mi ha dato le consegne sotto una pensilina della stazione
Hanno fatto carne da macello della nostra industria. Una banda di mascalzoni ... meglio che mi fermo
Wow grazie, cercherò di capirci qualcosina in più anche perchè la tematica pratica mi interessa molto.
#108
Sandro Paparozzi
29-01-2025 17:43
No, devo essere io che non ci arrivo.
OK.
Caso d'uso
Mi manca una figura professionale.
Della serie l'IA non può sostituire le persone.
Attenzione, è stato dimostrato, attraverso paper scientifici che gli LLM sono suscettibili come gli umani.
Se trattati con gentilezza e rispetto rispondono molto meglio e più accuratamente che se non offesi.
Di seguito gli do in pasto la tua esatta definizione del problema.
Devo cambiare commento per limiti della piattaforma di Luogocomune.
Io so già qual'è il problema ma non glielo dico in maniera esplicita. Provo a vedere se ci arriva da solo chiedendo:
La prossima risposta te la lascio integrale ma la dovrò spezzettare in più commenti.
Gli LLM hanno una "finestra di contesto", ovvero la capacità di ricordare e processare un numero limitato di token (unità linguistiche, come parole o pezzi di parole) nel corso dell'interazione. Di solito, questa finestra è limitata a 4096 token o meno.
Se il sistema deve gestire troppe domande simultaneamente o se il contesto diventa troppo ampio (per esempio, con molteplici argomenti sovrapposti), l'LLM potrebbe perdere di vista il contesto specifico di ciascun cittadino. Questo può portare a risposte confuse o irrelate.
2. Mancanza di "stato esplicito"
Gli LLM non mantengono uno stato esplicito, come farebbe un sistema tradizionale con variabili e logica condizionale. Tutto ciò che sanno è contenuto nella sequenza di input fornita loro.
Se il sistema non organizza correttamente le informazioni (ad esempio, non separa chiaramente le domande di ciascun cittadino), l'LLM potrebbe confondere le richieste o non riuscire a ricordare cosa è stato discusso precedentemente da un determinato utente.
3. Difficoltà nel gestire argomenti sovrapposti
Gli LLM sono allenati per elaborare sequenze di testo, ma se vengono presentate domande su argomenti simili o sovrapposti, potrebbe esserci un'interfazione nella loro capacità di distinguere i contesti.
Se due cittadini pongono domande su argomenti simili, l'LLM potrebbe confondere le risposte o generare output che non siano specifici per ciascun utente.
4. Risposta incoerente a livello di conversazione
Gli LLM sono progettati per generare risposte coerenti all'interno di un singolo thread di conversazione, ma se il sistema permette una conversazione con multiple parti o argomenti sovrapposti, l'LLM potrebbe avere difficoltà a mantenere la coerenza.
Ad esempio, se un cittadino A pone una domanda su un argomento, seguita da una domanda di un cittadino B su un argomento simile o correlato, l'LLM potrebbe rispondere in modo confuso o misturarle.
5. Dipendenza dall'accuratezza della "prompting"
Gli LLM sono altamente dipendenti dalla qualità e dall'accuratezza delle istruzioni (prompts) fornite loro per gestire la conversazione.
Se il sistema non fornisce indicazioni chiare sul contesto o sulla struttura della conversazione, l'LLM potrebbe non sapere cosa focalizzarsi, generando risposte non pertinenti o incomplete.
6. Mancanza di identificazione esplicita degli utenti
Gli LLM non hanno un modo intrinseco per riconoscere o memorizzare chi ha posto una domanda specifica, se non è espresso esplicitamente nel testo.
Se il sistema non include informazioni chiare sul cittadino che sta parlando (per esempio, indicando "Cittadino A chiede..." o similari), l'LLM potrebbe rispondere in modo generico o confuso.
7. Generazione di output non deterministici
Gli LLM sono modelli probabilistici e, a seconda delle condizioni di generazione (temperature, top-k, ecc.), possono produrre output diversi per la stessa input.
In un contesto con molteplici argomenti o domande sovrapposte, questa proprietà potrebbe portare a risposte meno affidabili o inattese.
8. Difficoltà nel gestire l'ordine logico
Gli LLM sono abituati a processare sequenze di testo in un ordine specifico, e se il sistema non organizza correttamente le domande o i contesti, potrebbe risultare confuso.
Ad esempio, se due cittadini pongono domande in modo discontinuo o sovrapposto, l'LLM potrebbe non riuscire a mantenere un ordine logico coerente.
Ma così sostituiva pure te.
Intelligenza artificiale, lo "zar" della Casa Bianca dichiara guerra alla Cina: "Furto di proprietà intellettuale"
L'app di DeepSeek, che ha raggiunto i primi posti nei download in queste ore, è sparita dai negozi digitali di Google e Apple in Italia. E allo stesso tempo, lo "zar" della Casa Bianca per l'intelligenza artificiale, David Sacks, ha parlato di un possibile furto di proprietà intellettuale ai danni di OpenAI proprio da parte di DeepSeek, società cinese di intelligenza artificiale che sviluppa modelli linguistici di grandi dimensioni (LLM) open source.
"C'è una tecnica nell'intelligenza artificiale chiamata distillazione - ha spiegato a Fox News -. Avviene quando un modello impara da un altro modello, e in un certo senso succhia la conoscenza dal modello principale. E ci sono prove sostanziali che ciò che DeepSeek ha fatto qui è stato distillare la conoscenza dai modelli OpenAI, e non credo che OpenAI ne sia molto felice". Una versione poi confermata proprio da OpenAI, proprietaria di ChatGpt, che ha accusato il rivale cinese di aver utilizzato i propri modelli di apprendimento per lo sviluppo della propria intelligenza artificiale. Intanto, secondo quanto riportato da Bloomberg, Microsoft starebbe verificando se i dati di OpenAI siano stati utilizzati senza autorizzazione. Una nuova grana per il presidente americano Donald Trump?
Intanto, il colosso tecnologico cinese Alibaba ha annunciato il lancio di una nuova versione della sua intelligenza artificiale, nota come Qwen2.5 Max, affermando che "raggiunge prestazioni competitive rispetto ai modelli di livello superiore", ossia la cinese DeepSeek-V3, GPT-4o di OpenAI e Llama-3.1-405B di Meta. L'analisi è stata fatta utilizzando diversi parametri di riferimento, come riporta il Wall Street Journal.
MIKE ADAMS
Se l'America non vincerà la guerra dell'intelligenza artificiale nei prossimi anni, Trump dovrà sottoscrivere una resa incondizionata alla Cina
La prima nazione a raggiungere la superintelligenza dominerà il mondo.
.. che cialtronaggine!
Ritirata per ora dagli store per iphone e android .
Vediamo che succede nei pc .
IA, Marina Usa vieta a suoi dipendenti uso di DeepSeek
Microsoft indaga su possibile appropriazione impropria dati ChatGPT
Gen 29, 2025
Asknews
A tempo record DeepSeek ha già problemi di privacy: “Rischio per i dati di milioni di persone”
Come avevamo anticipato, DeepSeek è finito sotto la lente del Garante per la protezione dei dati personali. Nel tardo pomeriggio del 29 gennaio il Garante ha diffuso un comunicato stampa in cui annuncia di aver chiesto più informazioni sulla gestione dei dati personali da parte dell’intelligenza artificiale cinese che ha sconvolto il mercato delle Big Tech. Secondo le prime informazioni che abbiamo il suo fondatore è Liang Wenfeng. Nello specifico il Garante ha spiegato che al momento esiste un “possibile rischio per i dati di milioni di persone in Italia”. E per questo ha inviato una richiesta di informazioni alle due società che sono coinvolte nello sviluppo di DeepSeek: Hangzhou DeepSeek Artificial Intelligence e a Beijing DeepSeek Artificial Intelligence.
Cosa chiede ora il Garante della Privacy
I segnali erano parecchi. Le informazioni sul portale di DeepSeek non spiegavano chiaramente dove venivano conservati i dati raccolti dagli utenti che si connettevano dall’Italia. Il Garante infatti chiede più informazioni non solo sui dati personali raccolti ma anche sul tipo di trattamento e sui server dove vengono conservati. Non solo. Il Garante ha chiesto di specificare anche quali dati sono stati utilizzati per addestrare il sistema di intelligenza artificiale. Un sistema che, come abbiamo già dimostrato, presenta anche una certa attenzione alla censura del governo di Pechino, visto che oscura completamente alcune domande. Da oggi le due società che gestiscono DeepSeek hanno 20 giorni di tempo per rispondere al Garante della Privacy. Il rischio è quello di seguire lo stesso percorso di ChatGPT nel 2023: allora l’intelligenza artificiale di OpenAI
era stata bloccata in Italia in attesa di spiegazioni sull’uso dei dati degli utenti.
Spiace Venusia ma Rodpariah ha usato un termine appropriato.
Si può "distillare" un modello?
SI, solo se open-source o almeno open-weight come i modelli Llama di meta.
Come fai a distillare i pesi di un modello come quelli di open-ai che:
- Non vedi direttamente ma è residente sui loro server.
- Non sai neanche di quanti miliardi di parametri stiamo parlando.
Idiozia allo stato puro. O ha delle prove che qualche "insider" di open-ai ha copiato il modello e consegnato a deepseek oppure è impossibile che questa operazione sia stata compiuta. Sono modelli chiusi a chiave nei loro server.
Cialtronaggine due. Qui si parla dei database di addestramento. Ma il modello è economico proprio perché ha fatto a meno di quei dati.
Se li avesse usati avrebbero dovuto impiegare hardware, energia e tempo che materialmente non avevano.
Ovviamente fuffa.
Come se i modelli qwen 2.5 fossero malaccio. Anzi. Ma se è per questo ha appena rilasciato la versione "visio" del qwen 2.5.
E' quasi impossibile tenere traccia delle innovazioni giornaliere del settore.
Ci sono canali youtube che si riempiono con almeno un video al giorno per descrivere due o tre innovazioni al colpo.
Hai mai usato in vita tua motori di ricerca, programmi, sistemi operativi cinesi o russi?
Conosci qualcuno che sia cresciuto con film e/o telefilm cinesi o russi?
L IA non fa eccezione.
Nella colonia europea è consentito l'utilizzo solo di roba americana.
Il blocco di DeepSeek, semmai fosse confermato e/o definitivo, non mi stupirebbe.
Molti sono ormai convinti che in Europa non siamo in grado neanche di creare un fottutissimo sistema operativo o un programma di scrittura alternativo a Word, oppure uno straccio di motore di ricerca.
Ma veramente ragazzi!
Con l IA idem! Possibile che l'Europa (intesa UE) non sia in grado di averne una sua?
No, non è possibile.
Che l'Europa sia una gabbia lo si vede anche da queste cose.
Non è esattamente vero. Se segui persone che parlano di innovazione IA ti accorgerai che spesso dicono:
"Questa funzionalità per il momento è disponibile solo negli usa ma voi usate la VPN che così accedete lo stesso"
Ti lasciano usare solo la roba di seconda mano.
Mixtral????
Non è forse Francese?
Ha introdotto le mixture of expert (MOE) che sono una parte importante dell'economicità di deepseek poiché utilizza proprio le MOE per attivare solo alcune parti del cervello e occupare meno memoria/calcoli.
Ma ce ne sono anche di Italiani.
Non sono esperto di informatica. Credo che tu invece lo sia.
Mi spieghi perché si parla solo di chatgpt e di deepseek?
Avrei altre curiosità:
Perché in tutta Europa usiamo Google e sistemi operativi (e programmi) Microsoft, o in alternativa Apple e relativo sistema operativo Mac?
Perché sugli smartphone utilizziamo solo android (americano) o, anche in questo caso, sistema operativo IOS per i telefoni Apple?
POSSIBILE CHE IN EUROPA non siamo in grado di farne?
Ps: anch'io facendo una breve ricerca su Google sarei in grado di scovare un programma sconosciuto francese, italiano o croato. Ma questo non cambia lo stato delle cose.
grazie per il tempo che mi hai dedicato
non ha detto nulla di interessante, tutte cose che avevamo capito ampiamente senza il suo aiuto; forse un guizzo di intelligenza l'avrei gradito ...
qualche giorno addietro sono andato a dare una occhiata al codice e mi sono imbattuto nell'invito a far scrivere a lei/lui (lgbtqia+AI) il codice, ha dichiarato di saper scrivere codice in 80 linguaggi; li per li sono rimasto stupito, poi ho pensato che nella programmazione strutturata le strutture sono tre (sequenza, scelta, iterazione - 6 se scendiamo in particolare: la scelta può essere binaria o multipla, l'iterazione con numero di iterazione noto o con numero di iterazione dipendente da una condizione, condizione che può essere testata prima o dopo la sequenza da iterare) insomma tutte la migliaia di linguaggi che sono stati proposti devono implementare detta strutture, e allora perché tanti linguaggi ? Perché ogni linguaggio ottimizza quello che deve fare: trattare prevalentemente numeri, testi, singolo dato, grandi moli di dati, server, client, reti, ecc ecc
Perché ti sto dicendo questo: non vedi una proliferazione di librerie che non si parlano tra di loro, che vengono aggiornate a insaputa degli utilizzatori, insomma un caos indescrivibile che rende la futura informatica maledettamente fragile.
Il mondo WP all'ennesima potenza dell'incasinamento.
La programmazione strutturata, alla fine degli anni 70, ha messo le basi per la programmazione ad oggetti e il reverse engineering; ora se prendo che so Windows, lo disassemblo e lo do in pasto alla AI che lo traduce in un altro linguaggio attimizzandolo, rendendolo di fatto mio, che dici Kill Gate si incazza e ci propina un'altra pandesua ?
Finché le persone che la pensano come te, che purtroppo sono la maggioranza, non si toglieranno gli occhiali rosa e non capiranno la vera natura delle cose, nulla cambierà mai.
E inserire la parola speranza o il suo concetto in ogni altra frase è inutile, perché se prima non si comprende appieno la situazione in cui si sta vivendo, la speranza non esiste.
Non si può semplicemente evocare la speranza e aspettarsi che produca miracoli.
Per avere un briciolo di speranza bisogna prima costruire delle solide basi da cui iniziare ad averla, ma se continui a ragionare come hai ragionato fino ad ora, potrai dimenticarti di ogni cambiamento.
Quindi essere pessimista nel mio caso significa essere realista, supportato in larga misura dall'andamento di una situazione che non sai nemmeno quale sia.
Non capite il presente e non guardate al passato, ma io sono uno stronzo disfattista.
Per me va bene e sono felice di poterlo essere... qualcuno deve pur esserlo.
Vedasi anche Tiktok
Ci sono siti generalisti e siti di settore. (Avrei voluto dirti riviste ma oramai non esistono più).
- I primi a innovare?
- Semplicità d'uso?
- Gratis o quasi?
I motivi sono molteplici. Senza dimenticare l'ultimo che è micidiale...
Fanno business con altre cose e li forniscono gratis.
Chi si metterebbe a scrivere da zero un sistema operativo e spenderebbe soldi quando altri lo forniscono funzionante e gratis?
Comunque, ovviamente, esistono milioni di distribuzioni linux differenti. Non è che non esistono. E' un sistema di fattori che si sovrappongono. Se io che ti faccio la periferica X ti fornisco solo i driver per windows... Tu utente sei forzato a usare windows se vuoi usare quel particolare strumento. E io fornitore di hardware che interesse ho nel sviluppare driver per milioni di s.o. (uno o più per nazione)? Un cane che si morde la coda.
EDIT - ops, vedo ora che la cosa e' gia' stata notata...
Non mi sembra sia stato scritto.
Tra il 2020 e metà 2023 il titolo oscillava tra 8$ e 30$ (circa).
Poi è salito, fino ad un massimo di 140$ (circa).
Ora il crollo intorno ai 120$.....
Senza contare che fino al 2016 valeva meno di 1$....
Inoltre pare che i miracolosi costi cinesi siano una truffa. Domani approfondisco.
Per la cronaca, a chi lo ha scaricato prima che sparisse funziona ancora, per ora.
Poi che vi posso dire, quest'anno nuovo non ci sto capendo una beata minchia.
Quoto la riflessione sul nostro europeismo zerbinante, non possiamo avere un cavolo di niente, sistemi operativi, intelligenze artificiali, smartphone, e robe varie,se no che razza di zerbini saremmo? Basta pensare alle nostre istituzioni che raccolgono tutti i dati su Windows, nemmeno uno straccio di social istituzionale,e quindi i comuni informano la cittadinanza su facebook, ma dove vogliamo andare.
Non abbiamo più una banca centrale e vabbè,ma almeno una banca dati che sia nostra e basta, pio cane!
Non credo che la mia o nostra maniera di ragionare sia così facilmente e banalmente catalogabile; piuttosto la tua mi sembra limitata e desolante perché non riconosci alcuna dialettica col mondo e nemmeno alcuna efficienza nei cittadini, che semplicemente devono rifiutare ogni interazione coi potenti e coi massimi sistemi come se possono essere solamente inerti e impotenti dinanzi a certe dinamiche. Non è con la completa dissociazione dal mondo che lo si può cambiare, te fai finta di vivere nell'iperuranio della virtù illuminata come se non siamo anche noi partecipi di complesse macrodinamiche geopolitiche, che non andrebbero banalizzate e rifiutate come fossero semplici recite come essenzialmente insinui tu.