ChatGPT è solo l'inizio, Elon Musk chiama tutti a raccolta:"Fermiamoci con lo sviluppo IA"

gabri65

BFMI-class member
Registrato
26 Giugno 2018
Messaggi
21,224
Reaction score
16,068
La versione gratuita è la 3.5 se non erro. A pagamento c’è la 4, che è di tutt’altro livello.

Ah, grazie. In realtà era una constatazione, credevo che con tutta 'sta intelligenza non ce la facesse comunque a capire se sono un umano o una bestia.
 

galianivatene

Well-known member
Registrato
15 Aprile 2016
Messaggi
857
Reaction score
393
Un primo scoglio sul quale hanno già battuto la testa è stata la frequenza di funzionamento.

Parecchi aficionados dei computers si ricorderanno anni fa della corsa sfrenata al cosiddetto "overcloccaggio" dei dispositivi. Ebbene, era comunque una normale evoluzione tecnologica che ha portato i chip a funzionare a frequenze dell'ordine dei GigaHertz.

Alla fine tutti si sono resi conto che la tecnologia non poteva andare oltre, perché più è alta la frequenza di funzionamento, più i circuiti smettono di funzionare in modo logico e si mettono a funzionare come antenne, e ne succedono di tutti i colori.

Per non parlare che più è alta la frequenza e più cresce il consumo di energia, fino al punto che spostare un singolo transistor da off a on succhia fiumi di corrente impulsiva, perforando il materiale come un fulmine.

Infatti hanno smesso da un pezzo di alzare le frequenze, anzi sono tornati indietro, e si sono messi a realizzare architetture più sobrie, ma hanno aumentato il numero di chip che lavorano in parallelo. Però purtroppo far funzionare in parallelo una batteria di processori ha tutta un serie di problematiche, poiché in genere i programmi sono sequenziali ed è difficile suddividere gli algoritmi in modo da far eseguire più cose contemporaneamente.

Sicuramente arriverà un momento nel quale dovranno orientarsi su architetture totalmente differenti, oppure dovranno escogitare algoritmi innovativi. Per il momento credo siamo ancora un po' lontani da quello che viene detto qui dentro.

Una cosa è la computazione massiva che "sembra essere intelligente" solo perché analizza ad altissima velocità tutte le possibile alternative di un problema e ci fornisce risposte che ci piacciono, una cosa è la vera "intelligenza", in termini di intuito bruciante e geniale, peculiarità per ora del mondo umano (e animale).

Vedremo.
da ignorante totale ti domando, secondo te il computer quantistico può essere soluzione a questi limiti?
 

gabri65

BFMI-class member
Registrato
26 Giugno 2018
Messaggi
21,224
Reaction score
16,068
da ignorante totale ti domando, secondo te il computer quantistico può essere soluzione a questi limiti?

Ancora non ho avuto modo di approfondire alcuni aspetti della computazione quantistica, che è connotata da contorni sfocati e non ben definiti.

Potrebbe essere il caso, ma c'è bisogno ancora di molta ricerca, perché la disciplina è giovane e si basa sui fenomeni per l'appunto quantistici, che sono per definizione probabilistici, e non "esatti" come la normale logica digitale, che comanda qualsiasi apparato di computazione. Insomma, fino ad adesso avevamo i "bit", che sono 0 o 1 con certezza, con la logica quantistica invece abbiamo i "qubit" che non si sa quanto valgono in determinato momento, ne modifichi uno e te ne cambia un altro, etc etc.

Ci potrebbero essere parecchi sviluppi e magari applicazioni in alcuni rami specifici, certamente. Ma è ancora un po' presto per dirlo con sicurezza.

Se riescono a mettere a punto alcune cose, sarebbe uno step estremamente significativo.

Ma ripeto, è un modello di computazione interamente differente da quello standard, e richiede un interfacciamento tra i due mondi antitetici della fisica classica e della fisica quantistica.
 

Djici

Senior Member
Registrato
27 Agosto 2012
Messaggi
27,361
Reaction score
6,765
Musk praticamente dice che l’AI dal 1960 al 2015 ha seguito la legge di Moore, ovvero quella “normale” della tecnologia. Ovvero raddoppiava la proprie “capacita computazionali” ogni due anni. Dal 2015 al 2020 siamo arrivati a 4x all’anno. Dal 2021 a 10x. DIECI VOLTE all’anno, praticamente raddoppia le proprie capacità ogni 5 settimane. Facciamo presto a farci male, e molto velocemente.
Dieci volte tanto su un anno significa che raddoppia quasi ogni 110 giorni.
Se raddoppiasse ogni 5 settimane su un anno significherebbe che farebbe più di 1000 volte all'anno.

Comunque il futuro sembra segnato.
L'intelligenza media umana che stava sempre migliorando da quando hanno iniziato a misurarla ora sta diminuendo. E non di poco.
Mentre l'IA vola.
Il finale e scontato
 

Sam

Junior Member
Registrato
16 Luglio 2018
Messaggi
3,144
Reaction score
3,777
Un primo scoglio sul quale hanno già battuto la testa è stata la frequenza di funzionamento.

Parecchi aficionados dei computers si ricorderanno anni fa della corsa sfrenata al cosiddetto "overcloccaggio" dei dispositivi. Ebbene, era comunque una normale evoluzione tecnologica che ha portato i chip a funzionare a frequenze dell'ordine dei GigaHertz.

Alla fine tutti si sono resi conto che la tecnologia non poteva andare oltre, perché più è alta la frequenza di funzionamento, più i circuiti smettono di funzionare in modo logico e si mettono a funzionare come antenne, e ne succedono di tutti i colori.

Per non parlare che più è alta la frequenza e più cresce il consumo di energia, fino al punto che spostare un singolo transistor da off a on succhia fiumi di corrente impulsiva, perforando il materiale come un fulmine.

Infatti hanno smesso da un pezzo di alzare le frequenze, anzi sono tornati indietro, e si sono messi a realizzare architetture più sobrie, ma hanno aumentato il numero di chip che lavorano in parallelo. Però purtroppo far funzionare in parallelo una batteria di processori ha tutta un serie di problematiche, poiché in genere i programmi sono sequenziali ed è difficile suddividere gli algoritmi in modo da far eseguire più cose contemporaneamente.

Sicuramente arriverà un momento nel quale dovranno orientarsi su architetture totalmente differenti, oppure dovranno escogitare algoritmi innovativi. Per il momento credo siamo ancora un po' lontani da quello che viene detto qui dentro.


Una cosa è la computazione massiva che "sembra essere intelligente" solo perché analizza ad altissima velocità tutte le possibile alternative di un problema e ci fornisce risposte che ci piacciono, una cosa è la vera "intelligenza", in termini di intuito bruciante e geniale, peculiarità per ora del mondo umano (e animale).

Vedrem
Più che difficile, la questione è che non c'è beneficio spesso e volentieri.
Microsoft implementò un sistema di core parking su Windows 7, proprio perché ci si era resi conto che anziché avere un core al 40% e uno al 20% che lavorano in parallelo, è meglio averne uno al 60% e sfruttare magari le funzionalità di programmazione concorrente, per ottimizzare lo stesso spazio di allocazione.
Purtroppo molto del carico reale è on demand, quindi avere un core da accendere e far funzionare alla bisogna è peggio in termini di performance, rispetto ad usare quanto già disponibile.
A mio avviso il multi-core ha veramente senso in software a sistemi di calcolo continuo, come BOINC, dove quindi puoi spalmare la frequenza della CPU su tutti i core tenendoli accesi ed in funzione nello stesso momento.

Poi vabbè il multi-core e il multi-thread sono in realtà ca**ate che si sono inventati perché, come dicevi tu, la corsa al GHz era ormai arrivata a soglie ridicole (5GHz single core scaldano veramente tanto).
Infatti non solo le x86, ma anche altre architetture come SPARC o POWER hanno aumentato il parallelismo riducendo la frequenza per core.
E infatti con essi sono arrivate le mer*ate come Spectre Meltdown e tutte le vulnerabilità sull'hyperthreading.
E rimango convinto che gli sviluppatori di OpenBSD con l'SMT disattivato di default abbiano fatto la scelta migliore, sebbene ne paghino in performance.
 
Ultima modifica:

Sam

Junior Member
Registrato
16 Luglio 2018
Messaggi
3,144
Reaction score
3,777
Io sono molto scettico su tutta 'sto hype di ChatGPT, perché ci si dimentica che fuori dai datacenter di Google e compagnia, il mondo IT è molto diverso, ed è fatto di robaccia Java che gira ancora su Application Server come WebSphere o JBoss e fa uso EJB, o sono ancora su stack .NET Framework + ASP.NET + IIS.
Per carità, qualcuno si è svegliato e ha iniziato a portare su Spring/Quarkus e .NET Core, però molta robaccia legacy c'è ancora in giro.
Ogni tanto qualche cliente mi chiama per chiedermi cosa ne penso di usare container JBoss su Kubernetes o usare nodi Windows sempre sullo stesso, il che dimostra che l'IT non è ancora pronto per il cloud native, figuriamoci l'uso di IA.
Oltretutto bisogna fare i conti con il cloud, che non è rose e fiori. C'è chi sta tornando on premise.

E non potrebbe essere altrimenti, visto che il mantra del cloud e del suo pay per use basato su logiche di autoscaling, funziona bene quando tutta la tua architettura è stateless.
Ma appena comincia ad esserci ritenzione del dato, o anche solo ritenzione delle sessioni che non permettono un autoscaling efficiente perché spesso non ammettono nemmeno la concorrenza, via che il castello di carte comincia a crollare.
Oggi infatti per ovviare si spinge al serverless, sfruttare quindi una logica di Functions as a Service per raggiungere il tanto agognato scale to zero, ma alla fine fuori da un utilizzo prettamente batch ha molto poco senso di esistere, visti i problemi di cold boot che si porta dietro.
Non è un caso se Amazon e Microsoft stanno fornendo i loro cloud tenant on premise per soluzioni ibride, in modo da offrire ai clienti la stessa esperienza d'uso.
Non vedo come ChatGPT o l'IA possano cambiare gli scenari in questione, visto che il problema dell'IT è sempre lo stesso: le architetture software sono immutate da quarant'anni, e non c'è incentivo (leggasi ritorno di investimenti) utile per cambiare.
 
Ultima modifica:

gabri65

BFMI-class member
Registrato
26 Giugno 2018
Messaggi
21,224
Reaction score
16,068
Più che difficile, la questione è che non c'è beneficio spesso e volentieri.
Microsoft implementò un sistema di core parking su Windows 7, proprio perché ci si era resi conto che anziché avere un core al 40% e uno al 20% che lavorano in parallelo, è meglio averne uno al 60% e sfruttare magari le funzionalità di programmazione concorrente, per ottimizzare lo stesso spazio di allocazione.
Purtroppo molto del carico reale è on demand, quindi avere un core da accendere e far funzionare alla bisogna è peggio in termini di performance, rispetto ad usare quanto già disponibile.
A mio avviso il multi-core ha veramente senso in software a sistemi di calcolo continuo, come BOINC, dove quindi puoi spalmare la frequenza della CPU su tutti i core tenendoli accesi ed in funzione nello stesso momento.

Poi vabbè il multi-core e il multi-thread sono in realtà ca**ate che si sono inventati perché, come dicevi tu, la corsa al GHz era ormai arrivata a soglie ridicole (5GHz single core scaldano veramente tanto).
Infatti non solo le x86, ma anche altre architetture come SPARC o POWER hanno aumentato il parallelismo riducendo la frequenza per core.
E infatti con essi sono arrivate le mer*ate come Spectre Meltdown e tutte le vulnerabilità sull'hyperthreading.
E rimango convinto che gli sviluppatori di OpenBSD con l'SMT disattivato di default abbiano fatto la scelta migliore, sebbene ne paghino in performance.

Eh, ma allora la discussione passa ad un altro livello ...

Concordo, tenendo conto che qualsiasi cosa uscita dall'azienda agricola di Zio Bill è in genere una puttanata che serve a loro solo per mantenere la supremazia con implementazioni al limite del criminoso, non tanto in termini tecnologici, ma dirigendo il mercato su robe che possono gestire alla nazi-maniera. Ad esempio sembra che adesso vogliono mollare tutta la base di software in C++ e dirigersi verso Rust, uno dei soliti linguaggi uscito da poco, illeggibile per quanto mi riguarda. Altro polverone del quale non ci sarebbe bisogno.

Ovviamente, i soliti adepti urleranno al gombloddoh, perché secondo loro Zio Bill è un'altro angelo che ci ha portato tanto benessere informatico, senza sapere tutte le magagne tecniche che conoscono quelli che lavorano sul pezzo.

Detto questo, la punta di diamante dell'aumento di performances è per il momento in fase di stallo per quanto riguarda le capacità delle CPU. C'è stata parecchia evoluzione sul discorso delle caches, che sono diventate un componente essenziale dei cores, che però comportano CPU sempre più complicate, con istruzioni ritirate, branch prediction, esecuzioni speculative, etc etc. Io purtroppo ci ho a che fare e non sono per niente semplici da manipolare a basso livello.

Quello che sta andando molto "di moda" è il settore sicurezza, con queste CPU che hanno vari meccanismi per impedire l'esecuzione di codice pirata, con ennemila strati di esecuzione, hypervisor, etc etc. Ma a volte certe robe mi sembrano un gran troiaio, tenendo conto che sono comunque aspetti importanti.

Il processore più promettente è al momento il RISC-V, che se non altro è royalty-free e promette di essere altamente espandibile.

Comunque, per ora, aumenti stratosferici di performances non credo siano all'orizzonte, incrementeranno il numero dei core e le dimensioni della cache, altri fattori non mi vengono in mente.
 
Registrato
10 Marzo 2021
Messaggi
15,203
Reaction score
15,579
Sta palesemente rosicando che non ci è arrivato prima lui, e tenere il passo se non fermano OpenAI è impossibile.

Quando sviluppava l'AI per il full self driving in Tesla andava bene.


Non solo non è arrivato prima lui, ma nel 2018 tentò di acquistare direttamente Open AI, ricevendo un bel 2 di picche dal fondatore Sam Altman :asd:

Fosse stato il proprietario di ChatGP, mai e poi mai avrebbe detto quelle parole. Anzi...
 
Alto
head>