Lo approfondisce Jonathan Curtis, chief Investment officer e portfolio manager di Franklin Equity Group. E’ uno studio molto tecnico, con una conclusione: attenzione a lasciarsi sfuggire le opportunità in ambito finanziario che deriveranno da una crescita tanto trasformativa per tutti e soprattutto per l’economia.
Buy or sell
Nonostante la volatilità delle ultime settimane, da inizio anno al 31 luglio 2024 i titoli tecnologici hanno offerto solidi rendimenti, sovraperformando tutti gli altri settori, spesso con ampio margine. Questa sovraperformance rappresenta, ad avviso dell’estensore di questo studio, la prosecuzione del trend seguito al lancio di ChatGPT 3.5, primo modello di intelligenza artificiale (IA) basato su trasformatori di ampia diffusione, a novembre del 2022. Pur avendo assistito alla fenomenale crescita delle aziende specializzate in infrastrutture per l'IA nel corso di tale periodo, si è convinti che molti investitori non comprendano appieno quanto i modelli di IA siano destinati a migliorare in futuro né che questi miglioramenti, una volta messi in atto, favoriranno l'innovazione, accelereranno la crescita e renderanno più efficiente l'economia globale.
Ci troviamo solamente nelle prime fasi di un mutamento profondo e rivoluzionario. I recenti miglioramenti delle capacità dei modelli basati su trasformatori sono impressionanti: i modelli di IA più avanzati al mondo sono oggi in grado di svolgere complesse operazioni di programmazione, superare esami di ammissione all'ordine degli avvocati, ottenere prestazioni migliori di quelle della maggior parte degli esseri umani in test standardizzati, creare video ed elaborare complessi flussi di ragionamenti. Nei prossimi anni, inoltre, man mano che verranno utilizzati più dati e potenza di calcolo grezza e apportati miglioramenti agli algoritmi, non c'è dubbio che i modelli basati su trasformatori continueranno a progredire.
Si è sull'orlo di un mutamento radicale con l'evoluzione dei modelli da chatbot testuali e motori per la creazione di contenuti multimediali ad agenti attivi, che saranno in grado di ragionare e utilizzare computer, esibendo comportamenti analoghi a quelli dei più avanzati lavoratori digitali umani come scienziati, matematici, programmatori e ricercatori specializzati in IA. È quando si verificherà questo che si avrà un'accelerazione significativa di innovazione, crescita ed efficienza. E oltre a questa accelerazione assisteremo di sicuro a una crescita significativa delle infrastrutture, a livello globale, necessarie per consentire un'ulteriore espansione e un maggior utilizzo dei modelli.
Curtis ricorda spesso al suo team di "fidarsi delle curve". I modelli di IA generativa sempre più avanzati al mondo sono in grado di svolgere compiti iper complessi. Nell'ultimo decennio, man mano che i ricercatori hanno apportato un numero via via maggiore di miglioramenti ai modelli in termini di potenza di calcolo, dati e algoritmi, le curve delle capacità hanno subito una brusca impennata. Sulla base delle ricerche, si ritiene che nel prossimo futuro questi progressi proseguiranno a un rapido ritmo. Le curve non mentono mai, e il loro potere predittivo può fornire indicazioni preziose in grado di guidare le analisi.
Essendo convinti che un appiattimento delle curve di ampliamento delle capacità dell'IA sia ancora lontano, si continuano a ravvisare opportunità per gli investitori sia nella fase di "sviluppo e sperimentazione" sia in quella di "applicazione" dell'IA. E’ il caso di approfondire le possibili implicazioni dell'ampliamento di ciascuna delle quattro risorse fondamentali per il funzionamento dell'IA.
Potenza di calcolo: nei prossimi anni la relativa domanda di potenza per l'IA è destinata con tutta probabilità ad aumentare di 100 volte. La potenza di calcolo è il fattore principale per consentire l'ampliamento delle capacità dell'IA nella fase di addestramento; le proiezioni sull'effetto dell'espansione della potenza di calcolo sulle attività di addestramento sono a dir poco impressionanti. Secondo le stime, OpenAI ha addestrato il proprio modello GPT-4 (rilasciato a marzo del 2023) tramite Gpu (Graphics processing unit) equivalenti a circa 10.000 del tipo H100 di Nvidia e a un costo pari a circa 500 milioni di dollari. Si stima, inoltre, che i più potenti modelli del 2024 prodotti da OpenAI e dai suoi competitor stiano venendo addestrati tramite l'equivalente di approssimativamente 100.000 Gpu dello stesso tipo per circa 1 miliardo di dollari. Le analisi indicano che sono in atto piani per far sì che nel 2026 i modelli più avanzati saranno costruiti tramite Gpu equivalenti a circa un miliardo del tipo H100. L'addestramento di questi modelli potrebbe costare diversi miliardi di dollari e richiedere una quantità di energia elettrica analoga a quella prodotta dalla diga di Hoover (secondo la Energy Information Administration statunitense, la diga di Hoover produce all’incirca 11 milioni di kilowattora di energia elettrica nell’arco di un ciclo di 24 ore, corrispondenti al consumo energetico giornaliero di quasi 370.000 famiglie negli Stati Uniti). Ciò indica che per passare dall'attuale modello GPT-4, paragonabile a un buono stagista, a un modello vicino alle capacità di qualsiasi lavoratore della conoscenza altamente specializzato, servirà un aumento di 100 volte del numero di Gpu.
Ovviamente i modelli di GenAI sono utili solo nella misura in cui trovano un impiego concreto. Nei prossimi anni, secondo le previsioni, GenAI e agenti digitali saranno sfruttati rispettivamente dalla maggior parte dei lavoratori della conoscenza e delle imprese. Si pensi ad esempio alla possibilità che una delle più grandi aziende di software e Cloud computing al mondo offra agenti digitali incorporati nella propria suite di strumenti per la produttività con funzionalità cloud e IA già integrate al loro interno. Oggi i lavoratori della conoscenza, che utilizzano tale piattaforma, sono all'incirca 500 milioni, la maggior parte dei quali non acquista servizi legati alla GenAI. Ipotizzando che tali lavoratori guadagnino in media 50.000 dollari l'anno e che grazie ai servizi legati alla GenAI la loro produttività aumenti del 5% (stima forse molto conservativa), questi modelli potrebbero creare un surplus pari a 1.125 miliardi di dollari, equivalenti a 2.500 dollari per ciascun lavoratore della conoscenza ogni anno. Una volta giunta al massimo l'adozione di tali servizi, ipotizzando che ciascun utente paghi ogni anno 360 dollari, quest'impresa sarebbe in grado di assicurarsi il 15% (equivalente a 180 miliardi di dollari) del surplus generato; un eccellente ritorno sui pochi miliardi investiti per sviluppare e far funzionare i modelli. Si avrebbero inoltre enormi risparmi in termini di produttività e costi per i clienti finali.
Man mano che i modelli miglioreranno e i loro impieghi pratici diverranno più chiari e interessanti, l'adozione degli agenti digitali da parte delle imprese è destinata a crescere. Chiaramente questo è solo un esempio: esiste un'opportunità ovunque sia possibile svolgere meglio un lavoro della conoscenza grazie a un'intelligenza contestuale aggiuntiva. Secondo le nostre ricerche quasi ogni azienda, che sviluppa strumenti digitali per i lavoratori della conoscenza, sta valutando la possibilità di incorporare la GenAI nella propria offerta.
Energia: negli Stati Uniti, produrre energia elettrica a sufficienza per creare un cluster di Gpu equivalenti a un milione del tipo H100 entro il 2026 sarà una sfida. Questa domanda potrebbe essere soddisfatta, a nostro avviso, sfruttando le infrastrutture legate all'energia nucleare già esistenti del Paese e le abbondanti riserve di gas naturale. Con la crescita dei modelli di IA al di là del 2026 generare energia a sufficienza potrebbe divenire più difficile. Dati gli incentivi derivanti dal profilo di rendimento di tali modelli, tuttavia, siamo fiduciosi sul fatto che verranno trovate soluzioni in ultima analisi vantaggiose per i settori di industria, infrastrutture energetiche e utility non regolamentate.
Dati: rappresentano il fattore essenziale successivo per l'ampliamento dei modelli. Alcuni hanno sollevato dubbi sulla disponibilità di dati adeguati per addestrare i futuri modelli di GenAI. Noi non siamo d'accordo, ritenendo ci siano ancora informazioni in abbondanza da sfruttare nelle sfere sia dei dati prodotti da esseri umani che di quelli generati da macchine. Modelli di base di grandi dimensioni come quelli di OpenAI sono stati addestrati tramite testi curati generati da esseri umani e tratti da Internet, articoli scientifici, libri e così via. I sistemi aziendali delle imprese contengono tuttavia vaste quantità di dati generati da esseri umani. Sebbene questi dati non siano accessibili alle aziende che sviluppano i modelli di base, a causa della loro riservatezza, le imprese possono sfruttare i propri dati interni in tandem con i modelli di base per creare modelli e ricavare informazioni specifici per l'azienda stessa. Esistono inoltre i dati sui dati umani, ovvero i metadati. Si pensi a cosa avviene quando un essere umano studia una nuova materia tramite un libro. L'apprendimento avviene tipicamente al meglio quando l'essere umano legge il libro, riflette sul suo contenuto, ne rilegge alcune parti, risolve un problema legato alla materia e ne parla con un insegnante. Queste fasi determinano la produzione di dati su quelli generati da esseri umani contenuti nel libro stesso, potenziando il processo di apprendimento. I modelli possono replicare tali processi per generare nuovi dati di addestramento, approfondire le proprie conoscenze e migliorare le proprie capacità. Tali modelli, per giunta, stanno divenendo multimodali: in altre parole, possono utilizzare non solo testi, ma anche audio, immagini o perfino flussi di lavoro digitali su pc e dispositivi mobili per creare modelli del mondo e, in ultima analisi, generare agenti basati sull'IA. Siamo ottimisti sul fatto che esistano dati in abbondanza (sia generati da esseri umani che sintetici) tramite cui addestrare i modelli.
Miglioramento degli algoritmi: i maggiori progressi nel campo dell'IA potrebbero giungere proprio dal miglioramento degli algoritmi. Si pensi al fatto che tali modelli sono costruiti a partire da neuroni digitali, che cercano di imitare le capacità di quelli biologici. Il cervello umano, efficiente, dotato di enormi capacità e composto da circa 86 miliardi di neuroni biologici, necessita in media di 20 watt di energia, equivalenti al consumo energetico di una lampadina di piccole dimensioni e di gran lunga inferiori a quella necessaria per eseguire un prompt composto da un migliaio di token tramite un sofisticato modello basato su trasformatori. Perché il cervello umano è tanto più efficiente di tali modelli? Anche se non sappiamo appieno come l'evoluzione abbia portato a una tale efficienza, riteniamo che la versione digitale di questo processo possa mutare nel tempo man mano che un maggior numero di ricercatori entrerà nel campo dell'IA, diverranno disponibili enormi capitali e si continuerà a sperimentare.
Oggi gli utenti utilizzano i modelli di GenAI principalmente tramite interfacce di chat soggette a un alto grado di moderazione. Sono infatti utilizzate tecniche postaddestramento (come il "reinforcement learning from human feedback", RLHF) per impedire ai modelli di produrre output testuali potenzialmente dannosi prima della loro diffusione presso il pubblico. Seppur necessari, si tratta di metodi grezzi per limitare le capacità di un modello. Via via che i ricercatori acquisiranno una maggiore comprensione dei modelli, tuttavia, gli sviluppatori dovrebbero divenire in grado di costruire i modelli in maniera più precisa, consentendo di sfruttare correttamente e di più il loro potenziale. Poiché gli attuali modelli sono utilizzati in forma di chatbot, la loro ottimizzazione per essere impiegati come agenti non è ancora avvenuta (per comportamento “da agenti” dell’IA si intende la capacità dei sistemi di IA di prendere decisioni in maniera autonoma e di intraprendere azioni volte a raggiungere obiettivi specifici con un intervento minimo da parte di esseri umani). Ciononostante, gli sviluppatori stanno riscontrando sempre più capacità da agenti all'interno dei modelli stessi. Siamo fiduciosi sul fatto che i modelli di base emergenti getteranno in ultima analisi le fondamenta di capacità da agenti più potenti, determinando un drastico incremento del loro utilizzo, dei rendimenti finanziari e della domanda delle risorse scarse necessarie per la crescita dei modelli stessi.
In conclusione
Tutto questo indica che se i modelli continueranno a progredire con un aumento della potenza di calcolo e dei dati e il miglioramento degli algoritmi, ci troviamo solamente nelle prime fasi di un periodo di profonda innovazione. Quest'innovazione, a nostro avviso, è in grado di determinare enormi incrementi dell'efficienza e una forte accelerazione della crescita globale. È improbabile però che un mutamento di quest'entità non porti con sé volatilità e incertezza. Solo il tempo ci dirà se le attuali valutazioni sono giustificate e, in ultima analisi, quali imprese tecnologiche e non solo si riveleranno vincitrici in questo campo. Detto ciò, alcuni investitori potrebbero essere tentati di realizzare i guadagni generati dal recente rally tecnologico, ma restiamo convinti che facendo ciò rischiano di lasciarsi sfuggire l'opportunità che, secondo le nostre previsioni, deriverà da una crescita tanto trasformativa.