Ultime tendenze e sfide nell'Ecosistema delle Intelligenze Artificiali - vol. 9
Ultime tendenze e sfide nell'Ecosistema delle Intelligenze Artificiali - vol. 9

Ultime tendenze e sfide nell'Ecosistema delle Intelligenze Artificiali - vol. 9

Autore: Daniele Grandini

Bentornati per il nostro appuntamento mensile dedicato alle novità del mondo dell’AI. Vista la mole delle novità in ambito AI che hanno caratterizzato questo ultimo mese, in questo numero ci concentreremo sulle notizie che considero più rilevanti. Buona lettura!

Top of the month

Questo mese sono 4 i temi fondamentali nello scenario dell'IA:

  1. Il crollo del prezzo per token dei modelli LLM
  2. OpenAI ora è valutata oltre 100 miliardi di dollari e sta raccogliendo nuovi fondi
  3. OpenAI apre alla possibilità di perfezionare GPT-4
  4. Anthropic rende disponibili a chiunque i Claude Artifacts

Calo dei prezzi dei modelli LLM

Il rapido calo dei prezzi dei modelli di IA generativa sta rimodellando il panorama per le imprese, rendendo le capacità avanzate dell'IA più accessibili che mai. Con una riduzione del prezzo di quasi l'80% anno su anno, nonostante i modelli siano sempre più potenti e affidabili, stanno emergendo nuove opportunità per applicazioni che in precedenza erano proibitive a livello di costi. Questo capitolo esamina le recenti tendenze dei prezzi, le loro implicazioni per vari settori e le considerazioni strategiche che le aziende dovrebbero prendere in considerazione. 

Sviluppi chiave nella definizione dei prezzi dei modelli di IA

Nel marzo 2023, OpenAI ha lanciato GPT-4 al costo di 36 dollari per milione di token. Ad oggi, il prezzo per i token di GPT-4 è sceso a 4 dollari per milione, rappresentando un incredibile calo del 79% in 17 mesi. Inoltre, OpenAI ha introdotto una Batch API che offre un prezzo ancora più basso di 2 dollari per milione di token per l'elaborazione asincrona, sebbene con un tempo di risposta di 24 ore. Ciò rappresenta una riduzione dei costi dell'87%, aprendo le porte alle aziende per sfruttare l'IA per operazioni continue a una frazione dei costi rispetto i precedenti.

Inoltre, altri grandi player stanno anch'essi riducendo i costi per rimanere competitivi. L'API Flash di Gemini 1.5 di Google, ad esempio, ha visto una riduzione dei prezzi del 75%. Questa feroce concorrenza sta portando a un accesso all'IA più conveniente, permettendo alle imprese di integrare funzionalità sofisticate basate sull'IA, senza incorrere in spese proibitive.

Implicazioni pratiche del crollo dei costi dei LLM per le aziende

La significativa riduzione dei costi dei modelli di IA ha implicazioni di vasta portata in vari settori:

  • Integrazione dell'IA a basso costo: Le aziende possono ora sviluppare applicazioni di IA che operano continuamente a costi inferiori al salario minimo in molti paesi. Ad esempio, un'applicazione che utilizza 100 token al secondo costerebbe ora solo 1,44 dollari all'ora con i prezzi attuali, rispetto a cifre molto più alte solo un anno fa.
  • Espansione delle applicazioni: I costi ridotti consentono una più ampia adozione dell'IA in settori dove la barriera finanziaria era precedentemente insormontabile. Settori come il servizio clienti, la sanità e la logistica possono ora implementare soluzioni potenziate dall'IA per migliorare l'efficienza e la qualità del servizio.
  • Vantaggio competitivo: Le aziende che adottano rapidamente questi modelli di IA a basso costo possono ottenere un vantaggio competitivo migliorando i loro prodotti e servizi con capacità avanzate di IA, che in precedenza erano esclusive dei giganti tecnologici con budget maggiori.

Vantaggi legati al crollo dei costi dei LLM per le imprese

I recenti tagli dei prezzi hanno portato a risparmi sostanziali e a capacità potenziate in vari modelli:

  • GPT-4o: Ora spina dorsale del ChatGPT di alta classifica, il suo prezzo è sceso a 2,50/10 dollari per milione di token in ingresso/uscita, con riduzioni ancora più significative per l'elaborazione in batch.
  • Llama 3.1 405B: Rilasciato a luglio, questo modello offre un costo inferiore del 66% rispetto ai prezzi di Azure per capacità simili, rendendolo un'alternativa conveniente per le aziende che cercano di scalare l'integrazione dell'IA.
  • DeepSeek v2: Ha ottenuto una riduzione del prezzo del 46% dal suo rilascio a luglio, dimostrando ulteriormente la tendenza all'aumento dell'accessibilità.

Questi tagli dei prezzi, insieme ai miglioramenti delle prestazioni dei modelli, come finestre di contesto più ampie e una migliore gestione dei compiti complessi, offrono una proposta di valore più convincente per le imprese. 

Considerazioni strategiche sul crollo dei costi dei LLM

Sebbene la diminuzione dei prezzi presenti opportunità, le aziende devono considerare quanto segue:

  • Prestazioni vs. Costo: Con la diminuzione dei prezzi, è fondamentale bilanciare i requisiti di prestazione con i risparmi sui costi. I modelli ad alte prestazioni sono ora più accessibili, ma le aziende dovrebbero scegliere modelli che si allineano con le loro specifiche esigenze operative.
  • Elaborazione asincrona: Sfruttare le API batch per risparmiare sui costi può introdurre ritardi. Le aziende devono valutare se il tempo di elaborazione di 24 ore è fattibile per i loro casi d'uso.
  • Viabilità a lungo termine: Con i rapidi progressi, i modelli all'avanguardia di oggi potrebbero diventare obsoleti più rapidamente. Le aziende dovrebbero pianificare l'adattabilità e la valutazione continua dei modelli di IA per assicurarsi di rimanere competitive.

Perché il crollo dei costi dei LLM è importante

La competitività dei prezzi dei modelli di IA è un cambiamento radicale per le aziende, riducendo le barriere all'ingresso e favorendo l'innovazione in vari settori. Sfruttando strategicamente questi progressi, le aziende possono sbloccare nuove efficienze, migliorare le loro offerte e ottenere un vantaggio competitivo significativo.

Poiché il panorama dell'IA continua a evolversi, rimanere informati e agili nell'adottare queste tecnologie sarà cruciale per il successo a lungo termine.

In questo ambiente dinamico, il mantra per i leader aziendali dovrebbe essere agire rapidamente, sperimentare continuamente e sfruttare gli strumenti di IA più appropriati che si allineano con i loro obiettivi strategici. È ora il momento di innovare con l'IA.

Le dinamiche finanziarie di OpenAI

Mentre OpenAI continua a guidare nel campo dell'intelligenza artificiale, si trova a un punto critico in cui i costi dell'innovazione stanno aumentando rapidamente. Sebbene i ricavi di OpenAI siano in crescita, le sue spese operative aumentano, creando un significativo divario finanziario. Questo capitolo esamina il panorama finanziario di OpenAI, concentrandosi sulle sue spese, le fonti di ricavo e le implicazioni più ampie per la sua strategia aziendale e la sua posizione sul mercato.

La pressione finanziaria dell'innovazione in IA

Le spese operative stimate di OpenAI per il 2024 potrebbero raggiungere la cifra impressionante di 8,5 miliardi di dollari, secondo fonti anonime citate da The Information. Al contrario, i ricavi previsti dall'azienda sono stimati tra 3,5 miliardi e 4,5 miliardi di dollari, suggerendo una potenziale perdita di 4 miliardi a 5 miliardi di dollari solo quest'anno. Questo significativo divario evidenzia l'enorme pressione finanziaria per mantenere e avanzare la tecnologia IA all'avanguardia del settore.

Suddivisione delle principali spese

  • Costi di inferenza: Una parte sostanziale delle spese di OpenAI, circa 4 miliardi di dollari, è destinata alla potenza di elaborazione fornita da Microsoft. La dipendenza di OpenAI dall'infrastruttura di Microsoft, con costi di circa 10,30 dollari all'ora per server a otto GPU, sottolinea i costi operativi elevati necessari per offrire servizi di IA su larga scala.
  • Costi di addestramento: L'azienda prevede di spendere circa 3 miliardi di dollari per addestrare i modelli e acquisire dati, un investimento cruciale per mantenere la sua leadership nelle capacità di IA. Questa spesa riflette la necessità continua di migliorare le prestazioni dei modelli e tenere il passo con i progressi competitivi.
  • Costi del personale: Con un numero stimato di 1500 dipendenti, le spese per il personale di OpenAI sono proiettate a 1,5 miliardi di dollari, inclusa la compensazione in azioni. Questo sostanziale investimento nel capitale umano è essenziale per guidare l'innovazione continua necessaria in un campo in rapida evoluzione.

Fonti di ricavo e crescita

Nonostante i costi elevati, i ricavi di OpenAI mostrano una crescita robusta. A giugno, i ricavi annualizzati dell'azienda hanno raggiunto i 3,4 miliardi di dollari, trainati principalmente dalle vendite di ChatGPT e API, che hanno rappresentato circa 2 miliardi di dollari e 1 miliardo di dollari rispettivamente. Questa rapida crescita dei ricavi è in parte attribuita all'adozione esplosiva di ChatGPT, che ha registrato 100 milioni di visite nei primi due mesi dal suo lancio nel 2023.

Tuttavia, questa crescita comporta il fatto che mantenere tali servizi di IA ad alte prestazioni è estremamente costoso. Il CEO di OpenAI, Sam Altman, ha riconosciuto la pressione finanziaria, definendo l'azienda:

La startup più capital-intensive della storia della Silicon Valley.

Implicazioni strategiche e posizione sul mercato

Il notevole esborso finanziario riflette la sfida più ampia di monetizzare la tecnologia IA all'avanguardia su larga scala. L'aumento dei costi di inferenza e addestramento è necessario per supportare i modelli sofisticati offerti da OpenAI, ma mette anche sotto pressione l'azienda per innovare continuamente e trovare nuove fonti di ricavo.

Le iniziative strategiche di OpenAI includono:

  • Partnerships: Recentemente, Apple ha collaborato con OpenAI per integrare le sue funzionalità di IA, segnalando la crescente domanda di capacità di IA in vari settori.
  • Valutazione e finanziamenti: OpenAI è in trattative per raccogliere un nuovo round di finanziamento con una valutazione superiore ai 100 miliardi di dollari, con Thrive Capital che guida l'investimento. Questa valutazione suggerisce una forte fiducia degli investitori nel futuro di OpenAI nonostante le perdite finanziarie attuali.

Il quadro generale

Le perdite previste di quasi 5 miliardi di dollari entro la fine del 2024 sollevano interrogativi sulla sostenibilità a lungo termine di tali spese elevate. Tuttavia, la capacità di OpenAI di ottenere valutazioni elevate e attrarre investimenti significativi indica che il mercato vede un potenziale nei futuri progressi dell'azienda, inclusi progetti come Strawberry e Orion.

Perché il percorso finanziario di OpenAI è importante

Il percorso finanziario di OpenAI sottolinea i costi enormi associati alla leadership nell'innovazione IA. Sebbene l'azienda affronti perdite significative, la crescita dei ricavi e l'elevata valutazione segnalano fiducia nella sua direzione strategica e nel suo potenziale.

Per i leader aziendali, il caso di OpenAI ricorda le elevate poste in gioco nello sviluppo dell'IA, dove le ricompense possono essere altrettanto significative quanto i rischi. Poiché il panorama continua a evolversi, l'esperienza di OpenAI offre preziose intuizioni sulle sfide finanziarie e strategiche del pioniere della tecnologia IA su larga scala. 

Le capacità di fine-tuning di OpenAI

L'introduzione recente da parte di OpenAI delle capacità di fine-tuning per GPT-4o segna una pietra miliare significativa nell'accessibilità e nella personalizzazione dei modelli di IA. Questa nuova funzionalità consente agli sviluppatori e alle aziende di adattare il modello di IA più potente di OpenAI a casi d'uso specifici, migliorandone significativamente l'utilità in vari domini. Questo capitolo esplora le implicazioni di questo sviluppo, le opportunità che presenta e come si allinea agli obiettivi più ampi di rendere l'IA più adattabile e facile da usare.

L'importanza del fine-tuning

Il fine-tuning nell'IA si riferisce al processo di regolazione di un modello pre-addestrato per migliorare le prestazioni su un compito specifico o all'interno di un determinato dominio, continuando il processo di addestramento su un nuovo set di dati. Questa capacità è cruciale perché consente all'IA di allinearsi più strettamente con le esigenze specifiche di un'azienda o applicazione, migliorando sia la precisione che la rilevanza.

Sviluppi chiave

  • Addestramento di modelli personalizzati: OpenAI offre ora la possibilità agli sviluppatori di fare il fine-tuning di GPT-4o, insegnando efficacemente al modello come eseguire meglio i compiti allineati con i loro requisiti specifici. Questo è analogo a insegnare a un'IA a "cucinare il pesce esattamente come piace a te"—garantendo risultati personalizzati e coerenti.
  • Accesso e convenienza: Fino al 23 settembre 2024, OpenAI offre fino a 1 milione di token di addestramento gratuiti al giorno, fornendo un'opportunità senza precedenti per le aziende e gli sviluppatori di sperimentare e perfezionare i loro modelli senza costi.
  • La mossa competitiva di Google: È notevole che l'API Gemini di Google abbia risposto offrendo 1,5 miliardi di token gratuiti al giorno, dimostrando l'intensa competizione nello spazio dell'IA per fornire servizi di IA accessibili e personalizzabili.

Implicazioni strategiche per le aziende

L'introduzione delle capacità di fine-tuning su GPT-4o offre alle aziende diversi vantaggi strategici:

  • Personalizzazione avanzata: Le aziende possono ora adattare il modello GPT-4o ai loro casi d'uso specifici, garantendo che l'IA comprenda e risponda in un modo che si allinei con gli obiettivi e il tono del brand dell'azienda. Ad esempio, un chatbot per il servizio clienti può essere ottimizzato per gestire domande specifiche del settore con maggiore precisione e rilevanza.
  • Implementazione rapida: Il processo di fine-tuning richiede tipicamente solo 1-2 ore, consentendo alle aziende di personalizzare e implementare rapidamente i loro modelli di IA. Questa rapidità è cruciale per mantenere l'agilità in mercati dinamici.
  • Proprietà e controllo: Le aziende mantengono la piena proprietà dei loro modelli personalizzati, dei dati e degli input/output. OpenAI ha anche implementato protocolli di sicurezza, inclusa la valutazione automatizzata continua della sicurezza, per prevenire usi impropri e garantire l'integrità degli output dell'IA.

Il successo di Genie

Un esempio recente del potere del fine-tuning proviene da un'azienda che ha ottenuto l'accesso anticipato al fine-tuning di GPT-4o. L'azienda ha sviluppato Genie, un modello personalizzato che ha raggiunto prestazioni all'avanguardia sui benchmark SWE-bench Verified (43,8%) e Full (30,1%). Questa storia di successo sottolinea il potenziale del fine-tuning per creare soluzioni di IA altamente specializzate ed efficaci che possono superare modelli più generici.

Impatto più ampio sul panorama dell'IA

Questa iniziativa di OpenAI segue la più ampia tendenza a rendere l'IA più democratica, rendendola più accessibile e versatile per una varietà maggiore di utenti. Abbassando le barriere all'ingresso—sia in termini di costi che di complessità tecnica—OpenAI sta abilitando una nuova ondata di innovazione. Le aziende che in precedenza potevano essere riluttanti ad adottare l'IA a causa di preoccupazioni sulla rilevanza o sul controllo possono ora integrare l'IA nelle loro operazioni con maggiore fiducia.

Inoltre, il tempismo di questo rilascio insieme all'offerta di token gratuiti suggerisce che OpenAI si stia posizionando strategicamente per ottenere un'adozione diffusa di GPT-4o prima della fine del periodo promozionale. Questo potrebbe portare a un aumento significativo dell'uso dell'IA nei vari settori, consolidando ulteriormente i modelli di OpenAI come standard nelle soluzioni di IA per le imprese.

Perché il fine-tuning è importante

La capacità di fine-tuning di OpenAI per GPT-4o rappresenta un cambiamento radicale per le aziende che cercano di sfruttare il potere dell'IA in modo più efficace. Consentendo una maggiore personalizzazione e controllo, OpenAI sta dando alle organizzazioni la possibilità di sviluppare soluzioni di IA che non solo sono potenti, ma anche allineate in modo preciso con le loro esigenze.

Man mano che l'IA continua a evolversi, tali funzionalità diventeranno probabilmente sempre più importanti nel determinare quali piattaforme e modelli domineranno il mercato.

Per le aziende, è ora il momento di esplorare queste capacità e considerare come il fine-tuning possa migliorare le loro iniziative basate sull'IA.

Questo sviluppo segnala anche un cambiamento più ampio nell'industria dell'IA verso modelli più orientati all'utente che danno priorità all'adattabilità e alla facilità d'uso—qualità che saranno cruciali man mano che l'IA diventerà sempre più integrata nelle operazioni aziendali quotidiane.

Migliorare la collaborazione con la funzione Artifacts di Claude.ai

Claude.ai ha introdotto una nuova e potente funzionalità chiamata Artifacts, ora disponibile per tutti gli utenti nei piani Free, Pro e Team. Questa funzione trasforma il modo in cui gli utenti interagiscono con Claude.ai, favorendo un ambiente più creativo e collaborativo, trasformando le conversazioni in prodotti di lavoro di alta qualità e attuabili.

Questo capitolo esplorerà le capacità di Artifacts, i suoi benefici per i diversi ruoli all'interno di un team e i vantaggi strategici che offre alle aziende che cercano di semplificare i loro flussi di lavoro.

Il potere degli Artifacts

Gli Artifacts sono progettati per essere un elemento centrale nell'esperienza di Claude.ai, offrendo agli utenti uno spazio dedicato per visualizzare, iterare e costruire sul lavoro creato con Claude. Dal suo lancio iniziale come anteprima funzionale a giugno, gli Artifacts hanno rapidamente guadagnato terreno, con gli utenti che ne hanno creati decine di milioni. Questa adozione evidenzia il potenziale dello strumento di migliorare significativamente la produttività e la collaborazione all'interno dei team.

Funzionalità chiave di Artifacts

  • Diagrammi di architettura per sviluppatori: Gli sviluppatori possono sfruttare gli Artifacts per creare diagrammi di architettura direttamente dalle loro basi di codice, facilitando una comunicazione più chiara dei sistemi complessi e consentendo iterazioni più rapide su design e implementazione.
  • Prototipi interattivi per i product manager: I product manager possono utilizzare gli Artifacts per creare prototipi interattivi. Questa capacità consente un rapido test delle funzionalità e iterazioni, garantendo che i prodotti possano essere rapidamente raffinati e ottimizzati in base al feedback degli utenti e ai risultati dei test.
  • Dashboard delle campagne per i marketer: I marketer possono progettare e condividere dashboard delle campagne complete di metriche di performance. Questo non solo migliora la visibilità degli sforzi di marketing, ma consente anche decisioni più guidate dai dati e regolazioni in tempo reale.

Funzionalità collaborative e accessibilità

Gli Artifacts non riguardano solo la creazione; si tratta di collaborazione e condivisione tra team e la community più ampia:

  • Coinvolgimento della community: Gli utenti dei piani Free e Pro possono pubblicare e remixare gli Artifacts, interagendo con una comunità globale di utenti di Claude.ai. Questa funzionalità consente il miglioramento collettivo e l'innovazione dei prodotti di lavoro, poiché gli utenti possono costruire sulle idee e soluzioni degli altri.
  • Collaborazione del team: Per gli utenti del piano Team, gli Artifacts possono essere organizzati e condivisi all'interno dei Progetti, permettendo ai membri del team di collaborare in modo sicuro. Questo garantisce che tutti nel team siano allineati e possano contribuire al successo del progetto, indipendentemente da dove si trovino.

Implicazioni strategiche di Artifacts per le aziende

L'introduzione degli Artifacts offre diversi vantaggi strategici per le aziende:

  • Flusso di lavoro accelerato: Consentendo una creazione e iterazione più rapida dei prodotti di lavoro, gli Artifacts aiutano i team a ridurre il time-to-market per nuove funzionalità, campagne e prodotti. Questa velocità è cruciale nel panorama competitivo odierno, dove l'agilità spesso definisce il successo.
  • Collaborazione migliorata: La possibilità di collaborare sugli Artifacts all'interno di Progetti sicuri garantisce che i team possano lavorare insieme in modo più efficace, abbattendo i silos e favorendo un approccio più integrato alla risoluzione dei problemi e all'innovazione.
  • Impatto più ampio attraverso la comunità: La possibilità di condividere e remixare gli Artifacts nella comunità di Claude.ai apre opportunità per l'impollinazione incrociata di idee e best practices, consentendo alle aziende di beneficiare dell'intelligenza collettiva della base utenti globale della piattaforma.

Perché gli Artifacts sono importanti

Gli Artifacts rappresentano un passo avanti significativo nel modo in cui i team possono utilizzare l'IA per migliorare creatività, collaborazione e produttività. Rendendo questa funzionalità ampiamente disponibile per tutti i livelli di utenti e integrandola nelle app mobili, Claude.ai garantisce che queste capacità siano accessibili e convenienti. Per le aziende, l'adozione strategica degli Artifacts può portare a flussi di lavoro più efficienti, una migliore collaborazione e, in ultima analisi, risultati più positivi. Man mano che i team continuano a esplorare e utilizzare questi strumenti, il potenziale per l'innovazione e il miglioramento è immenso, posizionando Claude.ai come un hub centrale per il lavoro creativo e produttivo guidato dall'IA.

Daniele Grandini

Daniele Grandini

Ha più di 30 anni di esperienza nel campo delle applicazioni e dei sistemi distribuiti, con competenze in sviluppo software, architetture di monitoring, progettazione di servizi gestiti e soluzioni cloud ibride.
È Microsoft MVP dal 2009 e speaker in diverse conferenze nazionali.
In qualità di Chief Innovation Officer, coordina le iniziative per i servizi gestiti e data analytics e AI in Impresoft 4ward.