top of page

Google rompe il gioco: i modelli che imparano da soli sono qui


Negli ultimi anni, i modelli di intelligenza artificiale – in particolare i grandi modelli linguistici (LLM) – hanno fatto passi da gigante. Oggi riescono a scrivere sonetti o generare codice in pochi secondi, supportando i marketer in attività che vanno dalla creazione di contenuti all’analisi dei dati. Eppure, presentano ancora un limite fondamentale: non possono apprendere in tempo reale dall’esperienza. Una volta addestrato e messo in produzione, un modello tradizionale diventa in pratica statico: le sue “conoscenze” restano bloccate al momento del training, salvo costosi ri-addestramenti periodici. In altre parole, gli LLM odierni non imparano più nulla di nuovo mentre li usiamo – un po’ come un neoassunto che, dopo il primo giorno di formazione, non potesse mai più aggiornare le sue competenze.

Questa situazione può apparire paradossale se confrontata con l’apprendimento umano. Il cervello umano è infatti il nostro riferimento d’oro: grazie alla neuroplasticità, continuiamo a imparare e ad adattarci per tutta la vita, integrando nuove informazioni senza cancellare i ricordi passati. Al contrario, i modelli attuali sono paragonabili a una persona affetta da un’amnesia anterograda: riescono a utilizzare ciò che già sanno, ma non possono creare nuovi ricordi a lungo termine. Se forniamo a ChatGPT un’informazione oggi, domani non la “ricorderà” a meno che non venga ri-addestrato con quell’informazione. Questa incapacità di acquisire nuove conoscenze senza dimenticare le vecchie è nota come “dimenticanza catastrofica” (in inglese catastrophic forgetting)

Per anni, i ricercatori hanno cercato di attenuare il problema del dimenticamento catastrofico con accorgimenti alle architetture o agli algoritmi di training. Ma una svolta concettuale è arrivata da Google Research (NeurIPS 2025) con un approccio totalmente nuovo chiamato Nested Learning (letteralmente: apprendimento nidificato) in un paper che è stato pubblicato 6 giorni fa, vi lasciamo qui il link nel caso lo voleste approfondire.


Oggi quindi nel nostro blog parleremo proprio di cos’è il Nested Learning, come funziona la sua ottimizzazione nidificata con memorie a diverse scale temporali, e perché potrebbe rivoluzionare i modelli AI continui e quali implicazioni future questa innovazione potrebbe comportare.

ree

Apprendimento statico vs apprendimento continuo: la metafora della memoria

ree

Per afferrare la portata del cambiamento, iniziamo con una metafora semplice ma efficace: la memoria umana. Immaginate un professionista di marketing che, dopo un intenso corso di formazione iniziale, non possa più imparare nulla di nuovo. Ogni nuova esperienza – una campagna lanciata, un feedback ricevuto, un trend di mercato – scivola via senza lasciare traccia. Sembra assurdo, vero? Eppure è esattamente così che opera un modello AI tradizionale. Durante la fase di training “ingurgita” enormi quantità di dati e aggiorna i suoi parametri (pesi neurali) per ottimizzare le prestazioni. Ma una volta terminato l’addestramento, al momento del deployment, il modello congela quei parametri. In produzione non avviene più alcun apprendimento: il modello si limita ad applicare ciò che ha già “vissuto” in fase di training, un po’ come un robot con una memoria di sola lettura. Se l’ambiente circostante cambia o compaiono dati nuovi, l’AI non li integra nella propria conoscenza a meno di essere ri-addestrata offline da zero o quasi. Probabilmente alcuni di voi a questo punto si stanno chiedendo: ma come mai quando interagisco con Chat GPT o altri LLM ho la sensazione che mi conoscano di più? Non imparano anche loro? In realtàil concetto di Nested Learning cambia radicalmente le regole del gioco rispetto al modo in cui modelli come ChatGPT (in particolare quelli basati su Transformer) funzionano oggi. Proviamo a spiegarvelo in modo semplice, ma accurato.

Modelli come Chat GPT (e modelli simili) non imparano quando interagiscono con te. Ogni conversazione: non aggiorna i suoi pesi interni, non modifica la sua memoria e soprattutto viene trattata come stateless (senza memoria persistente).

Quindi, anche se ti sembra che "capisca di più col tempo", in realtà sta solo usando meglio il contesto fornito nella conversazione corrente e applica ciò che ha già imparato durante il pre-training e (eventualmente) il fine-tuning.

Il modello viene allenato offline, su testi provenienti (anche) dal web – sì, anche via scraping – ma questa fase è una tantum, dura settimane o mesi e soprattutto una volta finito il training, i pesi sono congelati. Il modello non può aggiornarsi con nuove fonti a meno che venga ri-addestrato da zero o quasi (un processo lungo e costoso).


Al contrario, l’apprendimento continuo è la capacità di un sistema di adattarsi costantemente, acquisendo nuove competenze senza perdere quelle acquisite in precedenza. Tornando alla metafora, è la condizione del marketer ideale: ogni progetto, successo o fallimento arricchisce la sua esperienza; ciò che impara oggi si somma a quanto appreso ieri. All’aumentare delle sfide, la sua memoria si espande invece di sovrascriversi. Allo stesso modo, immaginiamo un’AI in grado di aggiornare i propri parametri “al volo”, man mano che riceve nuovi input dal mondo reale, il tutto senza azzerare la conoscenza pregressa. Sarebbe un modello capace di imparare sul campo, giorno dopo giorno, proprio come noi esseri umani.

Un ulteriore paragone suggestivo è quello di un’orchestra. Un modello statico è come un’orchestra che, dopo un’unica prova generale, esegue sempre lo stesso spartito senza mai improvvisare né assimilare nuove melodie. Ogni musicista segue rigidamente il copione, tutti allo stesso tempo, incapaci di reagire se il pubblico cambia gusto o se il direttore volesse inserire una variazione. Un modello ad apprendimento continuo, invece, assomiglia a un’orchestra “multi-tempo” jazz: le varie sezioni dell’orchestra possono suonare a ritmi diversi, improvvisare ed elaborare nuovi motivi all’istante, restando però in armonia tra loro. Alcuni strumenti (metaforicamente, alcuni livelli del modello) reagiscono e si adattano molto rapidamente al tema del momento, mentre altri mantengono il tempo lento e costante, consolidando i temi portanti. Il risultato è una sinfonia in evoluzione: l’orchestra nel suo insieme continua a suonare in modo coerente, ma il brano musicale può arricchirsi e trasformarsi col passare del tempo. Allo stesso modo, un’AI che apprende continuamente avrebbe componenti veloci (che immagazzinano le novità fresche) e componenti lente (che custodiscono la conoscenza stabile), cooperando per adattarsi senza perdere il filo. Questa visione orchestrale ci introduce al cuore del Nested Learning.


Il paradigma Nested Learning: ottimizzazione nidificata e memoria a diverse scale


ree

Il Nested Learning (NL) è un nuovo paradigma che ripensa radicalmente l’architettura e il funzionamento dei modelli di deep learning, con l’obiettivo di abilitare un apprendimento continuo senza dimenticanza catastrofica. Invece di vedere un modello come un’unica rete neurale addestrata da un singolo algoritmo di ottimizzazione, NL ci invita a immaginarlo come un sistema di più problemi di apprendimento annidati uno dentro l’altro (o in parallelo), ciascuno con il proprio flusso di informazioni e il proprio ritmo di aggiornamento. In altre parole, architettura del modello e algoritmo di training non sono più concetti separati, ma diventano diversi livelli di ottimizzazione all’interno dello stesso sistema.


ree

In concreto, cosa significa tutto questo? Vediamo i tre pilastri principali del Nested Learning:



Pilastro 1: Livelli multipli di ottimizzazione nidificata


Tradizionalmente, durante il training si utilizza un ottimizzatore globale (per esempio Adam o SGD) che aggiorna tutti i pesi della rete sulla base dell’errore commesso. Nel Nested Learning, invece, ogni componente o layer del modello ha un proprio ottimizzatore interno e un proprio ciclo di apprendimento. I vari livelli del modello vengono aggiornati con frequenze differenti: alcune parti dei parametri si aggiornano ad alta frequenza (ad ogni nuovo dato o quasi), altre a bassa frequenza (dopo aver accumulato più esperienza). In pratica si introduce un’ordinamento gerarchico per frequenza di aggiornamento: i parametri che cambiano spesso rappresentano livelli “interni” (rapidi e plastici), mentre quelli che cambiano di rado costituiscono livelli “esterni” (lenti e stabili). Questa gerarchia di apprendimenti nidificati fa sì che il modello non sia più un blocco monolitico, ma un insieme di apprendisti che operano ciascuno con il proprio ritmo. I ricercatori di Google hanno dimostrato che molti elementi noti delle reti neurali possono essere reinterpretati sotto questa luce: ad esempio, il processo di backpropagation classico può essere visto come un modulo di memoria associativa che insegna alla rete a mappare ogni input sull’“errore” (surprise) corrispondente, e perfino il meccanismo di attention nei Transformer può essere formalizzato come un semplice modulo di memoria associativa tra token. In sostanza, l’apprendimento profondo tradizionale viene smascherato come un’illusione: quella “profondità” non è altro che l’effetto di tanti processi di apprendimento più semplici, annidati e coordinati su diverse scale.

In chiave pratica, questo approccio nidificato consente di progettare modelli con una “profondità computazionale” maggiore. Invece di aggiungere semplicemente più strati (layers) al modello, possiamo impilare livelli di ottimizzazione: ad esempio, un livello potrebbe aggiornare i suoi parametri ad ogni parola elaborata, mentre un altro li aggiorna solo dopo aver visto un intero paragrafo, e un altro ancora solo dopo aver letto un intero capitolo. Questa struttura multi-livello, finora “invisibile”, apre una nuova dimensione nell’architettura delle reti neurali. Il risultato è un equilibrio dinamico tra plasticità e stabilità: i livelli interni garantiscono reattività e adattamento rapido alle novità, quelli esterni assicurano coerenza e memoria a lungo termine. Ricordate l’orchestra multi-tempo? Alcuni musicisti (livelli) suonano veloci per seguire l’attimo, altri tengono un tempo più lento per mantenere la struttura del brano.


Pilastro 2: Memorie a diverse scale temporali (Continuum Memory System)


Un secondo pilastro del Nested Learning riguarda la gestione della memoria interna del modello. Nei modelli sequenziali standard (come i Transformer), di solito distinguiamo tra una memoria a breve termine – tipicamente l’attenzione che gestisce il contesto locale entro la finestra di input – e una memoria a lungo termine – spesso rappresentata dai pesi statici della rete addestrati sul corpus, che contengono conoscenza generale. Questa è una visione binaria (breve vs lungo termine) e rigida. Il team di Google l’ha estesa concettualizzando un Continuum Memory System (CMS), cioè un sistema di memorie su tutto lo spettro delle durate. In un CMS, il modello dispone di una catena di moduli di memoria (es. blocchi feed-forward), ognuno incaricato di immagazzinare informazioni a una certa scala temporale. Per esempio, il primo modulo potrebbe aggiornarsi ad ogni nuovo token elaborato (memoria effimera, simile alla working memory umana), il secondo modulo aggiorna i suoi parametri ogni 100 token, il terzo ogni 1000, e così via. Ciascun blocco comprime quindi nel proprio stato un diverso orizzonte temporale del contesto recente. In termini pratici, è come dotare il modello di strati di memoria: dal pronto intervento per informazioni freschissime fino all’archivio di conoscenza consolidata. Non c’è più una netta separazione tra memoria breve e lunga, ma un continuum di “memorie intermedie” che si sfumano l’una nell’altra. Questa architettura continua ricorda da vicino i meccanismi del cervello biologico, dove diverse regioni e sinapsi consolidano ricordi su tempi differenti – dall’attività elettrica rapida (onde cerebrali) fino ai cambiamenti sinaptici lenti durante il sonno. L’effetto? Il modello può gestire contesti molti più lunghi in ingresso senza perdere il filo, perché non è costretto a dimenticare informazioni passate man mano che arrivano le nuove: le incorpora progressivamente a livelli sempre più stabili. In chiave di marketing, immaginate un’AI che ricorda le interazioni con un cliente non solo nell’ultima sessione (memoria a breve termine), ma che consolida gradualmente preferenze e storie pregresse in memorie di medio e lungo termine – potremmo avere assistenti virtuali e sistemi di raccomandazione con una memoria “viva” del cliente che si costruisce nel tempo.


Pilastro 3: Auto-modifica dei parametri e architetture auto-apprendenti


Il terzo aspetto, forse il più affascinante, è la capacità di un modello Nested Learning di auto-modificare i propri parametri in maniera controllata. In un classico modello statico, i parametri sono aggiornati solo dall’algoritmo di training esterno. Nel paradigma NL, alcune parti della rete possono invece aggiornarsi da sole, in funzione di ciò che apprendono. Questo porta a concetti come architetture auto-referenziali o auto-riflettenti: il modello impara come aggiornare sé stesso. Sembra fantascienza, ma il prototipo sviluppato dai ricercatori di Google va proprio in questa direzione.

Il modello di prova si chiama HOPE – acronimo che sta per Hierarchical Optimization of Predictive Ensembles, ovvero Ottimizzazione Gerarchica di Insiemi Predittivi. HOPE è una particolare architettura sequenziale ricorrente e self-modifying, ispirata a un precedente modello di memoria a lungo termine chiamato Titans. Titans aveva già la capacità di memorizzare eventi sorprendenti incontrati durante l’uso (un tipo di apprendimento in-context), ma era limitato a soli due livelli di aggiornamento dei parametri. HOPE ne estende i principi in due modi chiave:

  • Auto-apprendimento ricorsivo: il cuore di HOPE include un meccanismo ricorrente auto-referenziale, in grado di ottimizzare la propria memoria attraverso un processo auto-modificante. In pratica, il modello contiene una sorta di metamodello interno che osserva il proprio stato e può apportare piccoli aggiustamenti ai propri pesi, imparando come apprendere. Questa loop infinita di apprendimento su sé stesso consente in teoria infiniti livelli nidificati: il modello che impara, impara a migliorare come impara, e così via all’infinito. È come se un musicista nell’orchestra non solo suonasse lo strumento, ma ascoltandosi imparasse istantaneamente a suonare meglio la prossima nota.

  • Continuum Memory integrato: oltre all’auto-modifica, HOPE integra esplicitamente i blocchi a diversa frequenza del Continuum Memory System. Significa che la rete HOPE è costruita come una catena di moduli feed-forward (FFN) disposti in ordine dal più veloce al più lento, ciascuno con un proprio intervallo di aggiornamento . Si può immaginare una pipeline multi-strato: il primo strato si adatta di continuo alle ultime parole o dati in ingresso, gli strati successivi recepiscono solo di rado gli aggiornamenti, consolidando conoscenze su periodi più lunghi. In più, HOPE mantiene anche un componente di tipo attention per gestire contesti estesi, aiutato dalla memoria aggiuntiva dei moduli CMS. Il tutto permette al modello di scalare a finestre di contesto molto ampie (testi lunghi) senza perdere colpi, e di avere contemporaneamente flessibilità nel breve periodo e stabilità nel lungo.


In parole povere, HOPE incarna il paradigma Nested Learning: unendo ottimizzatori profondi (deep optimizers) su più livelli, una memoria continua multi-scala e la capacità di auto-aggiornarsi, questo modello dimostra che l’apprendimento continuo non è solo teoricamente possibile, ma concretamente attuabile.


Dai limiti degli LLM attuali alle nuove potenzialità di HOPE


Gli attuali LLM come GPT o altri transformer eccellono nel generare testo e nel riconoscere schemi noti nei dati di training, ma rimangono bloccati nel tempo. Sono, per così dire, giganti con i piedi d’argilla: enormi basi di conoscenza ma incapaci di adattarsi fluidamente al di fuori di ciò che hanno appreso offline. Abbiamo già sottolineato come questi modelli non possano memorizzare nuove informazioni a lungo termine durante l’uso quotidiano. Ogni interazione è isolata: l’LLM “dimentica” la conversazione precedente a meno che non sia fornita di nuovo nel prompt (entro i limiti della finestra di contesto). Inoltre, se provassimo ingenuamente ad aggiornare i pesi di un LLM esistente con nuovi dati man mano che arrivano, quasi certamente comprometteremmo le conoscenze pregresse – l’equivalente digitale di cancellare vecchi ricordi sovrascrivendoli con i nuovi (il famigerato catastrophic forgetting). Questo limite rende gli LLM attuali poco adatti a scenari di apprendimento continuo: pensiamo a un chatbot che deve imparare dal dialogo con un cliente nel tempo, o a un algoritmo di raccomandazione che deve aggiornarsi ad ogni clic dell’utente. Oggi queste cose si possono fare solo con workaround (ad esempio, mantenendo esternamente lo storico e ritrainando modelli più piccoli, oppure con tecniche di fine-tuning che però richiedono attenzione per non degradare le performance precedenti).

Con il Nested Learning e modelli come HOPE, questo scenario cambia radicalmente. Google definisce questo paradigma una base solida per colmare il divario tra la natura “smemorata” degli LLM odierni e le notevoli capacità di apprendimento continuo del cervello umano. In pratica, HOPE e simili promettono LLM che non rimangono fermi alla conoscenza di ieri. Le nuove informazioni non rimpiazzano brutalmente le vecchie, ma vengono assorbite in modo graduale e stratificato attraverso i vari livelli di memoria. Possiamo paragonare un LLM statico a un esperto enciclopedico che però non legge più giornali dopo il 2021; HOPE sarebbe invece come un collega che ogni giorno legge le notizie, aggiorna le sue competenze e ricorda sia i fatti recenti sia quelli appresi in passato, dando il meglio di sé integrando entrambe le cose.

Oggi tendiamo a “imbottire” gli LLM di tutto lo scibile umano fino ad una certa data, sperando che abbiano già dentro ogni risposta possibile. Con modelli tipo HOPE, potremmo invertire l’approccio – addestrarli con una buona base di partenza e poi lasciarli crescere in autonomia, assimilando via via nuove conoscenze in tempo reale. Immaginate le potenzialità: niente più modelli obsoleti perché addestrati su dati vecchi di anni, niente più voraci re-training massivi per aggiornarli. Un LLM continuo potrebbe imparare sul momento nuovi slang dei consumatori, nuove informazioni sui prodotti, cambiamenti nel mercato, adattando le sue risposte e strategie di conseguenza.

Un altro limite attuale dei modelli è la finestra di contesto limitata – ad esempio, modelli con 4k o 32k token di contesto non possono “ricordare” documenti più lunghi di così in una singola query. HOPE invece, grazie alla Continuum Memory, ha dimostrato di saper gestire contesti molto più lunghi in modo efficiente, impiegando la sua memoria multi-scala per non perdere i dettagli importanti anche in testi estesi. In termini pratici, questo significa poter analizzare interi customer journey o grandi moli di dati sequenziali senza dover spezzare il problema in tronconi indipendenti.

Dal punto di vista delle prestazioni, i primi risultati sono incoraggianti. Il modello HOPE ha ottenuto performance superiori rispetto ai modelli di riferimento (Transformer standard, modelli ricorrenti avanzati, ecc.) sia in compiti di modellazione linguistica (misurati in perplessità, dove più bassa è meglio) sia in compiti di ragionamento e buon senso (misurati in accuratezza). In altre parole, oltre a imparare continuamente, HOPE fa anche meglio dei modelli statici della stessa taglia nei test. È un segnale che aggiungere questa dimensione di apprendimento nidificato e memoria continua non è solo un esercizio teorico, ma porta benefici tangibili in termini di capacità di comprensione e risposta dell’AI.

Naturalmente, HOPE è ancora un prototipo di ricerca. Ma rappresenta una prova concreta che superare i limiti attuali è possibile. Si apre così una nuova strada: invece di rassegnarci ai difetti strutturali degli LLM (dimenticanza, staticità, contesto limitato) e cercare solo di mitigarli, possiamo riprogettarli perché non abbiano affatto quei limiti. È un cambio di paradigma paragonabile a passare dai telefoni fissi agli smartphone: non si tratta solo di migliorare un po’ la rubrica telefonica, ma di immaginare un dispositivo che impara, si adatta e diventa più “intelligente” man mano che lo usi.


Implicazioni future: dall’AI viva al marketing personalizzato e oltre


Cosa comporterà, in concreto, l’avvento di modelli in grado di apprendere in tempo reale? Le implicazioni si giocano su due piani strettamente intrecciati: tecnologico e di business/marketing. Da un lato, il Nested Learning avvicina l’AI a un funzionamento più “vivo” e adattivo, un passo ulteriore verso l’obiettivo di un’intelligenza artificiale generale (AGI) capace di apprendere continuamente dal mondo. Dall’altro, per chi utilizza queste tecnologie – come i marketer – potrebbero aprirsi possibilità finora impensabili nella personalizzazione e automazione. Esploriamo alcune di queste prospettive futuribili:

  • Personalizzazione in tempo reale potenziata: Oggi la personalizzazione nel marketing si basa su dati storici (segmentazioni, profili) e modelli predittivi addestrati su quei dati. Con un modello auto-apprendente, la personalizzazione può diventare dinamica e individuale al 100%. Immaginiamo un e-commerce con un assistente AI integrato: mentre l’utente naviga, l’AI impara immediatamente dai suoi comportamenti – cosa clicca, quanto tempo resta su una pagina, cosa inserisce nel carrello – e adatta in tempo reale le raccomandazioni di prodotti, i messaggi e le offerte. Non parliamo più di segmenti predefiniti, ma di un “segmento di uno”, dove ogni singola interazione aggiorna il profilo e le successive azioni dell’AI. Ad esempio, se un cliente mostra improvviso interesse per una nuova categoria di prodotto, il sistema lo coglie e modifica all’istante le proposte su sito, app, email marketing, in modo coerente. Questa personalizzazione continuativa crea esperienze utente iper-rilevanti, quasi anticipando i bisogni in evoluzione del cliente.

  • Customer journey adattivi e learning loop col cliente: Nel classico funnel di marketing, spesso progettiamo percorsi cliente basandoci su comportamenti medi o su scenari previsti. Con modelli che apprendono in tempo reale, il customer journey diventa adattivo. L’AI potrebbe capire da segnali deboli che un certo cliente sta cambiando atteggiamento (es. passa da curiosare a confrontare attivamente i prezzi) e di conseguenza modificare il percorso: magari offrendo più contenuti informativi invece di promozioni, o viceversa, in quel preciso momento. Si può pensare al journey come a un dialogo costante tra il cliente e l’AI: ogni azione dell’utente è un feedback che l’AI incorpora nei propri modelli decisionali, influenzando la prossima azione di marketing. Si crea così un ciclo di apprendimento reciproco: il cliente “allena” l’AI sul proprio caso, e l’AI accompagna il cliente in un’esperienza sempre più su misura. Tutto questo senza dover attendere analisi mensili sui dati o rifare campagne: accade nell’hic et nunc digitale.

  • Gestione dei dati ed evoluzione delle piattaforme: Un’AI che apprende continuamente avrà bisogno di alimentarsi di dati in streaming costante. Questo significa che le nostre infrastrutture di data management dovranno supportare flussi in tempo reale, integrazione immediata delle nuove informazioni e forse meno batch processing notturni. Curiosamente, modelli come HOPE internalizzano parte della funzione di storage: invece di salvare ogni interazione in un database per poi rielaborarla offline, l’AI stessa incorpora l’esperienza acquisita nei propri pesi progressivamente. Ciò potrebbe ridurre la dipendenza da giganteschi data lake centralizzati per certe applicazioni (poiché il modello è esso stesso un database vivente di conoscenza aggiornata). Al tempo stesso, tracciabilità e governance dei dati diventano ancora più cruciali: dovremo monitorare cosa il modello sta imparando, assicurarci che i dati che assimila siano di qualità e privi di bias, e forse sviluppare tecniche per “far dimenticare” intenzionalmente al modello informazioni obsolete o errate. Le piattaforme MarTech potrebbero evolvere per interfacciarsi con modelli continui, fornendo flussi di dati e feedback loop automatici per tenere l’AI allineata agli obiettivi di business.

  • Automazione delle decisioni e marketing autonomo: Con modelli in grado di auto-migliorarsi, possiamo immaginare sistemi di marketing autonomo dove molte decisioni operative sono prese dall’AI con un grado crescente di autonomia. Ad esempio, un algoritmo di bidding pubblicitario continuo che impara dalle performance di ogni singola impression e aggiusta la strategia di offerta in tempo reale meglio di qualsiasi ottimizzazione manuale o basata su regole statiche. Oppure, un sistema di email marketing che testa automaticamente varianti di contenuto ad personam e impara dalle risposte (aperture, click, conversioni) a modulare tono e tempistiche per massimizzare l’engagement di ciascun destinatario. Man mano che l’AI dimostra di saper prendere decisioni efficaci e di correggersi quando sbaglia, i marketer potranno affidare al modello leve decisionali sempre più importanti: allocazione del budget tra canali, scelta del messaggio giusto per il giusto cliente nel momento giusto, gestione dinamica dei prezzi e promozioni… fino a scenari di campagne interamente orchestrate da un’AI che aggiusta il tiro giorno per giorno. L’automazione passerà da eseguire regole predefinite a imparare dalle proprie azioni per decidere meglio la volta successiva. Questo può portare a un marketing più rapido, agile e iper-efficiente, in cui le opportunità vengono colte nell’istante in cui si manifestano (pensiamo a trend virali lampo colti e sfruttati dall’AI prima che diventino ieri’s news).


Il nuovo ruolo dei marketer nell’era dell’apprendimento in tempo reale


Di fronte a questo quadro futuristico, sorge spontanea una domanda: che ruolo avranno i marketer umani in un contesto in cui i modelli di AI sono in grado di imparare e adattarsi da soli, in tempo reale? La risposta, a mio avviso, è tutt’altro che “nessuno” – anzi, il ruolo del marketer diventerà ancora più strategico e creativo. In uno scenario di marketing autonomo, i marketer dovranno trasformarsi da esecutori di tattiche a direttori d’orchestra (per tornare alla metafora musicale) dell’AI. Se oggi molto tempo è speso in configurazioni manuali, A/B test ripetitivi, analisi retrospettive di campagne, domani queste attività potranno essere gestite dall’AI che impara dai dati in autonomia. Il nostro compito sarà definire gli obiettivi, i vincoli e le linee guida entro cui l’AI dovrà muoversi. Ad esempio, l’AI potrà decidere la creatività ottimale per ogni utente, ma il marketer dovrà assicurarsi che tutte le varianti creative rispettino il brand voice e la strategia comunicativa complessiva. Diventeremo in un certo senso i mentori dei modelli: forniremo al sistema i giusti segnali di feedback (quali KPI ottimizzare, quali comportamenti penalizzare), cureremo la qualità dei dati di cui si nutre e interverremo nei casi in cui l’AI dovesse deviare in modo indesiderato (ad esempio, correggendo bias o scelte eticamente problematiche).

Inoltre, i marketer saranno cruciali per portare creatività ed empatia – qualità umane – dentro il ciclo di apprendimento dell’AI. Un modello che impara continuamente potrebbe scoprire pattern quantitativi nascosti, ma non avrà una visione strategica a lungo termine se non gliela diamo noi. Saremo noi a impostare le grandi direzioni: quali segmenti di pubblico coltivare, come definire la brand experience, quali valori comunicare. L’AI poi attuerà queste strategie adattandole finemente al pubblico, ma senza una bussola fornita da un marketer rischierebbe di ottimizzare meri numeri di breve periodo. Pensiamo ad esempio all’acquisizione clienti: un’AI senza guida potrebbe puntare solo a conversioni immediate, mentre un marketer potrà indirizzarla a bilanciare conversione e customer lifetime value, insegnandole (tramite obiettivi e metriche) che non tutti i lead sono uguali e che a volte è meglio investire su relazioni di qualità che su volumi effimeri.

Infine, con modelli che apprendono in tempo reale, emergerà una nuova responsabilità: quella di monitorare e interpretare l’apprendimento del modello. I marketer dovranno saper leggere gli output dell’AI non più come verità assolute, ma come riflesso di ciò che il modello ha appreso finora. Diventerà importante porci domande del tipo: da dove ha tratto questa conclusione il modello? Sta basandosi su dati aggiornati o su informazioni distorte? In un certo senso, saremo i tutor che aiutano l’AI a “studiare bene”, intervenendo se comincia a prendere brutte abitudini (ad esempio, se imparasse a spammare perché nel breve periodo magari aumenta i click, dovremo correggerlo prima che danneggi la customer experience a lungo termine).

In conclusione, l’avvento di Nested Learning e di modelli come HOPE rappresenta una svolta entusiasmante. Ci avviciniamo a macchine che non si limitano a rispondere, ma crescono ed evolvono assieme a noi. Per noi marketer “evoluti”, questo significa prepararsi a un salto di qualità: meno sforzo sulle operatività ripetitive e maggiore focus su visione, creatività, etica e strategia. L’AI continuerà a potenziare il nostro lavoro, ma in modo sempre più simbiotico: noi insegneremo ad essa i valori e gli obiettivi da perseguire, lei ci fornirà analisi e azioni ottimali apprese dal campo. Come in un duetto ben riuscito, l’umano e l’intelligenza artificiale suoneranno a tempi diversi ma in armonia, componendo insieme strategie di marketing più intelligenti, personalizzate e reattive che mai. In fondo, il futuro del marketing potrebbe essere proprio questo: un’arte a quattro mani tra l’estro umano e la memoria vivente delle macchine.

 
 
 

Commenti


bottom of page