Intelligenza artificiale, mercato del lavoro e delega cognitiva: a che punto siamo davvero e dove probabilmente andremo
Perché le narrazioni dominanti sono sbagliate
La tentazione ricorrente nel dibattito sull’AI è quella di scegliere una narrativa semplice. O la macchina distrugge il lavoro umano o non lo fa. O l’Europa è avanti grazie alla regolazione o è irrimediabilmente indietro per mancanza di investimenti. O il “professionista aumentato” è il paradigma del futuro o è una formula consolatoria per chi non vuole guardare in faccia la realtà.
La realtà che emerge dall’insieme dei dati disponibili nel primo trimestre 2026 — lo studio Anthropic di marzo, il report Forrester sul conversational banking, le analisi Goldman Sachs e JP Morgan sul mercato del lavoro, il Future Ready Lawyer 2026 — è più sfumata e, per certi versi, più preoccupante di qualsiasi scenario catastrofista. Non perché la catastrofe sia imminente, ma perché la trasformazione è già in corso in modo silenzioso, distribuito, difficile da misurare con gli strumenti tradizionali.
Il meccanismo reale: non licenziamenti, ma chiusura degli ingressi
La narrativa pubblica sull’AI e il lavoro si è concentrata sull’idea di sostituzione diretta: la macchina prende il posto dell’umano, l’umano è licenziato. Questo schema esiste, ma è marginale rispetto al fenomeno dominante.
Lo studio degli economisti Massenkoff e McCrory pubblicato il 5 marzo 2026 su milioni di interazioni reali con sistemi AI e sui dati del Bureau of Labor Statistics e della Current Population Survey descrive qualcosa di diverso: l’AI non licenzia, riduce le assunzioni. Quando una posizione si libera, spesso non viene rimpiazzata. Il processo è silenzioso, diffuso nel tempo, privo di conflittualità visibile e, proprio per questo, politicamente e socialmente difficile da gestire.
I numeri confermano la portata del fenomeno. Goldman Sachs documenta che tra i lavoratori di 22–25 anni nei settori esposti all’AI, l’occupazione è calata del 16% tra la fine del 2022 e la metà del 2025. Tra i giovani sviluppatori software il calo ha sfiorato il 20%. I dati di Revelio Labs citati da CNBC indicano che le offerte per posizioni entry-level sono diminuite di circa il 35% dal gennaio 2023. Non si tratta di licenziamenti: si tratta di porte che non si aprono più.
| Indicatore | Variazione |
|---|---|
| Occupazione 22–25 anni in settori esposti all’AI | −16% |
| Occupazione giovani sviluppatori software | −20% |
| Offerte per posizioni entry-level | −35% |
| Premio salariale per competenze AI | +56% |
| Erosione salariale nei ruoli cognitivi di routine | −8% / −15% |
| Aziende che usano AI regolarmente | meno del 10% |
| Gap adozione teorica vs. osservata (informatica) | 94% → 33% |
| Licenziamenti esplicitamente attribuiti all’AI (2025) | ~4,5% del totale |
Il dato più controintuitivo riguarda il profilo dei lavoratori più esposti. Non sono i profili a bassa qualifica. Sono quelli ad alta istruzione. Il premio salariale per i lavoratori con competenze AI è del 56% (PwC 2025), ma coesiste con un’erosione reale dei salari nell’ordine dell’8–15% per chi svolge ruoli cognitivi di routine. Analisti finanziari, sviluppatori software, professionisti legali, addetti ai servizi avanzati: l’AI entra esattamente dove il valore economico aggiunto è massimo.
La conseguenza strutturale di lungo periodo è grave e poco discussa: viene meno il percorso di apprendistato implicito attraverso cui le organizzazioni hanno sempre formato le generazioni successive. Un analista finanziario senior di quarant’anni ha costruito le proprie competenze partendo da mansioni routine: ricerca documentale, preparazione di bozze, analisi comparative. Se quelle mansioni spariscono prima che i giovani le abbiano svolte, chi formerà il prossimo ciclo di senior? È per questo che alcuni economisti, tra cui Erik Brynjolfsson, parlano dei giovani lavoratori come dei “canarini nella miniera” della trasformazione digitale.
Il gap tra potenziale e utilizzo reale: il grosso deve ancora arrivare
Un elemento dello studio Anthropic merita attenzione analitica separata perché sposta radicalmente la prospettiva temporale. I ricercatori distinguono tra “theoretical exposure” — ciò che l’AI potrebbe automatizzare — e “observed exposure” — ciò che automatizza effettivamente nei flussi di lavoro reali oggi.
Nel settore informatica e matematica, la copertura teorica raggiunge il 94% delle attività. Quella osservata è intorno al 33%. Due terzi dell’impatto potenziale non si è ancora materializzato. Non per limiti tecnologici, ma per motivi organizzativi, regolatori, culturali: l’integrazione nei processi reali richiede tempo, competenze di governance, decisioni di management. I dati del Census Bureau’s Business Trends and Outlook Survey mostrano che a metà 2025 meno del 10% delle aziende nell’economia complessiva dichiara di usare l’AI regolarmente, con la quota che sale a poco più del 20% nel settore dei servizi professionali, scientifici e tecnici.
Goldman Sachs stima che la timeline per un’adozione dell’AI su larga scala da parte delle aziende sia di circa dieci anni e che il 6–7% dei lavoratori sarà ricollocato durante quella transizione. Ma la variabile critica è la velocità: se la transizione è distribuita in un decennio, Goldman Sachs prevede un aumento del tasso di disoccupazione di 0,6 punti percentuali. Se è più concentrata nel tempo, gli impatti sull’economia sono molto più grandi.
Il paradosso è evidente: la trasformazione che stiamo osservando non è il punto d’arrivo ma il punto di partenza. E la distanza tra adozione dichiarata e utilizzo reale significa che una quota enorme di disruption occupazionale è ancora davanti a noi, non alle spalle.
Va aggiunto un elemento di cautela metodologica. Challenger, Gray & Christmas stima che i tagli esplicitamente attribuiti all’AI abbiano rappresentato solo il 4,5% circa dei licenziamenti totali del 2025. Quasi il 60% dei responsabili HR intervistati da Resume.org dichiara di enfatizzare il ruolo dell’AI nella riduzione del personale perché è percepita più favorevolmente di motivazioni come le difficoltà finanziarie o l’eccesso di assunzioni nel periodo precedente. Esiste, in altri termini, un “AI washing” delle ristrutturazioni aziendali che distorce le statistiche in entrambe le direzioni: sia sopravvalutando l’impatto attuale, sia oscurando i meccanismi reali.
La delega cognitiva: il rischio che non appare nei titoli dei giornali
Accanto all’impatto occupazionale, c’è un rischio di secondo livello che la letteratura tecnica comincia a trattare seriamente ma che il dibattito pubblico trascura sistematicamente: la delega cognitiva sistematica a sistemi che producono output plausibili ma non responsabili.
Non si tratta del problema delle allucinazioni — quello è noto, misurabile, in parte gestibile. Si tratta di qualcosa di più profondo: la tendenza a cedere il giudizio, la sintesi critica, la valutazione contestuale a sistemi che non hanno accesso alla realtà, non possono essere sanzionati per gli errori e non portano responsabilità professionale. Il problema è strutturale: riguarda la natura stessa dell’AI generativa, non i suoi difetti contingenti.
Tre esempi concreti illustrano la dimensione del fenomeno nei settori ad alto valore cognitivo.
- Nel diritto, i tribunali sanzionano gli avvocati per le allucinazioni dell’AI tenendo il legale pienamente responsabile indipendentemente da quale dipartimento abbia scelto lo strumento o da quanto fossero sofisticate le dichiarazioni del fornitore. Un’indagine a campione casuale del 2026 sui giudici federali americani rileva che più del 60% dei giudici che hanno risposto usa almeno uno strumento AI nel proprio lavoro, principalmente per la ricerca giuridica. Non si tratta di un’adozione marginale: l’AI è già dentro le camere dei giudici federali, già presente nei flussi di lavoro giudiziari, e sta già forzando risposte amministrative, procedurali e disciplinari. Il problema non è che l’AI entri nella pratica legale: è che lo fa più velocemente della capacità delle istituzioni di governarne l’uso, e che la delega di attività upstream — ricerca, sintesi documentale, organizzazione delle argomentazioni — condiziona il giudizio finale anche quando formalmente la decisione rimane umana.
- In medicina, la questione è analoga ma con conseguenze potenzialmente più gravi. L’AI consente di analizzare grandi volumi di dati e linee guida con maggiore efficienza e coerenza rispetto a un essere umano, ma manca del giudizio sfumato necessario nella medicina clinica reale. Le valutazioni AI potrebbero sovra-affidarsi alle linee guida retrospettive piuttosto che valutare il contesto in tempo reale in cui i medici operano, portando a conclusioni ingiuste sulla condotta ragionevole. La Texas SB 1188, entrata in vigore il settembre 2025, cerca di rispondere a questo rischio imponendo che il professionista riveda personalmente tutto il contenuto generato dall’AI prima di ogni decisione clinica e fornisca disclosure al paziente. È una risposta normativa corretta, ma parziale: impone la presenza formale del giudizio umano senza garantirne la qualità sostanziale.
- Nella finanza, la dinamica è ancora diversa. Qui il rischio non è tanto che il professionista deleghi il giudizio a un sistema opaco, quanto che il sistema modifichi strutturalmente il processo di formazione della domanda prima ancora che il cliente raggiunga un consulente. Un esempio: a inizio 2026, il 55% dei consumatori dichiara di usare l’AI per supportare le proprie decisioni di gestione finanziaria. Quando un potenziale mutuatario chiede a ChatGPT “mi conviene il tasso fisso o variabile?” e ottiene una risposta articolata, il suo frame mentale è già formato prima di parlare con qualsiasi consulente. Il consulente non gestisce più un processo decisionale aperto: gestisce una aspettativa già strutturata da un sistema che non conosce il profilo specifico del cliente, la sua storia creditizia reale, i suoi obiettivi a lungo termine.
Il credito conversazionale: dove cambia la struttura del mercato
Il caso MutuiOnline.it su ChatGPT — il lancio di un’app per la comparazione dei mutui direttamente dentro l’interfaccia conversazionale di OpenAI — è un indicatore preciso di una trasformazione più ampia nel retail finanziario.
Per decenni il potere distributivo nel credito era di chi erogava il prodotto, o in seconda istanza di chi comparava su piattaforme dedicate. Il modello era semplice: il cliente ha un bisogno, cerca una soluzione, valuta le opzioni disponibili su un canale che qualcuno controlla. La leva competitiva era sul prodotto (il tasso migliore), sul canale (la filiale, il comparatore) o sulla marca (la fiducia istituzionale).
Ora il vantaggio competitivo si sposta su chi intercetta la domanda nel momento in cui si forma — e questo momento avviene sempre più spesso dentro un’interfaccia conversazionale, non su un motore di ricerca o su una landing page. La ricerca Forrester del 2026 identifica tre scenari strategici per le banche: AI assistants di proprietà della banca integrati nei canali proprietari, engagement bancario via piattaforme di messaggistica di terze parti, e interazioni guidate da AI assistants di terze parti. Man mano che gli agenti AI di terze parti diventano più capaci, le banche rischiano di diventare invisibili nel customer journey e di perdere il controllo sulla relazione.
I numeri del settore sono inequivocabili sulla velocità della trasformazione. Il 73% delle banche globali ha già dispiegato almeno un chatbot AI nelle operazioni rivolte ai clienti nel 2025. Il settore bancario globale ha investito oltre 73 miliardi di dollari in tecnologie AI nel 2025, con un incremento del 17% rispetto all’anno precedente. JPMorgan Chase da sola alloca circa 2 miliardi specificatamente all’AI su un budget tecnologico di 18 miliardi, e circa 150.000 dipendenti usano modelli linguistici di grandi dimensioni ogni settimana.
Ma c’è un dato che segnala la distanza tra ambizione e realizzazione: il 95% delle implementazioni di AI generativa nei servizi finanziari rimane in fase pilota piuttosto che in produzione scalata, e solo 4 delle 50 maggiori banche hanno dichiarato un ritorno sull’investimento realizzato nel 2025. La finanza si muove velocemente verso il conversazionale, ma la vera integrazione — quella che cambia i processi decisionali e la struttura del mercato — è ancora prevalentemente prospettica.
Rimane una questione di fondo che il settore non può eludere: semplificare l’accesso a prodotti complessi come i mutui riduce le asimmetrie informative o le sostituisce con nuove opacità? Una chat ben costruita che orienta verso un prodotto non è necessariamente neutrale. E la responsabilità su questo punto — verso il cliente, verso il regolatore — non è ancora chiaramente attribuita a nessuno.
La questione europea: diagnosi corretta, implicazioni scomode
La posizione europea sull’AI è spesso presentata come un dilemma tra regolazione e competitività. La diagnosi più precisa è diversa, e vale la pena separarla in due componenti distinte.
Sul lato degli investimenti, il divario è abissale e non è imputabile alla regolazione. In ChatGPT sono stati investiti oltre 200 miliardi di dollari. In Italia il totale degli investimenti pubblici in AI è prossimo a zero. La Francia e il Regno Unito hanno stanziato cifre significative ma lontane dagli ordini di grandezza americani e cinesi. La struttura dei mercati dei capitali europei, la frammentazione degli ecosistemi di innovazione, l’assenza di grandi player tecnologici privati in grado di fungere da traino: questi sono i fattori strutturali del ritardo, non la burocrazia regolatoria.
Sul lato della governance, l’AI Act ha una logica che va letta separatamente dalla competitività industriale. Le sue norme si applicano a tutte le organizzazioni che trattano dati di cittadini europei, ovunque siano localizzate. Questo crea un effetto di standard globale per via della dimensione del mercato europeo — analogo a ciò che è accaduto con il GDPR. I sistemi AI ad alto rischio usati nel credit scoring, nei prestiti e nell’antiriciclaggio devono essere conformi all’AI Act entro il 2 agosto 2026, con sanzioni per la non conformità fino al 7% del fatturato globale annuo. Non è un caso che banche come JPMorgan, Goldman e Bank of America abbiano tutti team dedicati alla conformità con la regolazione europea, nonostante siano istituzioni americane.
L’articolo 4 dell’AI Act, dedicato esplicitamente all’alfabetizzazione in materia di AI, è il primo caso nella storia della regolamentazione comunitaria di una norma che affronta direttamente il problema della delega cognitiva a livello di sistema. È un approccio inedito, che considera il cittadino non solo come utente da proteggere ma come soggetto da dotare di strumenti per valutare criticamente ciò che usa. L’efficacia pratica di questa norma dipenderà dall’implementazione, che è ancora tutta da costruire.
Le finestre sul futuro: tre scenari per il 2028–2030
Tentiamo ora di distinguere tre scenari evolutivi, non come previsioni deterministiche ma come spazi di possibilità con diversi gradi di plausibilità.
Scenario A — integrazione graduale con adattamento organizzativo.
La timeline di adozione resta nell’ordine del decennio ipotizzato da Goldman Sachs. Le organizzazioni sviluppano capacità di governance AI interna, le professioni si adattano ridefinendo i confini del giudizio umano non delegabile, i sistemi formativi producono professionisti capaci di usare l’AI come moltiplicatore senza cedere ad essa la funzione cognitiva. In questo scenario Goldman Sachs prevede un aumento del tasso di disoccupazione di 0,6 punti percentuali nel lungo periodo, con creazione netta di lavoro nelle professioni tecniche fisiche: installatori di impianti, elettricisti, lavoratori edili per data center, con circa 500.000 nuovi posti solo negli USA entro il 2030 per soddisfare la domanda energetica dell’AI stessa. Goldman Sachs
Scenario B — frontloading dell’adozione con ricadute occupazionali concentrate.
L’integrazione AI accelera più del previsto, spinta da pressioni competitive e dal miglioramento rapido dei modelli agentici. Il World Economic Forum proietta 92 milioni di posti di lavoro spostati e 170 milioni creati entro il 2030, con un saldo netto positivo di 78 milioni ALM Corp, ma questa proiezione aggregata nasconde squilibri geografici, settoriali e generazionali enormi. I nuovi ruoli richiedono competenze diverse e in luoghi diversi rispetto a quelli eliminati. Dario Amodei, CEO di Anthropic, ha dichiarato nel 2025 che l’AI potrebbe eliminare circa il 50% delle posizioni entry-level white-collar entro cinque anni. Se questa stima fosse anche parzialmente corretta, la formazione del prossimo ciclo di senior professionals diventerebbe una questione sistemica di prima grandezza.
Scenario C — rallentamento per saturazione e reazione istituzionale.
L’adozione AI nei settori cognitivi ad alto valore incontra resistenze più forti del previsto: regolamentazione professionale stringente (ordini degli avvocati, delle professioni mediche), reazione dei clienti contro la deumanizzazione dei servizi, e difficoltà tecniche intrinseche nell’integrazione di sistemi agentici in processi organizzativi complessi. Il 70% delle organizzazioni finanziarie sta esplorando l’AI agentiva, ma solo il 14% ha raggiunto un’implementazione su scala completa — un dato che suggerisce la distanza tra intenzione e realizzazione. In questo scenario, l’impatto occupazionale rimane contenuto nel breve periodo, ma il divario di competitività tra chi integra e chi non integra si allarga silenziosamente.
| Scenario | Meccanismo dominante | Plausibilità |
|---|---|---|
| A — Integrazione graduale Goldman Sachs baseline |
Adozione distribuita nel decennio, governance interna sviluppata | media-alta |
| B — Frontloading WEF / Amodei |
Accelerazione competitiva, modelli agentici maturi, pressione sui costi | media |
| C — Rallentamento istituzionale scenario resistenza |
Regolazione professionale stringente, reazione clienti, difficoltà integrazione agentiva | media-bassa |
La variabile determinante: il costo della delega cognitiva non è solo individuale
C’è una dimensione del problema che il dibattito economico fatica a incorporare perché non compare nei modelli standard di produttività e occupazione: la delega cognitiva sistematica produce danni che si manifestano con un ritardo temporale significativo e che non sono distribuiti uniformemente.
Un avvocato che usa l’AI senza verificarne gli output non è un professionista aumentato: è un professionista che ha ceduto la propria funzione professionale mantenendo la responsabilità legale. Nel breve periodo questa modalità di lavoro è più veloce e apparentemente più efficiente. Nel medio periodo produce due effetti negativi: la qualità del giudizio professionale si degrada perché non viene esercitato, mentre il mercato non riesce a distinguere il buon professionista dal cattivo perché entrambi producono output apparentemente simili generati dallo stesso sistema. È la versione professionale del problema dei “limoni” di Akerlof: quando la qualità non è osservabile, il mercato converge verso il basso.
La risposta istituzionale — “chi usa l’AI rimane responsabile degli errori, indipendentemente dallo strumento” — è giuridicamente corretta ma economicamente insufficiente, perché non crea incentivi alla qualità della supervisione: crea solo incentivi alla copertura formale della supervisione. Un avvocato che firma un atto generato dall’AI dopo averlo letto distrattamente è formalmente conforme e sostanzialmente inadempiente. La differenza tra le due cose non è misurabile ex ante.
Il problema non riguarda solo le professioni liberali. Goldman Sachs avverte che durante la prossima recessione, la velocità e l’ampiezza dell’adozione degli strumenti AI potrebbe indurre una displacement su larga scala per le occupazioni che consistono principalmente in compiti cognitivi non-routine — e che, analogamente a ciò che è accaduto con le occupazioni di routine negli anni Ottanta e Novanta, il recupero occupazionale dopo la recessione potrebbe essere strutturalmente più lento del previsto. L’AI diventa un acceleratore dei cicli di “jobless recovery”.
La struttura del problema nei prossimi 36 mesi
Il quadro complessivo, sintetizzato nei suoi elementi essenziali:
- L’impatto osservabile è già significativo ma rappresenta una frazione dell’impatto potenziale. Il meccanismo dominante non è la sostituzione diretta dei lavoratori ma la riduzione delle assunzioni e la chiusura progressiva delle porte di ingresso, con effetti concentrati sui profili junior nelle professioni cognitive ad alto valore aggiunto. Il gap tra adozione dichiarata e integrazione reale nei processi è enorme e garantisce che la maggior parte della disruption sia ancora davanti, non alle spalle.
- Il rischio di delega cognitiva è strutturale, sottodiagnosticato e produce danni con un ritardo temporale che rende difficile la correzione in tempo utile. Non è risolvibile con norme che impongono la presenza formale del giudizio umano senza garantirne la qualità sostanziale.
- Le dinamiche distributive in settori come il credito si stanno ridisegnando più velocemente di quanto le istituzioni tradizionali riescano ad adattarsi, con uno spostamento del potere verso chi controlla il punto di primo contatto con la domanda — che oggi è sempre più spesso un’interfaccia conversazionale di terze parti.
- La variabile più incerta non è tecnologica. È organizzativa e istituzionale: con quale velocità e qualità le aziende, gli studi professionali, le banche, i sistemi formativi sapranno integrare questi strumenti ridefinendo i confini del giudizio umano non delegabile. La risposta a questa domanda dipende da strutture di incentivi, meccanismi di governance e processi culturali che si muovono molto più lentamente della tecnologia. Ed è precisamente questo disallineamento di velocità — non la tecnologia in sé — il cuore del problema.
Il meccanismo dominante non è la sostituzione diretta dei lavoratori, ma la riduzione progressiva delle assunzioni: quando una posizione si libera, spesso non viene rimpiazzata. I dati del primo trimestre 2026 mostrano un calo del 35% nelle offerte per posizioni entry-level dal gennaio 2023, con effetti concentrati sui profili junior nelle professioni cognitive ad alto valore aggiunto. La trasformazione è silenziosa, distribuita nel tempo e, per questo, difficile da governare con gli strumenti tradizionali.
Contrariamente all’intuizione comune, le professioni più esposte non sono quelle a bassa qualifica ma quelle ad alta istruzione con componente cognitiva routinaria: analisti finanziari, sviluppatori software, professionisti legali e addetti ai servizi avanzati. Tra i giovani sviluppatori software l’occupazione è calata del 20% tra fine 2022 e metà 2025. L’AI entra esattamente dove il valore economico aggiunto è massimo, rendendo obsolete le mansioni di apprendistato attraverso cui le organizzazioni hanno sempre formato le generazioni successive.
La delega cognitiva è la tendenza a cedere il giudizio critico, la sintesi e la valutazione contestuale a sistemi AI che producono output plausibili ma non portano responsabilità professionale. Il rischio non è tecnico ma strutturale: nel breve periodo aumenta l’efficienza apparente, nel medio periodo degrada la qualità del giudizio professionale perché non viene più esercitato. Il mercato non riesce a distinguere il buon professionista dal cattivo perché entrambi producono output generati dallo stesso sistema — una dinamica analoga al problema dei “limoni” di Akerlof.
I dati indicano un gap significativo tra ambizione e realizzazione: meno del 10% delle aziende nell’economia complessiva usa l’AI regolarmente, quota che sale a circa il 20% nel settore dei servizi professionali. Nel settore finanziario, il 95% delle implementazioni di AI generativa rimane in fase pilota piuttosto che in produzione scalata. Il divario tra adozione dichiarata e integrazione reale nei processi garantisce che la maggior parte della disruption sia ancora davanti a noi.
Gli scenari principali sono tre. Nel caso di adozione graduale (Goldman Sachs baseline), l’aumento della disoccupazione si limita a 0,6 punti percentuali con creazione netta di circa 500.000 posti fisici negli USA entro il 2030. Nello scenario di accelerazione competitiva, il WEF proietta 92 milioni di posti spostati e 170 milioni creati, con un saldo positivo che però nasconde squilibri geografici e generazionali rilevanti. La variabile determinante non è tecnologica ma organizzativa: la velocità con cui aziende e sistemi formativi sapranno ridefinire i confini del giudizio umano non delegabile.
L’AI Act europeo introduce obblighi specifici per i sistemi ad alto rischio in ambito creditizio e professionale, con sanzioni fino al 7% del fatturato globale per la non conformità entro agosto 2026. L’articolo 4, dedicato all’alfabetizzazione in materia di AI, è il primo caso nella storia regolatoria comunitaria di una norma che affronta direttamente il problema della delega cognitiva a livello sistemico. Il ritardo europeo rispetto agli USA non è imputabile alla regolazione, ma alla struttura dei mercati dei capitali e all’assenza di grandi player tecnologici privati in grado di fungere da traino.
Fonti: Anthropic Economic Research (Massenkoff, McCrory, marzo 2026); Goldman Sachs Research (2026); JP Morgan Global Research (2026); Forrester Research, State of Conversational Banking 2026; WEF Future of Jobs Report 2025; Future Ready Lawyer 2026 (Wolters Kluwer); Yale Budget Lab AI Labor Market Analysis (2025); Brookings Institution AI Displacement and Adaptive Capacity (febbraio 2026); PwC AI Jobs Barometer 2025; Challenger, Gray & Christmas (2025–2026).
