Il direttore commerciale di una piccola manifatturiera veneta presenta la sua richiesta di fido a una banca con cui lavora da quindici anni. Bilanci in ordine, nessun insoluto, fatturato stabile. La risposta arriva in quarantott’ore: rifiuto, senza spiegazioni articolate. Quello che l’imprenditore non sa — e che la banca non è tenuta a comunicargli nel dettaglio — è che la decisione è stata prodotta, in larga parte, da un sistema algoritmico che ha elaborato circa duecento variabili, molte delle quali non compaiono in nessun bilancio.
Questa scena non appartiene a un futuro prossimo. Accade già oggi, in Italia come nel resto d’Europa, con una frequenza che cresce di trimestre in trimestre. Secondo i dati diffusi da Banca AideXa — la prima banca digitale italiana dedicata esclusivamente alle micro e piccole imprese — circa il 90% delle valutazioni di merito creditizio è oggi supportato da sistemi di intelligenza artificiale. Non “aiutato”: supportato. La distinzione è importante, perché cambia radicalmente la prospettiva su chi ha il problema e su cosa può fare per affrontarlo.
Come funziona davvero lo scoring algoritmico
Il credit scoring non è una novità. Le banche attribuiscono punteggi di rischio ai richiedenti da decenni, basandosi su modelli statistici sviluppati internamente o acquistati da provider specializzati. Ciò che è cambiato negli ultimi cinque anni è la qualità e la quantità dei dati disponibili, e la capacità degli algoritmi di apprendimento automatico di trovare correlazioni che i modelli tradizionali non individuavano.
Il meccanismo di base funziona così: il sistema riceve in ingresso una serie di variabili — storiche, comportamentali, patrimoniali, a volte comportamentali in senso lato — e restituisce una probabilità di default entro un orizzonte temporale definito. Le variabili tradizionali erano sostanzialmente i dati di bilancio: indici di liquidità, leva finanziaria, copertura degli interessi, storico dei pagamenti. Quelle che oggi si aggiungono sono di natura diversa.
| Variabile analizzata | Scoring tradizionale | Scoring algoritmico | Fonte dati |
|---|---|---|---|
| Bilancio annuale | Sì | Sì | CCIAA / dichiarazioni fiscali |
| Centrale rischi / CRIF | Sì | Sì | Banca d’Italia / SIC privati |
| Flussi transazionali in tempo reale | No | Sì | Open banking PSD2 |
| Comportamento pagamenti verso fornitori | Parziale | Sì | Dati transazionali / trade data |
| Stagionalità dei ricavi | No | Sì | Movimentazione conto corrente |
| Dati sociodemografici e geolocalizzazione | No | Sì | Fonti aperte / integrazione API |
| Presenza e reputazione digitale | No | In alcuni modelli | Social media / recensioni |
| Spiegabilità della decisione | Alta | Limitata | — |
| Tempo medio di risposta | Settimane | Ore / giorni | — |
L’open banking, reso possibile dalla direttiva PSD2 recepita nell’ordinamento europeo, ha aperto un canale di dati prima inaccessibile: i movimenti transazionali del conto corrente aziendale. Una piattaforma come Faire.ai, che opera nel mercato italiano del credit scoring B2B, afferma di generare oltre cento indicatori finanziari esclusivamente dai flussi del conto, previa autorizzazione del titolare. Aidexa utilizza i dati transazionali degli ultimi dodici mesi per costruire un profilo creditizio che si aggiorna in tempo reale, superando il limite strutturale dei bilanci annuali: uno snapshot del passato, non una misura del presente.
I modelli più sofisticati — basati su algoritmi come XGBoost, Random Forest o reti neurali profonde — analizzano anche dati cosiddetti “alternativi”: comportamento sui social media, andamento delle recensioni online, velocità di risposta ai pagamenti verso fornitori, geolocalizzazione dell’attività. Opyn, altra fintech italiana attiva nel digital lending, ha descritto pubblicamente come i propri modelli integrino dati sociodemografici e fonti aperte per ampliare la base informativa, estendendo l’analisi anche a imprese che i sistemi tradizionali escluderebbero per mancanza di dati strutturati.
Il risultato pratico: tempi di risposta compressi — da settimane a sette giorni, in alcuni casi a poche ore — e capacità di servire segmenti di mercato che le banche tradizionali ignoravano per eccesso di costo istruttorio. Il costo dell’istruttoria varia poco tra un finanziamento da 50.000 euro e uno da 2 milioni: questo ha storicamente reso non conveniente il credito alle micro-imprese. Gli algoritmi lo rendono scalabile.
Lo scenario che cambia le condizioni della trattativa
Consideriamo un’impresa di costruzioni con 12 dipendenti che ha eseguito lavori con Superbonus 110%. I crediti fiscali ceduti risultano regolari, ma l’azienda ha attraversato diciotto mesi di ritardi nell’incasso delle compensazioni, con conseguente utilizzo intensivo del conto corrente e alcune posizioni scadute verso fornitori. Il bilancio 2023 è positivo. Il bilancio 2022 mostra tensione di cassa.
Un analista umano con esperienza nel settore edilizio vedrebbe immediatamente la correlazione tra le difficoltà di cassa e il problema sistemico dei crediti fiscali bloccati in quella fase. Un algoritmo addestrato su dati generali potrebbe classificare quella stessa impresa come soggetto ad alto rischio di insolvenza — e farlo nel giro di pochi secondi, senza possibilità di controdeduzione.
Il punto non è che gli algoritmi sbaglino più degli esseri umani. In media, su grandi popolazioni, sbagliano meno. Il punto è che sbagliano in modo strutturato e opaco, e che l’imprenditore che riceve un “no” da un sistema algoritmico ha strumenti molto limitati per capire perché e ancora meno per contestarlo.
L’opacità come zona di rischio
Il problema della trasparenza decisionale è quello su cui si concentra oggi la maggior parte della riflessione regolatoria. Gli algoritmi di machine learning più performanti — le reti neurali profonde in particolare — sono per loro natura difficili da spiegare. Esiste un trade-off documentato dalla Banca d’Italia stessa: al crescere della precisione predittiva del modello, diminuisce la spiegabilità delle decisioni. L’Explainable AI (XAI) cerca di attenuare questo trade-off, ma non lo elimina.
Il rischio di discriminazione algoritmica non è ipotetico. I sistemi addestrati su dati storici replicano le asimmetrie esistenti: se una certa categoria di imprese ha avuto storicamente tassi di default più elevati per ragioni strutturali — accesso limitato a garanzie, operatività in aree geografiche con infrastrutture finanziarie ridotte, settori ad alta volatilità ciclica — l’algoritmo incorporerà quel bias nei suoi parametri. La geolocalizzazione, per esempio, può diventare un proxy indiretto di discriminazione: un’azienda che opera in una provincia ad alto tasso di insolvenze storiche riceverà uno score peggiore indipendentemente dalla propria situazione specifica.
Questo non è un effetto teorico. È documentato. E nessuno, nella catena di fornitura del credito algoritmico, è formalmente responsabile di spiegarlo al richiedente respinto.
Il quadro normativo: cosa cambia con l’AI Act
Il Regolamento (UE) 2024/1689, noto come AI Act, è entrato in vigore il 1° agosto 2024. I suoi effetti si dispiegano in modo progressivo: dal 2 febbraio 2025 sono operativi i divieti per le pratiche a rischio inaccettabile; dal 2 agosto 2025 sono scattati gli obblighi per i modelli di AI generali; gli obblighi specifici per i sistemi ad alto rischio — categoria in cui ricadono esplicitamente i sistemi di credit scoring, ai sensi dell’Allegato III, punto 5, lettera b) — saranno pienamente applicabili dal 2 agosto 2026.
Il regime che si sta costruendo è sostanziale. I fornitori e deployer di sistemi AI per la valutazione del merito creditizio dovranno implementare un sistema di gestione del rischio lungo l’intero ciclo di vita del prodotto, garantire la qualità dei dataset di addestramento — documentando l’assenza di bias sistematici — e consentire la supervisione umana nelle decisioni critiche. Prima di adottare o implementare il sistema, i deployer nel settore del credito sono tenuti a effettuare una valutazione di impatto sui diritti fondamentali.
| Data | Obbligo / effetto | Soggetti coinvolti | Sanzione massima |
|---|---|---|---|
| 1° agosto 2024 | Entrata in vigore del Regolamento (UE) 2024/1689 | Tutti i fornitori e deployer UE | — |
| 2 febbraio 2025 | Divieti operativi per pratiche a rischio inaccettabile (social scoring, manipolazione) — alfabetizzazione AI obbligatoria | Fornitori e deployer | 35 M€ o 7% fatturato |
| 2 agosto 2025 | Obblighi per modelli AI generali (GPAI): trasparenza, governance, dichiarazione origine contenuti | Fornitori modelli GPAI | 15 M€ o 3% fatturato |
| 2 agosto 2026 | Piena applicazione obblighi per sistemi ad alto rischio (include credit scoring): gestione del rischio, qualità dati, supervisione umana, valutazione impatto diritti fondamentali (FRIA), registrazione database europeo | Banche, fintech, intermediari che usano scoring algoritmico | 15 M€ o 3% fatturato |
| 2 agosto 2027 | Estensione obblighi ad alto rischio ai sistemi integrati in prodotti regolamentati (Allegato I) | Produttori di sistemi ibridi | 15 M€ o 3% fatturato |
| 2 agosto 2028 | Revisione generale del Regolamento e valutazione di impatto complessiva (art. 112) | Commissione europea | — |
Il GDPR aggiunge un livello ulteriore: l’articolo 22 riconosce al richiedente il diritto di non essere sottoposto a decisioni basate esclusivamente su trattamenti automatizzati che producano effetti giuridicamente rilevanti. Il considerando 71 include esplicitamente le decisioni di concessione o rifiuto del credito. In teoria, l’imprenditore respinto ha già oggi il diritto di richiedere l’intervento umano e di contestare la decisione. In pratica, questo diritto è quasi mai esercitato, per mancanza di consapevolezza e per la difficoltà di identificare l’interlocutore corretto nella catena decisionale.
Sul piano italiano, il quadro è integrato dalla Legge 132/2025, entrata in vigore il 10 ottobre 2025, che stabilisce principi generali sull’uso dell’AI a livello nazionale, affiancandosi al regolamento europeo.
Le sanzioni previste dall’AI Act per i sistemi ad alto rischio non conformi arrivano fino a 15 milioni di euro o al 3% del fatturato mondiale annuo. Non sono cifre simboliche.
L’implicazione sistemica: chi guadagna e chi perde
L’automazione del credit scoring redistribuisce potere nel mercato del credito in modo non neutro. Le fintech native digitali che hanno costruito la propria infrastruttura attorno a modelli algoritmici — Aidexa, Opyn, e le piattaforme di alternative lending europee — hanno un vantaggio strutturale nella gestione del costo per pratica. Una banca tradizionale, con le sue procedure di istruttoria, non può competere sul segmento micro-imprese sotto una certa soglia di importo: semplicemente non è conveniente. Un algoritmo lo fa a costo marginale prossimo a zero.
Questo significa che il mercato si biforca. Il credito di relazione — basato sulla conoscenza del territorio, dell’imprenditore, del settore — sopravvive solo sui ticket più alti e sui rapporti di lunga data. Il credito standardizzato su importi ridotti e su tempi rapidi è già oggi dominio degli algoritmi.
Per le PMI italiane — 2,3 milioni di micro-imprese secondo le stime di mercato, molte delle quali con difficoltà di accesso al credito tradizionale — questo cambiamento può essere un’opportunità o un’ulteriore barriera, a seconda di come si presentano ai modelli. La questione non è più solo “hai le garanzie?”. È diventata: “che storia racconta il tuo conto corrente?”
La conseguenza che pochi considerano
C’è un effetto di secondo livello che quasi nessuno calcola. Le imprese che vengono valutate da sistemi algoritmici svilupperanno nel tempo strategie di ottimizzazione dello score: gestiranno i flussi di cassa per risultare più affidabili ai modelli, selezioneranno fornitori e clienti in funzione dell’impatto sui dati transazionali, costruiranno la propria presenza digitale pensando anche a come viene letta dagli algoritmi di credito.
È la stessa logica che ha trasformato la SEO: quando i criteri di classificazione sono noti — o percepiti come noti — il sistema si adatta, spesso in modi che non corrispondono al comportamento autentico ma all’ottimizzazione del segnale. Un’impresa che gestisce i propri pagamenti con attenzione al profilo di rischio algoritmico è formalmente più affidabile. Se effettivamente lo è, è una questione diversa.
Il mediatore creditizio che non conosce questi meccanismi non è più nella posizione di aggiungere valore. Quello che conosce il funzionamento reale dei modelli può intervenire prima della richiesta, non dopo il rifiuto: lavorare sul profilo finanziario dell’impresa come si lavora sul posizionamento online, con la stessa logica e con lo stesso orizzonte temporale. Non è consulenza finanziaria tradizionale. È qualcosa di diverso, che il mercato non ha ancora un nome preciso per definire — ma che esiste già.
Domande frequenti
Cos’è lo scoring algoritmico e come influisce sull’accesso al credito delle PMI?
Lo scoring algoritmico è un sistema automatizzato che attribuisce un punteggio di rischio al richiedente un finanziamento, elaborando centinaia di variabili in tempo reale. A differenza del credit scoring tradizionale — basato su bilanci e storico bancario — i modelli algoritmici integrano dati transazionali da open banking, comportamento di pagamento verso fornitori, stagionalità dei flussi di cassa e, in alcuni casi, dati sociodemografici. Il risultato pratico per le PMI è una riduzione drastica dei tempi di risposta (da settimane a ore) ma anche una minore trasparenza sui criteri che determinano il rifiuto.
Cosa analizza concretamente un algoritmo di credit scoring aziendale?
I sistemi di scoring algoritmico più diffusi in Italia — come quelli utilizzati da Banca AideXa, Opyn o Faire.ai — analizzano i movimenti transazionali degli ultimi 12 mesi tramite open banking PSD2, la regolarità dei pagamenti verso fornitori, la coerenza tra fatturato dichiarato e flussi reali, eventuali tensioni di liquidità ricorrenti e dati sociodemografici come la geolocalizzazione dell’attività. Alcuni modelli includono anche la reputazione digitale. L’insieme di questi segnali viene elaborato da algoritmi di machine learning — XGBoost, Random Forest, reti neurali — che restituiscono una probabilità di default su un orizzonte temporale definito.
Un’impresa può contestare un rifiuto di finanziamento basato su scoring algoritmico?
Sì, ma nella pratica è complesso. L’articolo 22 del GDPR riconosce il diritto di non essere sottoposti a decisioni basate esclusivamente su trattamenti automatizzati con effetti giuridici rilevanti — e il credito rientra esplicitamente in questa fattispecie. Il richiedente può chiedere l’intervento di un operatore umano e contestare la decisione. Con l’AI Act (Reg. UE 2024/1689), dal 2 agosto 2026 i sistemi di credit scoring ad alto rischio dovranno garantire supervisione umana strutturata e documentazione delle logiche decisionali. Oggi, tuttavia, la maggior parte delle imprese non esercita questo diritto per mancanza di consapevolezza.
Quali rischi di discriminazione esistono nei sistemi algoritmici di valutazione del credito?
Il rischio principale è il cosiddetto bias algoritmico: i modelli addestrati su dati storici replicano le asimmetrie già esistenti nel mercato del credito. Un’impresa che opera in una provincia con alto tasso storico di insolvenze riceve uno score peggiore indipendentemente dalla propria situazione specifica. Allo stesso modo, settori ciclici come l’edilizia o le imprese con tensioni di cassa legate a cause sistemiche — come i ritardi nei rimborsi dei crediti fiscali — possono essere penalizzati da un algoritmo che non distingue la causa strutturale dall’insolvenza effettiva. La Banca d’Italia ha documentato questo trade-off tra accuratezza predittiva e spiegabilità nei modelli di machine learning.
Cosa prevede l’AI Act per le banche e le fintech che usano l’intelligenza artificiale nel credito?
Il Regolamento (UE) 2024/1689) classifica i sistemi di credit scoring come “ad alto rischio” ai sensi dell’Allegato III, punto 5, lettera b). Dal 2 agosto 2026, banche, fintech e intermediari che li utilizzano dovranno implementare un sistema di gestione del rischio lungo l’intero ciclo di vita del modello, garantire la qualità e l’assenza di bias nei dataset di addestramento, consentire la supervisione umana nelle decisioni critiche ed effettuare una valutazione di impatto sui diritti fondamentali (FRIA) prima dell’adozione del sistema. Le sanzioni per non conformità arrivano fino a 15 milioni di euro o al 3% del fatturato mondiale annuo.
