L’AI nei pagamenti rappresenta oggi una delle frontiere più promettenti e complesse dell’innovazione finanziaria. Mentre aziende come Stripe e Mastercard sviluppano soluzioni sempre più sofisticate, emergono nuove sfide legate alla fiducia, alla trasparenza e all’equilibrio tra efficienza automatizzata e controllo umano.
Bias umani e percezione dell’AI nei sistemi finanziari
Gli esseri umani sono biologicamente portati a interpretare male l’intelligenza artificiale, oscillando tra fiducia e diffidenza. Da un lato, tendiamo a proiettare emozioni e intenzioni sulle macchine che ci rispondono in linguaggio naturale: è il noto bias dell’antropomorfismo, che ci fa percepire l’AI come “umana”. Dall’altro lato, tolleriamo molto meno i suoi errori di quanto faremmo con un operatore umano. È il bias dell’autorità algoritmica.
Queste due tendenze, apparentemente opposte, generano effetti simili: da una parte, spingiamo l’AI verso l’autonomia decisionale; dall’altra, la sottoponiamo a vincoli di regolamentazione che ne limitano l’evoluzione. Il paradosso è che delegare all’AI senza comprenderla aumenta la fragilità percepita nei modelli.
L’uso dell’AI, specialmente in ambiti critici come la finanza, richiede di: tracciare i dati di addestramento, chiarire le metriche (come quelle definite dal NIST) e distinguere l’interpretazione algoritmica da quella umana.
In un contesto in cui, anche sistemi non particolarmente sofisticati, possono alimentare frodi informatiche, solo un approccio olistico e situato permette di valutare il reale beneficio dell’AI. Questo è importante per non confondere la decisione con l’intelligenza di processo.
Incertezza e modellazione nelle decisioni finanziarie automatizzate
Nel mondo della finanza, ogni decisione cerca di costruire stabilità in un contesto che, per natura, è incerto. Professionisti, agenti e intermediari agiscono sulla base di informazioni disponibili. Spesso l’intermediazione introduce una distanza percettiva: il cliente tende a interpretare la decisione come deterministica, quando in realtà si tratta di un’incertezza, come nei modelli bayesiani.
Questa dinamica riflette esattamente quanto accade nei processi di intelligenza artificiale. Che si tratti di modelli deterministici o stocastici (probabilistici), la logica dell’AI non elimina l’incertezza. È anche per questo che la regolamentazione europea, come l’AI Act, cerca di intervenire nel cuore del problema, chiedendo maggiore trasparenza nella gestione dei dati, nei criteri di decisione e nella possibilità di tracciare e sottoporre ad audit i processi automatizzati.
L’introduzione dell’AI spinge dunque a una trasformazione profonda dei sistemi informativi, non solo in ambito bancario e nei pagamenti. Diventa quindi necessario considerare una relazione, che potremmo sintetizzare così:
Identità = dati + contesto + fiducia.
Da un lato, l’AI sta evolvendo verso agenti cognitivi, capaci di adattarsi ad un preciso contesto. Dall’altro, le identità, sia umane che digitali, saranno chiamate a interagire con sistemi che interpretano ed elaborano i dati. Aumentare la trasparenza dei processi non è solo un’esigenza tecnica, ma una leva strategica per generare fiducia.
Applicazioni reali dell’AI nei pagamenti digitali
Stripe sta sperimentando l’impiego di LLM, come GPT, nei flussi di pagamento. L’obiettivo è quello di costruire una comprensione “semantica” delle transazioni: analizzare la struttura dei dati per individuare sequenze ricorrenti e comportamenti anomali. Una serie di pagamenti potrebbe risultare sospetta se differisse da determinati parametri mai osservati in precedenza. In questo senso, il modello lavora sul significato situato dei dati.
Spesso questi dati sono già disponibili, eppure restano opachi: l’utente medio non sa dove risiedano gli algoritmi, quanto siano tracciabili, né in che misura i propri dati vengano offuscati o ricostruiti in forma aggregata. A ciò si aggiungono rischi concreti: i falsi positivi. Ad esempio, alcune transazioni innocue erroneamente scambiate per frodi, provocando – in assenza di supervisione – il blocco automatico di carte o conti correnti. La comprensione di metriche come accuratezza, precisione, recall, F1-score o AUC rimane fuori dalla portata della maggior parte dei clienti, eppure condiziona l’esperienza quotidiana di pagamento.
Mastercard, con la soluzione Agent Pay, si muove in un’altra direzione: quella degli agenti vocali intelligenti, capaci non solo di pianificare spese occasionali ma anche di gestire pagamenti ricorrenti, identificare l’utente e convalidare le transazioni tramite sistemi di tokenizzazione. La delega all’agente è contestuale: si attiva solo in condizioni esplicite, come un acquisto con parametri definiti.
Oggi WeChat e Venmo rendono il pagamento “social”. Sono esperienze che preparano il terreno verso realtà più immersive: il metaverso. Bank of America, ad esempio, sta esplorando l’uso di visori VR per esperienze finanziarie in ambienti tridimensionali. In realtà, i sistemi intelligenti sono già attivi in ambiti come il KYC con capacità di analisi biometrica.
L’immersività significa anche integrare dimensioni comportamentali ed emozionali, migliorando l’assistenza, attivando tempestivamente meccanismi di fallback, per intercettare reclami latenti. È un terreno promettente, ma anche delicato. Lo stesso tipo di analisi, se mal orientata, può essere usata per manipolare l’esperienza utente. L’AI nei pagamenti non è più solo un motore di efficienza, ma un nuovo spazio di relazione, interazione e potenzialmente di vulnerabilità.
Limiti della delega totale all’intelligenza artificiale
Nei processi HR, si sta affacciando un nuovo interrogativo: prima di un’assunzione, ci si chiederà se quel compito possa essere svolto direttamente da un’AI. È una trasformazione culturale. Tuttavia, l’esperienza recente mostra quanto sia facile sopravvalutare l’AI quando la si tratta come sostituto totale dell’intelligenza umana.
È quanto accaduto a Klarna. Dopo aver bloccato le assunzioni per diciotto mesi e sostituito oltre 700 operatori del servizio clienti con assistenti virtuali, il CEO ha recentemente annunciato la ripresa del reclutamento. Non per un ripensamento strategico, ma per un’esigenza concreta: la qualità percepita del servizio non è migliorata, e i costi hanno superato i benefici attesi. Il fallimento non va attribuito all’AI in sé, ma a una scorretta definizione degli obiettivi e delle aspettative: più che la qualità, è lo scopo assegnato all’AI ad aver creato il problema.
Lo stesso rischio potrebbe amplificarsi nei processi di credito. Sempre Klarna sta sperimentando un aumento delle perdite sui crediti al consumo (BNPL) del 17 % nel primo trimestre del 2025. Questo punto fa emergere un interrogativo: perché una AI agentica sottovaluta alcuni segnali di rischio? Forse non accadrebbe per errore, ma per incapacità di adattarsi a un contesto, o per mancanza di controllo nei passaggi critici.
Anche in questo caso, il nodo non è solo nell’efficienza o nel costo, ma nella governance dei compiti. Quando si delegano all’AI decisioni complesse senza strumenti di misura dell’obiettivo e supervisione, si rischia di perdere non solo precisione, ma anche senso.
Verso un’AI informativa e contestuale nei pagamenti
L’idea di un’AI capace di affrontare qualunque compito è affascinante ma impraticabile. Non lo dicono solo i limiti tecnici o gli insuccessi applicativi, ma lo confermano le teorie stesse che regolano questi modelli.
Un sistema antifrode o di analisi del rischio, ad esempio, non funziona bene solo perché ha “visto molto”. Paradossalmente, l’esperienza eccessiva può anche introdurre rumore, ridondanza o iperspecializzazione. Come negli esseri umani, anche nei sistemi intelligenti la qualità della decisione dipende dalla capacità di rappresentare e predire. Questi sono elementi concorrenti e misurabili in termini di informazione (o incertezza). È un principio che trova fondamento nella teoria dell’information bottleneck: un sistema è tanto più intelligente quanto più sa rappresentare in modo sintetico e predittivo ciò che davvero conta. Un concetto ancora poco diffuso nel dibattito sull’AI applicata, ma cruciale per capire dove finisce la potenza di calcolo e dove inizia la vera intelligenza.
L’AI non è qualcosa di esterno a noi, ma un’estensione delle nostre stesse logiche: un surrogato progettato per riflettere, anticipare e agire. Un’AI efficace non sarà mai “onnisciente”. Ma se ben progettata, potrà essere situata. Ed è proprio in questo equilibrio che può nascere una nuova forma di fiducia.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link