Il recente flusso di ricerche su ArXiv mette in luce una sfida cruciale per l'intelligenza artificiale: garantire coerenza, affidabilità e mitigare i bias, specialmente quando i sistemi AI sono impiegati in ambiti sensibili.
Cosa è successo
Diversi studi recenti hanno sollevato interrogativi fondamentali sulla stabilità e l'imparzialità dei modelli di intelligenza artificiale. Una ricerca ha esaminato la coerenza delle prescrizioni di esercizi generate dall'AI da tre Large Language Models (LLM) di spicco – GPT-4.1, Claude Sonnet 4.6 e Gemini 2.5 Flash – anche in condizioni di "temperatura zero", che dovrebbero massimizzare la riproducibilità. I risultati hanno mostrato che, nonostante un'alta somiglianza semantica, permangono variazioni significative tra le generazioni ripetute e tra i modelli, evidenziando che anche in contesti controllati l'output non è perfettamente stabile. Questo è particolarmente rilevante per applicazioni in cui la precisione è critica, come le raccomandazioni sanitarie.
Un altro studio ha affrontato i bias composizionali nei Multimodal Large Language Models (MLLM) utilizzati come "giudici automatici". La ricerca ha rivelato che questi modelli spesso non riescono a integrare in modo affidabile segnali visivi o testuali chiave, producendo valutazioni inaffidabili quando le prove sono mancanti o incoerenti, e mostrando instabilità anche con perturbazioni semantiche irrilevanti. Questo mette in discussione l'affidabilità degli MLLM in ruoli di valutazione critica, dove l'accuratezza e la robustezza sono fondamentali.
Parallelamente, la ricerca si sta concentrando su how i modelli AI possano autoverificarsi per garantire risposte corrette attraverso percorsi di ragionamento validi. Un approccio geometrico propone che le traiettorie di generazione valide risiedano su un "manifold" ad alta densità, mentre i percorsi non validi mostrano una "deriva off-manifold". Questo suggerisce un percorso per migliorare l'affidabilità interna dei modelli, permettendo loro di identificare e correggere errori.
Perché conta
La variabilità e i bias intrinseci nei modelli AI hanno profonde implicazioni per la loro adozione e fiducia. Nel contesto delle prescrizioni di esercizi, anche piccole incoerenze possono compromettere l'efficacia o la sicurezza per gli utenti, specialmente per individui con condizioni cliniche specifiche. Se i sistemi AI generano consigli divergenti per lo stesso scenario, la loro utilità e affidabilità come strumenti di supporto medico sono seriamente minacciate.
Quando gli MLLM falliscono nell'integrare correttamente le informazioni o mostrano instabilità nelle loro valutazioni, le conseguenze possono essere significative in settori come la moderazione dei contenuti, la diagnostica o la valutazione delle performance. L'affidabilità di un "giudice AI" è cruciale per garantire equità e prevenire decisioni ingiuste o errate, che potrebbero avere un impatto diretto sulle vite delle persone. La mancanza di robustezza e la presenza di bias possono erodere la fiducia pubblica nell'AI e portare a risultati discriminatori o inefficaci.
Questi problemi si estendono a qualsiasi applicazione AI che richieda precisione e coerenza, dalla pianificazione logistica alla diagnosi medica. Ad esempio, la ricerca sui transformer leggeri per il riconoscimento del dolore dall'attività cerebrale dimostra il potenziale dell'AI in ambiti clinici estremamente sensibili. In tali contesti, l'accuratezza e la coerenza sono non solo desiderabili ma eticamente imperative, poiché un errore potrebbe avere conseguenze dirette sul benessere del paziente. La capacità di autoverifica dei modelli, come suggerito da una delle ricerche, diventa quindi un requisito fondamentale per garantire che l'AI operi in modo sicuro, affidabile e in linea con i principi dell'AI etica.
Il punto di vista HDAI
Dal punto di vista di Human Driven AI, queste ricerche rafforzano la necessità di un approccio umano-centrico allo sviluppo e all'implementazione dell'intelligenza artificiale, un tema cruciale che sarà al centro dell'HDAI Summit 2026 a Pompei. Nonostante i progressi, i modelli AI non sono infallibili e la loro "intelligenza" è ancora lontana dalla coerenza e dalla comprensione contestuale umana. È imperativo che gli sviluppatori e gli implementatori riconoscano e indirizzino attivamente le limitazioni di coerenza e i bias. Ciò significa investire in metodologie di test più rigorose, sviluppare meccanismi di trasparenza per comprendere come i modelli arrivano alle loro conclusioni e, soprattutto, mantenere una supervisione umana significativa. L'AI dovrebbe fungere da strumento di supporto, non da sostituto autonomo, in particolare in contesti che richiedono giudizio etico, empatia o decisioni con impatto sulla salute e il benessere delle persone. La fiducia nell'AI si costruisce sulla sua affidabilità e sulla nostra capacità di comprenderne e gestirne i limiti, un obiettivo primario per lo sviluppo dell'intelligenza artificiale in Italia.
Da seguire
La ricerca sull'autoverifica dei modelli e sulla mitigazione dei bias è in rapida evoluzione. Sarà cruciale monitorare come queste nuove tecniche verranno integrate nei modelli commerciali e come i quadri normativi, come l'AI Act europeo, affronteranno le questioni di coerenza e affidabilità, specialmente per i sistemi AI ad alto rischio. L'attenzione dovrà rimanere sulla creazione di AI che non solo siano potenti, ma anche prevedibili, eque e, in ultima analisi, al servizio dell'umanità.

