L'intelligenza artificiale sta rapidamente ridefinendo il panorama lavorativo e sollevando questioni etiche complesse, specialmente nel settore creativo e nella salute mentale.
Cosa è successo
Un recente report di Wired ha svelato come molti sceneggiatori di Hollywood, un tempo impegnati nella creazione di contenuti per la televisione, si ritrovino ora a svolgere il ruolo di "addestratori" di intelligenza artificiale. Questo nuovo tipo di gig work, descritto come "logorante per l'anima", ha visto professionisti del settore completare fino a 20 contratti in soli 8 mesi per diverse piattaforme, indicando una rapida e spesso precaria trasformazione delle carriere creative. L'attività consiste nel raffinare e migliorare i modelli di linguaggio di grandi dimensioni (LLM), un compito che, sebbene retribuito, è percepito come un declassamento professionale e una perdita di autonomia creativa.
Parallelamente, la capacità degli LLM di interpretare narrazioni complesse è stata messa alla prova in ambito clinico. Una ricerca pubblicata su ArXiv ha confrontato le prestazioni di modelli Gemini Pro con quelle di professionisti della salute mentale nella diagnosi di disturbi della personalità, come il Disturbo Borderline (BPD) e il Disturbo Narcisistico (NPD), basandosi su racconti autobiografici. I risultati hanno mostrato che i modelli AI hanno raggiunto un punteggio diagnostico complessivo del 65.48%, superando i professionisti umani di 21.91 punti percentuali nel campione analizzato. Questo solleva interrogativi significativi sulla potenziale invasione dell'AI in settori altamente sensibili e umani.
Perché conta
La trasformazione del lavoro creativo in "addestramento AI" rappresenta un campanello d'allarme per il futuro di molte professioni. Non si tratta solo di automazione, ma di una dequalificazione che trasforma l'arte della narrazione in un'attività di etichettatura e correzione. Questo scenario minaccia non solo la sostenibilità economica degli artisti, ma anche la ricchezza e l'originalità della produzione culturale, suggerendo un futuro in cui la creatività umana è incanalata per servire le macchine, piuttosto che ispirare direttamente il pubblico. La precarizzazione di questi ruoli, spesso a contratto e senza garanzie, evidenzia una crescente disuguaglianza nel mercato del lavoro guidato dall'AI.
L'applicazione degli LLM nella diagnosi psicologica di disturbi della personalità, d'altra parte, apre scenari complessi e potenzialmente rischiosi. Sebbene l'efficienza e la capacità di elaborazione dei dati degli algoritmi possano sembrare promettenti, la diagnosi psicologica richiede una comprensione profonda del contesto umano, dell'empatia e della capacità di interpretare sfumature che vanno oltre i pattern linguistici. Affidarsi eccessivamente all'AI in questo campo potrebbe portare a diagnosi errate, a una disumanizzazione del processo di cura e a gravi implicazioni per la privacy dei pazienti. La capacità di un algoritmo di identificare pattern non equivale alla comprensione o alla sensibilità clinica di un professionista.
Il punto di vista HDAI
Questi sviluppi sottolineano l'urgenza di un approccio all'AI etica che metta al centro l'essere umano. La filosofia di Human Driven AI (HDAI) promuove una visione in cui la tecnologia è al servizio delle persone, migliorando le loro vite e non precarizzando il loro lavoro o compromettendo settori delicati come la salute mentale. È fondamentale che lo sviluppo dell'AI sia accompagnato da una robusta governance AI e da quadri normativi chiari che proteggano i lavoratori e i pazienti. Dobbiamo garantire che l'innovazione non avvenga a spese della dignità umana e della qualità delle cure. La vera sfida non è solo tecnologica, ma etica e sociale: come possiamo indirizzare l'AI verso un futuro che valorizzi il contributo umano e protegga le vulnerabilità? Questi sono temi centrali che verranno discussi all'HDAI Summit 2026, dove esperti da tutto il mondo si confronteranno per delineare percorsi responsabili per l'intelligenza artificiale in Italia e oltre.
Da seguire
Sarà cruciale osservare come le normative, come l'AI Act europeo, si adatteranno a queste nuove dinamiche lavorative e cliniche. L'industria dovrà sviluppare standard etici più rigorosi, e la società dovrà confrontarsi con la necessità di riqualificare la forza lavoro e di definire chiaramente i limiti dell'autonomia decisionale dell'AI in contesti sensibili. La discussione sul futuro del lavoro AI e sull'AI responsabile è appena iniziata.

