ARTICOLI

Quando l’AI cambia le domande, non le risposte

Quando la domanda sbagliata è “che cosa può fare l’AI”

Nel dibattito che sta interessando il rapporto tra l'intelligenza artificiale, il lavoro e la formazione, la domanda da cui si parte è, quasi sempre, la stessa: che cosa può fare l’AI? Si elencano funzioni, si confrontano strumenti e si misurano incrementi di efficienza. Ma questa domanda, pur legittima, rischia di essere già fuorviante.

Chiedersi che cosa una tecnologia “sa fare” significa trattarla come un oggetto neutro. L’AI, invece, interviene molto più in profondità, incidendo nei modi di decidere, di apprendere e di attribuire responsabilità. Non cambia solo le attività, ma le condizioni in cui quelle attività vengono pensate è, quindi, prima ancora di chiedersi come usarla, occorre capire quali domande rende inevitabili.

L’AI nel lavoro non automatizza solo processi, rende visibili le scelte

Nel lavoro l’AI viene spesso descritta come forza di automazione: permette di ridurre i tempi, ottimizzando i flussi e semplificando passaggi. Ma il suo effetto più rilevante non è la sostituzione delle attività, bensì la messa in evidenza delle scelte incorporate nei processi.

Ogni sistema di AI porta con sé dei criteri di adozione, nuove priorità e soglie di accettabilità e quando viene adottato in un’organizzazione si rende esplicito ciò che prima restava implicito: che cosa conta davvero, che cosa viene sacrificato, dove si colloca il confine tra esecuzione e decisione. Perché l’AI non decide al posto nostro, ma rende meno opaca la delega. (Approfondisci)

Formazione: perché i modelli tradizionali iniziano a scricchiolare

Quando questi cambiamenti emergono, la formazione viene spesso chiamata a intervenire in modo reattivo: corsi rapidi, alfabetizzazioni accelerate, aggiornamenti sugli strumenti e il problema non è solo nei contenuti, ma nei presupposti su cui molti modelli formativi si fondano.

Gran parte della formazione nasce in contesti relativamente stabili, dove le competenze sono definibili in anticipo e i processi descrivibili in modo lineare, ma l’AI, inserendosi in sistemi già complessi, mette sotto stress questa impostazione, non tanto perché renda tutto imprevedibile, ma perché accelera l’emergere di eccezioni, ambiguità e scelte non standardizzabili.

Dall’uso alla relazione: sviluppare una (sparring) partnership

A questo punto il tema non è più solo l’uso corretto degli strumenti: il passaggio decisivo riguarda la postura, perché usare uno strumento significa attribuirgli un compito circoscritto; entrare in relazione con un sistema di AI significa condividere una parte dello spazio cognitivo.

L’AI non può essere considerato uno strumento “as usual” perché è in grado di suggerire, persino di orientare e anticipare i bisogni. Anche quando non decide, interviene nel processo di pensiero e può diventare un allenatore per le nostre capacità cognitive. Però ci tengo a evidenziare che parlare di relazione non vuol dire umanizzare la tecnologia, ma riconoscere che l’interazione non è neutra; anzi considerare le possibilità di stabilire una forma di relazione, ha dimostrato di essere un elemento di successo nel suo impiego, permettendo, proprio per questo, di produrre effetti che vanno oltre l’efficacia operativa.

Agency, delega e il rischio della competenza apparente

In questo spazio prende forma una delega cognitiva inedita perché non si delega più a qualcuno che risponde delle proprie scelte, ma a un sistema che restituisce risultati plausibili senza rendere trasparente il percorso che li ha generati: l’esito può essere corretto, ma il rapporto con l’esito cambia.

Nasce così una competenza apparente: si agisce con maggiore velocità, ma si perde progressivamente il contatto con il perché delle decisioni. L’azione resta efficace, mentre l’agency si assottiglia, non per incapacità, ma per eccesso di affidamento.

Che cosa significa davvero “formare” nell’epoca dell’AI

In questo scenario, formare non può significare solo rendere le persone più abili nell’uso di strumenti potenti. La formazione diventa lo spazio in cui si coltiva la capacità di stare nel processo decisionale, di riconoscere i limiti dell’automazione e di mantenere un rapporto consapevole con ciò che viene delegato.

Le competenze tecniche restano necessarie, ma non sufficienti. Il nodo centrale riguarda il “quando” e il "perché", non solo il “come”, dimensioni che non si trasferiscono una volta per tutte, ma che richiedono contesti riflessivi e pratiche coerenti.

Un cambio di paradigma che chiede tempo, non slogan

Il cambiamento in atto non ha la forma di un aggiornamento tecnologico. Richiede tempo per comprendere che l’AI non semplifica la complessità, ma la rende più visibile, richiedendo una formazione capace di sostenere questo passaggio senza scorciatoie.

Queste riflessioni nascono da un lavoro di ricerca e pratica che ha trovato una prima sistematizzazione anche in un recente volume (“Formare con l'intelligenza artificiale generativa”) dedicato alla progettazione della formazione nell’epoca dell’intelligenza artificiale. Non come punto di arrivo, ma come tentativo di dare forma a domande ancora aperte.

Se c'è una direzione da tenere, non passa per slogan o entusiasmi acritici, ma per una presa di posizione chiara. L’intelligenza artificiale non può essere trattata come un dettaglio tecnico né come una moda passeggera: va tenuta al centro del discorso, perché sta ridefinendo in profondità il modo in cui lavoriamo, apprendiamo e decidiamo. Ma proprio per questo non può occupare anche il centro delle scelte. Quel centro deve restare umano, perché la responsabilità, il giudizio e l’assunzione di posizione non sono funzioni delegabili senza perdere qualcosa di essenziale.
AI & TECNOLOGIE