Di nascosto …
- Ambra PISCOPO
- 3 giorni fa
- Tempo di lettura: 3 min
Aggiornamento: 1 giorno fa

Parto da una scena che ormai è diventata ordinaria.
Una persona del team apre ChatGPT. Non lo annuncia, non lo formalizza. Lo usa. Prima per una mail, poi per una sintesi, poi per qualcosa di più complesso. Funziona. Il giorno dopo lo rifà. Dopo qualche settimana, non è più un test. È diventato parte del lavoro.
Nella maggior parte delle organizzazioni, l’intelligenza artificiale entra così. Non attraverso una decisione strutturata, ma attraverso le persone. E a quel punto succede qualcosa di sottile ma decisivo: l’azienda è già dentro il cambiamento, senza averlo ancora nominato.
Quello che vedo sempre più spesso è un movimento dal basso. Qualcuno inizia, qualcun altro osserva, arriva la domanda: “come hai fatto?” Nel giro di poco si crea una diffusione informale, veloce, concreta. È una dinamica interessante, perché non passa dai piani ma dall’esperienza. Allo stesso tempo lascia aperto un punto: ognuno usa strumenti diversi, in modi diversi, senza criteri condivisi.
A quel punto le domande cambiano natura. Non sono più tecniche. Riguardano i confini, le responsabilità, le scelte. Possiamo usare questi strumenti? Su quali dati? Con quali limiti? Chi decide?
C’è un passaggio che spesso viene saltato. Si pensa che il tema sia l’intelligenza artificiale. In realtà, il primo tema è un altro: l’ordine. Ordine nei dati, nei flussi, nel modo in cui le persone lavorano insieme. Perché questi strumenti funzionano bene solo quando trovano un contesto leggibile. Se i file sono dispersi, i passaggi impliciti, le responsabilità poco chiare, l’AI non aiuta davvero. Amplifica il disordine. Quando invece i processi diventano visibili e condivisi, qualcosa cambia. L’AI inizia a inserirsi nei punti giusti.
Quando un’organizzazione decide di non lasciare tutto al caso, vedo emergere sempre tre movimenti. Si crea uno spazio di sperimentazione protetto — un gruppo pilota, trasversale, dove si può testare senza dover essere già esperti. Si parte da ciò che esiste già, non da modelli ideali, ma da come le persone usano questi strumenti oggi, anche in modo imperfetto. Si costruiscono criteri condivisi: non regole rigide, ma confini chiari su quali dati usare, quando ricorrere all’AI, cosa resta responsabilità umana.
Da qui emergono casi molto concreti. Nel marketing, l’AI entra nelle prime bozze, nella revisione, nell’organizzazione dei contenuti. In amministrazione, aiuta a tenere traccia di scadenze complesse, certificazioni, documenti che si accumulano. Nel lavoro manageriale, diventa un supporto per orientarsi: sintesi di riunioni, lettura di informazioni distribuite, individuazione delle priorità. Nella gestione documentale, accompagna nella lettura e nella costruzione di contratti, con un passaggio di validazione umana che resta irrinunciabile. Non sostituisce il lavoro. Sposta il punto in cui mettiamo attenzione.
È qui che si gioca la partita vera. Non nell’adozione degli strumenti, ma nella capacità dell’organizzazione di assumersi la guida del processo. Chi accompagna le persone? Chi tiene insieme velocità e sicurezza? Chi aiuta a distinguere tra uso efficace e uso superficiale? Se queste domande restano aperte, l’AI cresce comunque, ma in modo disordinato. Se invece vengono prese in carico, diventa un’occasione più ampia: rivedere come lavoriamo, non solo con cosa lavoriamo.
È esattamente da qui che parte il lavoro che porto in aula. Non parto dagli strumenti. Parto da ciò che le persone stanno già vivendo.
Il percorso si costruisce su quattro passaggi. Il primo è mettere a fuoco il problema reale: non “capire l’AI”, ma capire dove oggi il lavoro si inceppa, dove si perde tempo, dove si crea frizione. Il secondo è guardare i flussi, come circolano le informazioni, dove si fermano, dove si duplicano, dove nessuno ha davvero il controllo. Il terzo è aprire una fase di generazione: l’AI entra qui, ma in modo guidato, su casi d’uso concreti legati al lavoro quotidiano, non scenari astratti. Il quarto è convergere: scegliere alcune soluzioni, renderle applicabili, definire criteri condivisi e primi standard operativi.
Dentro questo lavoro c’è sempre un doppio livello. Da una parte le competenze, capire cosa possono fare questi strumenti e come usarli con criterio. Dall’altra la postura: leggere il proprio lavoro, fare ordine, prendersi responsabilità sulle scelte. Perché senza questo secondo livello, il primo non regge.
Alla fine, la questione non è se usare o meno l’intelligenza artificiale. È già entrata. La domanda è più semplice, e più scomoda. Chi sta dando forma a questo cambiamento, dentro la tua organizzazione?




.png)
Commenti