INTELLIGENZA ARTIFICIALE E COMPETENZE AZIENDALI

 da HARVARD BUSINESS REVIEW

A giugno 2025 il MIT Media Lab ha pubblicato uno studio molto interessante che misura, attraverso un elettroencefalogramma (EEG), come cambiano le onde cerebrali mentre si scrive con (e senza) AI. In sostanza, hanno chiesto alle persone di scrivere saggi in tre modalità — solo cervello, con motore di ricerca, con un Large Language Model (LLM, tipo ChatGPT) — ripetendo le sessioni nel tempo e facendo anche uno switch tra le tre differenti condizioni. Hanno registrato l’attività cerebrale (EEG) e poi valutato i testi prodotti. Interessante quello che hanno trovato:

  • Ingaggio neurale: il gruppo “solo cervello” mostra la connettività cerebrale più forte e distribuita; il gruppo “motore di ricerca” è intermedio; chi usa l’LLM ha la connettività cerebrale più debole.
  • Effetto “rimbalzo”: quando chi aveva usato l’LLM passa a scrivere senza AI compaiono riduzioni nelle bande alpha e beta, segno di sotto-ingaggio; chi passa da solo cervello a LLM mantiene invece una buona memoria.
  • Comportamento e testi: chi usa solo l’LLM ricorda peggio i contenuti e fatica perfino a citare correttamente parti del proprio elaborato; gli autori parlano di “costo cognitivo” che si accumula nel tempo.

È importante segnalare che si tratta per ora solo di un preprint su un campione modesto (54 partecipanti) e che lo studio deve essere ancora validato sul versante scientifico, ma già possiamo provare a segnalare alcuni consigli pratici se vogliamo usare l’AI senza “spegnere” il cervello:

  1. Prima pensa, poi chiedi: abbozza le tue idee a mano e solo dopo utilizza l’AI per ampliare, criticare o trovare contro-argomenti.
  2. Alterna le diverse modalità: ad esempio, 10–15′ scrittura autonoma e 5′ feedback/idee dall’AI.
  3. Prompt attivi: chiedi “trova buchi logici”, “sfida la mia tesi” o “fammi domande a risposta aperta”, non solo “riscrivi meglio”.
  4. Ownership: riscrivi sempre con il tuo stile ciò che l’AI ti suggerisce. Quando Chat GPT produce un testo per noi la nostra memoria non lo riconosce e quindi lo perde con grande facilità, salvo che non vi sia un’interazione profonda e continua. Inoltre, quando sappiamo che l’informazione è reperibile online, tendiamo a ricordare meno il contenuto e più dove trovarlo.

Io credo che questi consigli possano essere utili non solo per ognuno di noi o per l’educazione dei nostri figli, ma anche in chiave aziendale. Quando usiamo Chat GPT (o un altro LLM simile) la mente tende a “spegnersi” un po’, l’ingaggio cala e l’apprendimento è quasi nullo. Lo studio del MIT lo dimostra attraverso l’utilizzo degli elettroencefalogrammi. Dopo un lungo periodo di passività nel rapporto con AI, quando poi torna a scrivere senza AI, il soggetto tende a rimanere passivo e poco coinvolto nel lavoro che sta facendo (e quindi non impara e ricorderà poco di ciò che l’AI ha prodotto).

Un altro esperimento svolto recentemente in una scuola superiore su quasi mille studenti lo mostra bene.[1] Quando agli studenti viene data una chat GPT “base”, il rendimento durante gli esercizi sale del 48%; ma al test finale senza AI vanno peggio del gruppo di controllo (−17%). Se, invece, l’interfaccia è progettata come un tutor che offre indizi e passaggi intermedi al posto della soluzione pronta, il miglioramento è ancora più alto (+127%) senza il calo all’esame. In altre parole: l’AI che ti consegna la risposta funziona nell’immediato, ma non costruisce competenza. Invece, l’AI che ti guida passo per passo, mantenendo una forte interazione, tiene insieme performance e apprendimento.

Per l’azienda la traduzione è semplice: se l’obiettivo è solo produrre più in fretta, un assistente AI libero di agire seguendo semplici prompt opererà in maniera molto efficace. Se però l’obiettivo è anche far crescere le persone e renderle autonome dallo strumento — perché un domani è bene che possano decidere autonomamente al posto dell’AI e possano svolgere una funzione critica su ciò che lo strumento produce — serve un design che obblighi a esplicitare passaggi e ragionamenti prima di fornire soluzioni. È la differenza tra una stampella e un coach: la prima velocizza oggi ma lascia un grande “debito di apprendimento”; il secondo sostiene l’output sviluppando allo stesso tempo il capitale di competenze delle persone e dell’impresa.

 

 

[1] Hamsa Bastani, Osbert Bastani, Alp Sungu, Haosen Ge, Özge Kabakcı, Rei Mariman, “Generative AI without guardrails can harm learning: Evidence from high school mathematics,” Proceedings of the National Academy of Sciences (PNAS), 20 agosto 2025

 

 

 

 

 

 

 

 

 

 

 

 

Tags: , , , , , , , , ,