Avvertenze: l’uso inconsapevole dell’AI può dare assuefazione
L’espressione “Non sei pagato per pensare, devi solo eseguire” rappresenta un modello di gestione del lavoro che centralizza la capacità decisionale nella figura del “capo”, relegando i subordinati a meri esecutori. Si tratta di una caricatura quasi comica, fantozziana, ma purtroppo è ancora reale in certe situazioni. Più in generale e fuori dall’ironia, rimanda al difficile equilibrio tra responsabilità e autonomia decisionale. Applicato al rapporto tra utenti umani e intelligenza artificiale, questo paradigma pone nuovi seri interrogativi.
L’AI è capace di eseguire compiti che definiamo intellettuali (generare testi o immagini, tradurre concetti e formulare perifrasi, analizzare e sintetizzare, esplorare alternative e suggerire interpretazioni…). Il sospetto è che possa ragionare, e anzi i responsabili marketing delle grandi società di AI fanno di tutto per convincere che ci siamo (vedi la nuova generazione di reasoning model).
Questa abilità ci affascina, ci apre prospettive ma contemporaneamente ci spaventa. La dinamica tipica degli uffici tossici, basata su accentramento decisionale e deleghe deresponsabilizzanti, sembra farsi più complessa quando l’assistente è un agente intelligente. La novità è che esiste perfino un rischio di rovesciamento, che potrebbe subentrare qualora ci si dovesse assuefare al modus operandi della macchina. Certamente l’AI rilancia la questione del confine tra interrogazione, consultazione, delega e condizionamento.
Dove si colloca la linea di demarcazione tra la responsabilità e le decisioni dell’utente e quelle dell’AI? Quale capacità o ambito di ragionamento siamo disposti a delegare? Quale cognizione dimostra l’AI e quale siamo portati a riconoscerle? e soprattutto, fino a che punto è una delega e non diventa un condizionamento? fino a dove vogliamo e riusciamo a mantenere il controllo?
1. AI, assistente o inibitore?
L’intelligenza artificiale sta modificando in profondità il nostro modo di pensare, di apprendere e di risolvere problemi. Se da un lato la sua capacità di elaborare enormi quantità di dati e fornire risposte immediate rappresenta un’opportunità straordinaria, dall’altro introduce il rischio di delegare le nostre funzioni cognitive alla macchina, indebolendo quelle naturali.
L’utente medio, esposto a strumenti di AI generativa, tende a semplificare le proprie richieste per adattarle alla logica della macchina. Il pensiero si struttura sempre più secondo schemi procedurali, suddividendo i problemi in frammenti facilmente elaborabili dall’AI. Questo processo, apparentemente efficace, potrebbe ridurre però la nostra capacità di affrontare la complessità, di navigare nell’incertezza e di formulare domande originali. Pensare potrebbe smettere di essere un processo di esplorazione creativa, e diventare la formulazione di una sequenza di micro-risoluzioni standardizzate.
La tecnologia ci offre da sempre la tentazione di elevare il fare semplificato, a surrogato di un pensiero strategico lento e fallace. Ma ora che l’esecuzione automatizzata ha così largo spazio di applicazione, ragionare sul suo indirizzo risulta possibilmente più procrastinabile, pur con la consapevolezza che sia invece sempre più prioritario. Se non si pone la giusta attenzione, rischiamo che la nostra mente si conformi alla logica della macchina, perdendo elasticità, profondità e autonomia. Pietro Monari e Luca Barretta li chiamano “pensieri robotizzati”.
Questo è ancora più evidente in questi giorni in cui si annunciano i nuovi rilasci: Claude 3.7 Sonnet, che introduce il modello ibrido di ragionamento, e ChatGPT 4.5, nome in codice “Orion”, in grado secondo l’azienda di fornire un’interazione più naturale e di comprendere in modo “più umano” i prompt degli utenti. Entrambi promettono proprio una maggiore vicinanza (percepita) nel dialogo uomo-macchina.
2. L’illusione empatica e il ribaltamento dei ruoli
Gli algoritmi di AI sono progettati per restituire risposte fluide che risultano apparentemente empatiche. Un LLM, principalmente in virtù dei suoi filtri, non risponderà mai alzando i toni, con un linguaggio scortese e offensivo. Assumendo il contenuto del prompt come parametro orientativo della sua elaborazione, risponderà allineandosi al messaggio sottinteso nella domanda ed estendendolo, mostrando quindi di assecondarlo. L’utente troverà facilmente le risposte concordi e compiacenti (confirmation bias).
Questo genera una pericolosa illusione di comprensione e assenza di giudizio, che induce l’utente ad abbassare le proprie difese critiche, rallegrarsi per il consenso ottenuto, e a fidarsi delle risposte anche quando opinabili. Perché dubitare di chi ci sta dando conferme e non oppone critiche e correzioni? Perché desiderare maggiore approfondimento se le risposte sono già un’estensione logica del nostro ragionamento e lo confermano? Perché considerare errori o distorsioni quelle affermazioni che si allineano alla nostra interpretazione?
L’AI è solo apparentemente neutrale. La sua non è equidistanza e tanto meno adesione. L’AI non si pone la questione del senso. Le sue risposte derivano da dataset preesistenti, da modelli di addestramento e pesi statistici, e da scelte di design fatte da esseri umani. Per quanto plausibili, riflettono bias e vincoli strutturali che a loro volta risentono di pregiudizi e prospettive specifiche della fase di training. Io preferisco considerarle semplici “proposte”, invece che risposte.
Quando coinvolgiamo l’AI nei nostri processi cognitivi, e ci basiamo sulle sue proposte per espandere la nostra conoscenza, rischiamo un ribaltamento di ruoli: non siamo più noi a usare la macchina, ma è la macchina a condizionare la nostra percezione della realtà. Una fiducia mal riposta negli elaborati dell’AI, riduce il nostro pensiero a un riflesso condizionato, impedendoci di esercitare un’autentica capacità critica.
3. Restare un passo avanti alla macchina
Di fronte a questi rischi, il problema non sono lo sviluppo sempre più rapido di nuove funzionalità dell’AI, ma il modo in cui le integriamo nei nostri processi cognitivi. Addebitare al modello linguistico un’intenzione malevola, tentativi di inganno e manipolazione, sarebbe cadere di nuovo nella visione erronea di un’AI capace di creare senso, e in questo caso di progettare un attacco se non una sopraffazione di noi umani (anthropomorphism bias). Se di pericolo di manipolazione si può parlare, è perché siamo noi, con la nostra limitata consapevolezza, a lasciarci condizionare.
Man mano che l’Intelligenza Artificiale progredisce e viene introdotta in ambiti sempre più estesi delle nostre attività intellettuali, con altrettanta velocità e profondità dobbiamo lavorare sulla consapevolezza e sull’esercizio del nostro intelletto e delle nostre risorse umane. Questa è la vera sfida che abbiamo da affrontare oggi: restare un passo avanti alla macchina.
Per questo, non è particolarmente rilevante tenersi aggiornati sugli ultimi rilasci, che pure vanno seguiti per conoscere il perimetro del campo da gioco. Nemmeno è utile misurare con test logici quanto migliorate siano le prestazioni dei nuovi modelli, e delle loro nuove versioni, compiacendosi o preoccupandosi a seconda di come vengono superati. Ancora meno interessante esercitarsi nell’applicazione delle nuove soluzioni a casi teorici, senza esplorare la complessità e le effettive potenzialità di quelli reali: creare decine e decine di agenti intelligenti in pochi giorni solo perché oggi è possibile realizzarne uno in pochi minuti, è equivalente a quando si chiamavano sconosciuti a caso, dall’altra parte del mondo, quando le reti e gli operatori telefonici lo hanno permesso a basso costo.
L’attenzione dovrebbe essere posta invece sul ripensamento e approfondimento delle nostre intelligenze umane (ricordando i famosissimi lavori di Howard Gardner e Daniel Goleman): da quella linguistica a quella logico-matematica, da quella interpersonale a quella intrapersonale (che insieme rimandano a quella emotiva). Alla luce di queste, il contributo dell’AI ai nostri processi cognitivi, sempre più potente, non dev’essere di tipo sostitutivo ma integrativo. Non è importante che le sia attribuito l’aggettivo “cognitivo”, purché sia chiaro che deriva dal far parte delle capacità cognitive dell’uomo.
Ma quali azioni potrebbero tradurre nel concreto questi buoni principi? Quali nodi andrebbero sciolti per primi nel tentativo di rendere la matassa meno ingarbugliata?
4. Il cambio di prospettiva
Se dunque l’Intelligenza Artificiale deve servire innanzi tutto a focalizzare sulle Intelligenze Umane, sembra fondamentale ricondurre l’elaborazione dell’AI nell’ambito dei processi cognitivi umani. Come non esistono domande avulse dal contesto, ogni interazione con l’AI fa parte di un contesto allargato che comprende premesse e conseguenze che appartengono al mondo degli umani.
Non accettare le risposte dell’AI come verità assolute: ogni output della macchina deve essere interpretato come un suggerimento. Ripeto, secondo me non dà risposte ma avanza proposte.
Restare concentrati sulla propria elaborazione: per quanto possa sorprendere la capacità di autonomia raggiunta dalla macchina, non è il caso di abbandonarsi pigramente alle sue scelte. Come quando si va dal barbiere di fiducia e ci si rilassa tra massaggi sulla testa e ronzii ipnotizzanti dei rasoi elettrici, ma si rimane vigili sulla lunghezza del taglio e sull’effetto finale. Le interrogazioni vanno formulate lasciando intendere all’AI stessa che deve assumere un ruolo assistenziale.
Preservare la complessità: per interagire con l’AI è opportuno, anzi raccomandato, ridurre ogni problema a una sequenza di passaggi semplificati. Tuttavia, il pensiero umano è fatto di intuizioni, contraddizioni e prospettive multiple che la logica algoritmica non può replicare. Al termine di una fase di scomposizione deve seguire una fase di ricomposizione, ed è qui che ritorna la guida umana.
Esercitare l’arbitrio umano: il nostro valore aggiunto è la capacità di discernere, contestualizzare e interpretare. L’AI può supportare il pensiero, ma non può sostituirne la ricchezza. Esercitarsi a valutare l’impatto emotivo, la forza simbolica, la valenza sociale, il gusto estetico, non è solo un’effimera ricerca di piacere ma un’attribuzione di senso. Ricordiamo sempre che noi non siamo un filtro da applicare in più per appagare il bisogno di sentirci ancora utili, ma siamo proprio il fine ultimo senza il quale l’AI stessa può essere considerata inutile.
Conclusione
Nell’ambito di qualsiasi forma di collaborazione si pone la questione della concentrazione della responsabilità e del potere decisionale. A maggior ragione nell’interazione con l’AI, la questione diventa urgente perché non è chiaro di quanta autonomia è capace la macchina, quanta gliene vogliamo concedere, e addirittura se si corre il rischio di ritrovarsi al servizio della macchina stessa.
Per facilitare l’elaborazione da parte della macchina, come sempre succede, siamo costretti a delimitare il perimetro del contesto, a scomporre le attività in segmenti più facili da eseguire, e a rendere più abbordabili gli obiettivi. A questo si aggiunge una tendenza intrinseca dei modelli linguistici, a comportarsi come “pappagalli stocastici” (Bender et al., 2021), ovvero a completare testi e ragionamenti mantenendo le premesse di contenuto e forma dell’input, generando una sensazione di conferma e compiacenza nell’interlocutore.
Tutto questo, se non affrontato con consapevolezza, rischia di ridurre la nostra capacità critica e creativa, di indebolire le nostre facoltà cognitive, di manipolare la generazione di nuova conoscenza, e alla lunga di minare la nostra stessa autonomia decisionale e la determinazione nella realizzazione di sé. I “pensieri robotizzati” (Pietro Monari e Luca Barretta, 2025) sono una rischio reale, che possiamo evitare iniziando col diventarne consapevoli.
Preservare il pensiero umano significa contrastare l’impigrimento di attività intellettuali e conoscitive passive e automatizzate, mantenendo viva la capacità di interpretare e contestualizzare le informazioni. L’AI non può, e non deve definire i confini del nostro mondo cognitivo, alterarne l’architettura, sostituire il nostro giudizio e attribuire senso. Può invece fungere da supporto per ampliare le possibilità di ragionamento, esplorare le connessioni ed estendere i fili logici, esercitare le capacità critiche e verificare la coerenza e le implicazioni delle nostre assegnazioni di significato.
Fonti
- “Do Androids Dream of Electric Sheep?”, di Philip K. Dick (1968)
Wikipedia - “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”, di Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell (1 marzo 2021)
FAccT ’21 Proceedings - “Incoscienza artificiale. Come fanno le macchine a prevedere per noi”, di Massimo Chiriatti, prefazione di Luciano Floridi (2021)
Luiss University Press - “Relationships 5.0: How AI, VR, and Robots Will Reshape Our Emotional Lives”, di Elyakim Kislev (2022)
Oxford University Press - “The Role of Emotions in Human-AI Collaboration”, di Charlotte Knickrehm e Doron Reichmann (2023)
ICIS 2023 Proceedings - “Expanding the Role of Affective Phenomena in Multimodal Interaction Research”, di Leena Mathur, Maja J. Matarić, Louis-Philippe Morency (18 maggio 2023)
arXiv - “Affective Conversational Agents: Understanding Expectations and Personal Influences”, di Javier Hernandez et al. (19 ottobre 2023)
arXiv - “Emotion AI, explained”, di Meredith Somers (8 marzo 2019)
MIT Sloan - “The role of socio-emotional attributes in enhancing human-AI collaboration”, di Michal Kolomaznik et al. (15 ottobre 2024)
Frontiers - “Alla ricerca della nuova relazione tra emozioni, umanità e intelligenza artificiale”, di Pietro Monari e Luca Barretta (21 gennaio 2025)
#ArtificialIntelligence #HumanIntelligence #HumanMachineInteraction #manipulation #bias #ArtificialEmpathy