Vulnerabilità invisibili

Autore

Ugo Morelli
Ugo Morellihttp://www.ugomorelli.eu
Ugo Morelli, psicologo, studioso di scienze cognitive e scrittore, oggi insegna Scienze Cognitive applicate all’Università Federico II di Napoli; è Direttore Scientifico del Corso Executive di alta formazione, Modelli di Business per la Sostenibilità Ambientale, presso CUOA Business School, Altavilla Vicentina. Già professore presso le Università degli Studi di Venezia e di Bergamo, è autore di un ampio numero di pubblicazioni, tra le quali: Mente e Bellezza. Arte, creatività e innovazione, Allemandi & C, Torino 2010; Mente e paesaggio. Una teoria della vivibilità, Bollati Boringhieri, Torino 2011; Il conflitto generativo, Città Nuova, Roma 2013; Paesaggio lingua madre, Erickson, Trento 2014; Noi, infanti planetari, Meltemi, Milano 2017; Eppur si crea. Creatività, bellezza, vivibilità, Città Nuova, Roma 2018; Noi siamo un dialogo, Città Nuova Editrice, Roma 2020; I paesaggi della nostra vita, Silvana Editoriale, Milano 2020; Il grande esperimento. In virus veritas, Kappa Vu, Udine 2020; Empatie ritrovate. Entro il limite per un mondo nuovo, Edizioni S. Paolo, Milano 2020; Francesco Novara. Il lavoro non è più quello di un tempo, GueriniNext, Milano 2021; La passione di Venere, Meltemi, Milano 2021. Indifferenza. Crisi di legame sociale, nuove solitudini e possibilità creative, Castelvecchi, Roma 2023; Vittorio Gallese, Ugo Morelli, Cosa significa essere umani. Corpo, cervello e relazione per vivere nel presente, Raffaello Cortina Editore, Milano 2024. Vittorio Gallese, Ugo Morelli, Umani. Come, perché, da quanto tempo e fino a quando? Raffaello Cortina Editore, Milano 2025. Collabora stabilmente con le riviste Educazione Sentimentale, Vita&Pensiero, doppiozero.com, Animazione Sociale, Persone & Conoscenza, Sviluppo & Organizzazione, i dorsi del Corriere della Sera del Trentino, dell’Alto Adige, del Veneto e di Bologna, e con Il Mattino di Napoli.

Che succede quando l’Intelligenza Artificiale (AI) incide pervasivamente al punto di formare implicitamente e invisibilmente le vie del nostro pensiero?

Se facciamo riferimento al concetto di Thinkframes [F. Branda, When Artificial Intelligence Shapes the way we Think, https://doi.org/10.1007/s13347-026-01055-y; Philosophy & Technology, 2026; 39:42] per descrivere come l’intelligenza artificiale stia ridefinendo non solo i processi cognitivi individuali, ma interi ecosistemi epistemici collettivi, possiamo ricavare qualche tentativo di risposta ad una domanda più urgente che mai.

Il punto di partenza è il concetto di System 0 proposto da Massimo Chiriatti e colleghi [Nature Human Behaviour (2024), https://www.nature.com/articles/s41562-024-01995-5], che descrive uno strato cognitivo, una semiosfera o cognitive clime che precede e modula sia il pensiero intuitivo che quello deliberativo. Se System 0 opera principalmente a livello individuale, i Thinkframes rappresentano un’architettura cognitiva pervasiva che opera su scala collettiva, organizzando attenzione, interpretazione e processi decisionali attraverso l’interazione tra sistemi di AI, piattaforme, infrastrutture istituzionali e agenti umani. Si tratta di vere e proprie “ecologie cognitive” ibride che filtrano e incanalano la cognizione sociale, determinando ciò che diventa visibile, credibile e rilevante in ambiti cruciali come finanza, sanità, giustizia, scelte politiche e produzione della conoscenza. I Thinkframes come ecologie cognitive AI-mediate che tendono, seppur non necessariamente, a produrre pratiche epistemiche collettive uniformi e coerenti. Questo orientamento solleva tre interrogativi fondamentali che meritano attenzione e la difficile ricerca di qualche risposta.

In primo luogo è indispensabile domandarsi come prevenire le forme più preoccupanti di declino cognitivo a lungo termine, promuovendo al contempo pratiche epistemiche virtuose.

La tensione tra potenziamento e declino cognitivo richiede un approccio di igiene epistemica: così come curiamo la salute fisica, dobbiamo coltivare la salute cognitiva attraverso pratiche che bilancino l’uso di estensioni artificiali con momenti di pensiero non mediato. I Thinkframes non sono intrinsecamente buoni o cattivi, ma tecnologie che amplificano determinate modalità cognitive e ne attenuano altre. La sfida è progettare ecologie cognitive che preservino spazi per il pensiero divergente, la lentezza deliberativa e la critica, anche quando l’efficienza algoritmica spingerebbe verso la compressione dei tempi riflessivi. Le istituzioni educative hanno qui un ruolo cruciale: formare non solo all’uso competente dell’AI, ma alla consapevolezza dei propri trade-off cognitivi.

È poi necessario domandarsi quali principi di design etico implementare, come ad esempio il frictional design, per perseguire questi obiettivi?

Il frictional design rappresenta una direzione promettente: introdurre deliberatamente piccoli attriti, pause, momenti di disallineamento nelle interfacce uomo-macchina per costringere l’utente a fermarsi e riflettere. In un’epoca in cui l’AI tende a fornire risposte fluide, immediate e apparentemente definitive, creare spazi di resistenza cognitiva diventa un atto politico ed etico. Altri principi potrebbero includere la trasparenza algoritmica (rendere visibili i criteri di selezione delle informazioni), la pluralità epistemica (garantire che i Thinkframes non impongano una sola visione del mondo) e la responsabilità distribuita (chiarire chi risponde degli errori sistemici). Il design dei Thinkframes deve incorporare fin dall’inizio la possibilità del dissenso, dell’eccezione, della deviazione.

Da ultimo ma non meno importante è decisivo chiedersi quali misure educative e politiche adottare per garantire un’innovazione responsabile dei Thinkframes?

Sul piano educativo, occorre superare il modello della digital literacy intesa come mera competenza tecnica. Serve una critical AI literacy che includa: comprensione dei meccanismi epistemici sottostanti gli algoritmi; consapevolezza dei bias sistemici; capacità di interrogare criticamente gli output; e, non ultimo, educazione alla disconnessione consapevole. Sul piano politico, i Thinkframes richiedono regolamentazioni che vadano oltre la privacy e la protezione dati, affrontando questioni di epistemic justice: chi controlla i Thinkframes? Quali interessi modellano i filtri cognitivi collettivi? Come garantire che le minoranze epistemiche non vengano sistematicamente escluse? Servono politiche pubbliche che promuovano piattaforme aperte, algoritmi verificabili e meccanismi di accountability per gli errori sistemici su larga scala.

Questi interrogativi delineano un’agenda di ricerca urgente per l’epistemologia sociale e l’etica digitale. Introdurre “Thinkframes” nel lessico scientifico non è un esercizio di mera originalità terminologica, ma un tentativo di rispondere all’esigenza di nominare un fenomeno qualitativamente nuovo. Non siamo più di fronte a strumenti che supportano il pensiero, ma ad architetture che strutturano il pensiero collettivo in modo sistemico e pervasivo. Nominare questo fenomeno significa renderlo visibile, e renderlo visibile è il primo passo per governarlo affrontando la vulnerabilità che comporta.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Ultimi articoli