Che succede quando l’Intelligenza Artificiale (AI) incide pervasivamente al punto di formare implicitamente e invisibilmente le vie del nostro pensiero?
Se facciamo riferimento al concetto di Thinkframes [F. Branda, When Artificial Intelligence Shapes the way we Think, https://doi.org/10.1007/s13347-026-01055-y; Philosophy & Technology, 2026; 39:42] per descrivere come l’intelligenza artificiale stia ridefinendo non solo i processi cognitivi individuali, ma interi ecosistemi epistemici collettivi, possiamo ricavare qualche tentativo di risposta ad una domanda più urgente che mai.
Il punto di partenza è il concetto di System 0 proposto da Massimo Chiriatti e colleghi [Nature Human Behaviour (2024), https://www.nature.com/articles/s41562-024-01995-5], che descrive uno strato cognitivo, una semiosfera o cognitive clime che precede e modula sia il pensiero intuitivo che quello deliberativo. Se System 0 opera principalmente a livello individuale, i Thinkframes rappresentano un’architettura cognitiva pervasiva che opera su scala collettiva, organizzando attenzione, interpretazione e processi decisionali attraverso l’interazione tra sistemi di AI, piattaforme, infrastrutture istituzionali e agenti umani. Si tratta di vere e proprie “ecologie cognitive” ibride che filtrano e incanalano la cognizione sociale, determinando ciò che diventa visibile, credibile e rilevante in ambiti cruciali come finanza, sanità, giustizia, scelte politiche e produzione della conoscenza. I Thinkframes come ecologie cognitive AI-mediate che tendono, seppur non necessariamente, a produrre pratiche epistemiche collettive uniformi e coerenti. Questo orientamento solleva tre interrogativi fondamentali che meritano attenzione e la difficile ricerca di qualche risposta.
In primo luogo è indispensabile domandarsi come prevenire le forme più preoccupanti di declino cognitivo a lungo termine, promuovendo al contempo pratiche epistemiche virtuose.
La tensione tra potenziamento e declino cognitivo richiede un approccio di igiene epistemica: così come curiamo la salute fisica, dobbiamo coltivare la salute cognitiva attraverso pratiche che bilancino l’uso di estensioni artificiali con momenti di pensiero non mediato. I Thinkframes non sono intrinsecamente buoni o cattivi, ma tecnologie che amplificano determinate modalità cognitive e ne attenuano altre. La sfida è progettare ecologie cognitive che preservino spazi per il pensiero divergente, la lentezza deliberativa e la critica, anche quando l’efficienza algoritmica spingerebbe verso la compressione dei tempi riflessivi. Le istituzioni educative hanno qui un ruolo cruciale: formare non solo all’uso competente dell’AI, ma alla consapevolezza dei propri trade-off cognitivi.
È poi necessario domandarsi quali principi di design etico implementare, come ad esempio il frictional design, per perseguire questi obiettivi?
Il frictional design rappresenta una direzione promettente: introdurre deliberatamente piccoli attriti, pause, momenti di disallineamento nelle interfacce uomo-macchina per costringere l’utente a fermarsi e riflettere. In un’epoca in cui l’AI tende a fornire risposte fluide, immediate e apparentemente definitive, creare spazi di resistenza cognitiva diventa un atto politico ed etico. Altri principi potrebbero includere la trasparenza algoritmica (rendere visibili i criteri di selezione delle informazioni), la pluralità epistemica (garantire che i Thinkframes non impongano una sola visione del mondo) e la responsabilità distribuita (chiarire chi risponde degli errori sistemici). Il design dei Thinkframes deve incorporare fin dall’inizio la possibilità del dissenso, dell’eccezione, della deviazione.
Da ultimo ma non meno importante è decisivo chiedersi quali misure educative e politiche adottare per garantire un’innovazione responsabile dei Thinkframes?
Sul piano educativo, occorre superare il modello della digital literacy intesa come mera competenza tecnica. Serve una critical AI literacy che includa: comprensione dei meccanismi epistemici sottostanti gli algoritmi; consapevolezza dei bias sistemici; capacità di interrogare criticamente gli output; e, non ultimo, educazione alla disconnessione consapevole. Sul piano politico, i Thinkframes richiedono regolamentazioni che vadano oltre la privacy e la protezione dati, affrontando questioni di epistemic justice: chi controlla i Thinkframes? Quali interessi modellano i filtri cognitivi collettivi? Come garantire che le minoranze epistemiche non vengano sistematicamente escluse? Servono politiche pubbliche che promuovano piattaforme aperte, algoritmi verificabili e meccanismi di accountability per gli errori sistemici su larga scala.
Questi interrogativi delineano un’agenda di ricerca urgente per l’epistemologia sociale e l’etica digitale. Introdurre “Thinkframes” nel lessico scientifico non è un esercizio di mera originalità terminologica, ma un tentativo di rispondere all’esigenza di nominare un fenomeno qualitativamente nuovo. Non siamo più di fronte a strumenti che supportano il pensiero, ma ad architetture che strutturano il pensiero collettivo in modo sistemico e pervasivo. Nominare questo fenomeno significa renderlo visibile, e renderlo visibile è il primo passo per governarlo affrontando la vulnerabilità che comporta.

