(di Demografica da AdnKronos) L’essere umano ha una parte irrazionale e una razionale, una parte rapida e una più lenta, ciò che il premio Nobel 2002 Daniel Kahneman ha individuato come Sistema 1 e Sistema 2, nella sua opera magna Pensieri lenti e veloci del 2012. Da dodici anni abbiamo trovato conferme e risposte molto dettagliate su come il nostro cervello risponda a determinati stimoli, ma l’intelligenza artificiale potrebbe cambiare le nostre convinzioni. O meglio i nostri cervelli.
La notizia arriva da una ricerca pubblicata su Nature che introduce una teoria rivoluzionaria sul pensiero umano mediato dall’intelligenza artificiale: il Sistema 0. In base a questo modello, ideato da un team di esperti multidisciplinari, l’interazione con l’Ai creerebbe un nuovo livello di elaborazione cognitiva, esterno al cervello umano ma strettamente legato al nostro processo decisionale. A differenza dei Sistemi 1 e 2 descritti dal Premio Nobel Daniel Kahneman, il Sistema 0 offre un “pensiero” automatizzato e inorganico, che affascina e al contempo spaventa: come l’Ai può cambiare (e sta già cambiando) la nostra cognizione e la nostra percezione della realtà?
Dai Sistemi 1 e 2 al Sistema 0: l’evoluzione della cognizione
Per comprendere appieno il concetto di Sistema 0, è utile guardare alla teoria dei due sistemi di pensiero di Kahneman. Secondo Kahneman, il Sistema 1 rappresenta un pensiero rapido e intuitivo, che consente risposte immediate in situazioni quotidiane; il Sistema 2 è invece più lento, analitico e riflessivo e viene usato per decisioni complesse.
Il Sistema 0 si distingue perché non è legato al corpo umano, ma è piuttosto un sistema esterno e inorganico, ovvero l’Ai, che svolge compiti cognitivi complessi. Questo sistema è capace di immagazzinare e rielaborare grandi quantità di dati, producendo risposte e suggerimenti che facilitano la nostra comprensione e decisione ma non ha la capacità di dare significato ai dati: la comprensione finale spetta a noi, che dobbiamo attribuire senso e valore alle sue risposte. Anche se si tratta di un sistema esterno, il Sistema 0 può influenzare il nostro modo di ragionare soprattutto quando le interazioni tra l’essere umano e i sistemi di Ai aumentano di frequenza.
L’Ai e il rischio di “Automation Bias”
Il Sistema 0 non è solo un dispositivo che raccoglie e organizza dati, ma un meccanismo che filtra e semplifica le informazioni, rendendole più fruibili. È come avere un assistente digitale che pre-elabora i dati per presentarceli in modo più chiaro e accessibile, ma che non ha capacità interpretative. Tuttavia, questa funzione introduce un rischio: abituarsi a ricevere risposte rapide e semplificate può indurre a passività nel pensiero critico, portando a una fiducia automatica nell’output dell’Ai senza esaminarlo. I software di Ai specificano, chi più chi meno, di non essere infallibili, “ChatGPT può commettere errori. Considera di verificare le informazioni importanti”, avverte il software di OpenAi, ma quanti lo fanno davvero?
Questo fenomeno, noto anche come “automation bias”, è stato studiato anche in ambito medico, dove i professionisti possono fare affidamento eccessivo sulle tecnologie di supporto diagnostico, anche quando presentano errori o limiti.
Il Sistema 0 pone interrogativi profondi in termini di fiducia e trasparenza sugli output prodotti, mentre il pericolo di fake news e di disinformazione/propaganda politica aumenta a dismisura. Sempre più spesso il cervello umano avrà a che fare con elementi generati dagli algoritmi, nati e finiti all’interno di un contesto digitale, a differenza del Sistema 1 e Sistema 2 che partono dal contesto reale.
La crescente presenza di dati sintetici può distorcere la percezione dei fenomeni e influenzare negativamente le decisioni. È quindi necessario stabilire dei framework di valutazione che monitorino l’affidabilità e trasparenza dell’Ai e identifichino possibili bias, assicurando che l’output del Sistema 0 rimanga un supporto e non un sostituto del pensiero umano critico.
Introspezione mediata dall’Ai, un pericolo silenzioso
Un aspetto interessante e preoccupante del Sistema 0 è la sua capacità di influenzare il modo in cui percepiamo e comprendiamo noi stessi. Con Ai sempre più avanzate in grado di monitorare i nostri comportamenti e stati mentali, si apre la possibilità di usare queste tecnologie per analizzare la psicologia individuale. Tuttavia, questa analisi, seppur utile, non può realmente sostituire l’introspezione che deve restare un’esperienza soggettiva e riflessiva che permette di accedere a pensieri ed emozioni interiori; si tratta di una funzione profondamente legata all’identità individuale. Tra le righe della ricerca si evidenzia come la crescente fiducia nell’Ai per auto-analisi o per interpretare comportamenti potrebbe portare a una “depersonalizzazione” della nostra esperienza interiore, delegando a una macchina il compito di definire aspetti che dovrebbero restare strettamente personali.
La standardizzazione del pensiero
L’adozione del Sistema 0 e la diffusione dell’Ai nella vita quotidiana sollevano importanti questioni etiche. L’affidarsi a un sistema esterno per prendere decisioni può ridurre la capacità individuale di pensare criticamente e di analizzare le informazioni in modo autonomo. Se gli individui tendono ad accettare passivamente le risposte dell’Ai senza verificarle, si rischia una pericolosa standardizzazione del pensiero.
Questo non solo può ridurre la diversità di opinioni, ma ha anche implicazioni su larga scala, come la manipolazione delle informazioni e la perdita di autonomia nella gestione delle scelte collettive. La fiducia acritica in un sistema tecnologico potrebbe infatti rendere le società più vulnerabili alla disinformazione e all’influenza di attori con interessi economici o politici. Assicurare che il Sistema 0 resti uno strumento a disposizione degli utenti, e non viceversa, è quindi fondamentale per preservare l’autonomia decisionale e la trasparenza.
La cronaca getta ancora più ombra sugli strumenti di Ai dopo che, a febbraio, un ragazzo di 14 anni si è suicidato con tanto di “sostegno” da parte di un chatbot, come dimostrano le conversazioni riportate da The Telegraph. Al centro della bufera Character.AI, dove sono saltati fuori persino dei chatbot che parlano e scrivono come Giulia Cecchettin e Filippo Turetta.
Le opportunità del Sistema 0 nella ricerca (e non solo)
Il Sistema 0 offre anche enormi opportunità. La capacità dell’Ai di elaborare grandi quantità di dati e di offrire un supporto pre-elaborato è un valore aggiunto in molti campi, dalla ricerca scientifica alla gestione di sistemi complessi. In ambito scientifico, ad esempio, il Sistema 0 può contribuire all’analisi di dataset su larga scala, migliorando la velocità e la precisione delle scoperte come dimostra lo studio del Mit secondo cui l’Ai sarebbe in grado di rilevare il cancro al seno con cinque anni di anticipo rispetto ai metodi “tradizionali”. Nella gestione di sistemi sociali e ambientali complessi, il Sistema 0 può rivelarsi prezioso per identificare trend e ottimizzare risorse, supportando decisioni che vanno oltre le capacità umane.
La sfida passa dal bilanciare il potenziale di questi strumenti con una gestione responsabile degli stessi, garantendo trasparenza, affidabilità e supervisione etica. La creazione di linee guida e framework di controllo può aiutare le persone a beneficiare delle capacità dell’Ai senza perdere di vista l’importanza del pensiero critico e dell’autonomia decisionale.
Da decenni sappiamo che la tecnologia è neutra, ma con l’Ai non ci sono mezze misure: può essere la più grande scoperta tecnologica o la peggiore. Tutto dipenderà da cosa vorremo farci noi esseri umani.