
Breve Riflessione tratta dalla ricerca di: Massimo Chiriatti, Marianna Ganapini, Enrico Panai e Mario Ubiali.
L’interazione tra esseri umani e intelligenza artificiale (IA) sta ridefinendo i confini della cognizione, introducendo un nuovo paradigma noto come il Sistema 0. Questo concetto, presentato in Nature Human Behaviour 3-4-10 completa i modelli di pensiero descritti da Daniel Kahneman – il Sistema 1 (intuitivo) e il Sistema 2 (analitico) – con una dimensione computazionale che trasforma radicalmente il rapporto uomo-macchina, specialmente nell’era dei robot umanoidi.
Il Sistema 0 rappresenta l’outsourcing di compiti cognitivi a strumenti di IA, in grado di elaborare dati su scale e velocità inaccessibili al cervello umano 3-6 , una sorta di estensione cognitiva estensibile.
A differenza dei sistemi tradizionali:
- Funziona come un “filtro attivo”, organizzando informazioni prima che raggiungano la coscienza (ad esempio, algoritmi di raccomandazione o assistenti virtuali) 10.
- Manca di comprensione semantica: opera su correlazioni statistiche, non sul significato intrinseco dei dati 3-6.
- Amplifica le capacità umane in settori come la diagnostica medica, dove analizza milioni di casi in pochi secondi, o nella finanza, dove prevede trend di mercato complessi 2-1- 6.
Nei robot umanoidi, questo sistema si traduce in interazioni fisiche avanzate: sensori integrati e reti neurali permettono di interpretare linguaggio non verbale o adattarsi a contesti dinamici, pur rimanendo vincolati a logiche pre-programmate 9 - 12.
L’integrazione del Sistema 0 nella cognizione umana solleva sfide critiche:
- Amplificazione dei bias: gli algoritmi addestrati su dati distorti perpetuano stereotipi, come dimostrato in studi su compiti emotivi e percettivi 1.
- Dipendenza cognitiva: l’uso prolungato riduce la capacità di giudizio indipendente. Esperimenti mostrano che il 32.7% dei partecipanti modifica le proprie decisioni quando in disaccordo con l’IA, rispetto allo 0.2% in caso di accordo 1.
- Erosione dell’autonomia: il 67% delle collaborazioni uomo-IA in compiti decisionali underperforma rispetto all’uso separato di umani o algoritmi 2.
Nasce da ciò la proposta di un’algoretica 3 - 16 emerge come risposta a queste criticità, articolandosi su tre pilastri:
- Trasparenza algoritmica: rendere accessibili i criteri decisionali delle IA, specialmente in ambiti sensibili come la sanità 2 - 16.
- Educazione critica: sviluppare competenze digitali per evitare la “tirannia dell’algoritmo” 5-8.
- Cooperazione asimmetrica: progettare sistemi in cui umani e IA svolgono ruoli complementari, non sostitutivi. Ad esempio, nell’arte generativa, l’IA gestisce la produzione tecnica mentre l’uomo conserva il controllo creativo 2- 9.
Il dibattito sull’IA generale (AGI) acquista nuova rilevanza con il Sistema 0:
- IA debole (ANI): domina gli attuali sviluppi, ottimizzando compiti specifici (es. diagnosi mediche o trading algoritmico) 2 - 16.
- IA forte (AGI): rimane un orizzonte teorico, ma solleva questioni ontologiche. Come nota Benanti, le IA devono essere concepite come artefatti cooperativi, non competitor evolutivi 3 - 8.
Il Sistema 0 ridefinisce l’ecologia cognitiva umana, offrendo strumenti potenti ma introducendo rischi sistemici. La sfida cruciale risiede nel bilanciare automazione e autonomia, sfruttando la potenza computazionale senza abdicare al pensiero critico. Come evidenziato negli esperimenti di Vaccaro et al. 2, le performance migliori si ottengono quando umani e IA collaborano in compiti creativi, preservando il ruolo decisionale finale dell’uomo. L’integrazione con robot umanoidi amplificherà queste dinamiche, richiedendo quadri etici flessibili e interdisciplinari per governare una relazione sempre più simbiotica.
Fonti
[1] How human–AI feedback loops alter human perceptual ... https://www.nature.com/articles/s41562-024-02077-2
[2] When combinations of humans and AI are useful https://www.nature.com/articles/s41562-024-02024-1
[3] The case for human–AI interaction as system 0 thinking https://www.nature.com/articles/s41562-024-01995-5
[4] The case for human-AI interaction as system 0 thinking - PubMed https://pubmed.ncbi.nlm.nih.gov/39438682/
[5] Steve Wright on LinkedIn: The case for human–AI interaction as ... https://www.linkedin.com/posts/conches_the-case-for-humanai-interaction-as-system-activity-7255312890730012674-Mtlj
[6] The case for human–AI interaction as system 0 thinking - PhilPapers https://philpapers.org/rec/BERTCF-5
[7] The case for human–AI interaction as system 0 thinking https://nature.com/articles/s41562-024-01995-5.epdf?sharing_token=I8bxckygvKDLK1UlozRTG9RgN0jAjWel9jnR3ZoTv0OhQJx5BUMoS7V3ighDht7OvEYpEG12-Wudtr2u9lwVmKxM0wH2EJ4unsz5ALBLkhLo6HrJFG4ioQ4NuUNnqFxG4qpdRZ25PW1NWHjqp5bfMWGGrfG4Tj-gktv3xBfJQ9w%3D
[8] The Case for Human-AI Interaction as System 0 Thinking - LinkedIn https://www.linkedin.com/pulse/case-human-ai-interaction-system-0-thinking-tim-escolopio-p3ube
[9] Connecting humans and machines https://www.nature.com/collections/baeggieehe
[10] The case for human–AI interaction as system 0 thinking | Request PDF https://www.researchgate.net/publication/385152067_The_case_for_human-AI_interaction_as_system_0_thinking
[11] Volume 8 Issue 10, October 2024 https://www.nature.com/nathumbehav/volumes/8/issues/10
[12] Neuroscience News on X: "“The case for human-AI interaction as ... https://x.com/NeuroscienceNew/status/1848768352573173864
[13] News & Comment | Nature Human Behaviour https://www.nature.com/nathumbehav/news-and-comment?searchType=journalSearch&sort=PubDate&page=1
[14] The case for human–AI interaction as system 0 thinking - ivySCI https://www.ivysci.com/articles/5355046__The_case_for_humanAI_interaction_as_system_0_thinking
[15] Correspondence | Nature Human Behaviour https://www.nature.com/nathumbehav/articles?type=correspondence
[16] Browse Articles | Nature Human Behaviour https://www.nature.com/nathumbehav/articles?searchType=journalSearch&sort=PubDate&page=4
[17] Impact of artificial intelligence on human loss in decision ... https://www.nature.com/articles/s41599-023-01787-8
Aggiungi commento
Commenti