Il ricercatore casertano Antonio Lieto, originario di Casapulla, sarà uno dei relatori stranieri invitati a tenere una relazione presso la quattordicesima conferenza mondiale su Brain-Inspired Cognitive Architectures for Artificial Intelligence (‘Architetture Cognitive inspirate al Cervello per l’Intelligenza Artificiale’), BICA*AI 2023. Quest’anno la conferenza, che raccoglie i maggiori esperti mondiali di ‘architetture cognitive’ (l’infrastruttura software che coordina il comportamento globale di agenti autonomi e robot e la cui realizzazione è direttamente ispirata alla mente umana), si terrà nella megalopoli Ningbo, in Cina, dal 13 al 15 ottobre. Nel corso della conferenza Lieto illustrerà come i sistemi di intelligenza artificiale – per come sono progettati al momento – non possono essere dotati di alcuna ‘coscienza’ (a differenza di sistemi biologici come animali o esseri umani). Vale a dire che non sono in grado di poter decidere, intenzionalmente, cosa fare o non fare sulla base di un proprio ‘sentire’. «In generale – dice Lieto – discuterò del tema della errata attribuzione di facoltà cognitive ai sistemi attuali di intelligenza artificiale (inclusi i cosiddetti ‘Large Language Models’ come charGPT) dovuta esclusivamente all’utilizzo di confronti comportamentistici tra l’output di questi sistemi e ciò che fa un essere umano. Il fatto di arrivare a risultati analoghi a quelli degli esseri umani non vuol dire che i meccanismi che lo producano siano gli stessi (anzi: noi sappiamo esplicitamente che macchine e menti biologiche seguono meccanismi diversi per fare gli stessi compiti) e non vuol dire neanche che un sistema artificiale in grado di esibire prestazioni al livello degli esseri umani (o migliori) abbia sviluppato la corrispondente competenza che una entità biologica necessariamente deve avere per poter effettuare quel compito (e che può contemplare, ad esempio, un agire cosciente). Questo tipo di errata attribuzione di facoltà cognitive a sistemi di intelligenza artificiale (un problema di cui parlo diffusamente nel mio libro “Cognitive Design for Artificial Minds” https://www.routledge.com/Cognitive-Design-for-Artificial-Minds/Lieto/p/book/9781138207950 e noto sin dai tempi della cibernetica) – continua Lieto – rappresenta una delle principali sorgenti di confusione quando si parla o di ‘rischi esistenziali’ causati dall’intelligenza artificiale (che secondo alcuni scenari apocalittici potrebbe prendere il sopravvento sugli esseri umani e causarne l’estinzione) o della possibilità di costruire sistemi artificiali ‘coscienti’. Come illustrerò – conclude Lieto – entrambe – sono eventualità con probabilità o prossime allo zero (nel primo caso) o – ad oggi – pari a zero (nel secondo caso). Per quanto riguarda i rischi legati ad un uso improprio della tecnologia starà alle organizzazioni umane vedere come regolamentare il loro utilizzo per evitare che decisioni cruciali siano affidate a sistemi automatici». Lieto è attualmente ricercatore associato presso l’Istituto di Calcolo e Reti ad Alte Prestazioni del Cnr di Palermo e professore associato di Informatica presso l’Università di Salerno (dove è ritornato in seguito ad una decennale esperienza di ricerca presso il dipartimento di informatica dell’Università di Torino). Presso l’ateneo salernitano ha fondato il Cognition Interaction and Intelligent Technologies Lab (CIIT) che si occupa di Intelligenza Artificiale e Sistemi Cognitivi ed è noto a livello internazionale per il suo contributo scientifico in questo filone di ricerca interdisciplinare: nel 2020 è stato nominato ‘Distinguished Speaker’ dalla Association for Computing Machinery (ACM), la principale associazione internazionale in ambito informatico, con sede a New York, che assegna annualmente il Nobel per l’Informatica: il premio Turing.