Mentre temete un’intelligenza artificiale autonoma la ricerca è già altrove
Paolo Benini.
C’è una costante nelle fasi di transizione tecnologica: l’ansia precede sempre la comprensione. Oggi questa ansia si concentra sull’intelligenza artificiale, raccontata come una forza autonoma pronta a sostituire l’uomo, a pensare al suo posto, a prenderne il controllo. È una narrazione potente, ma già in ritardo rispetto a ciò che sta accadendo davvero. Mentre il dibattito pubblico continua a interrogarsi su macchine costruite in silicio e addestrate su dati, la ricerca scientifica si sta spostando altrove, verso sistemi in cui la distinzione tra biologico e artificiale non è più netta ma progressivamente sfumata. Questo non è un esercizio teorico. È una linea di lavoro concreta, sostenuta da centri di ricerca avanzati e da una produzione crescente di paper qualificati che descrivono e formalizzano questi sviluppi. Il paradosso è che il rumore cresce proprio mentre l’oggetto del rumore cambia natura. Si discute con intensità crescente di qualcosa che, nel frattempo, sta già scivolando oltre le categorie con cui lo si sta descrivendo. Il punto di partenza è una revisione radicale di ciò che intendiamo per intelligenza. Il modello implicito che ha guidato finora l’intelligenza artificiale, quello computazionale classico fatto di input, elaborazione e output, si rivela insufficiente quando viene confrontato con il funzionamento reale del cervello. Un singolo neurone non è una semplice unità di calcolo. È un sistema dinamico capace di integrare segnali nel tempo e nello spazio, di amplificare o sopprimere input in funzione della loro coerenza, di modificare la propria struttura attraverso meccanismi di plasticità.
Studi recenti mostrano che per simulare il comportamento di un solo neurone biologico sono necessarie architetture artificiali profonde e articolate. Questo dato, da solo, indica quanto la semplificazione operata finora sia stata drastica. E suggerisce, in modo meno evidente ma più incisivo, che una parte del dibattito contemporaneo sull’intelligenza artificiale non nasce da una reale comprensione del fenomeno, ma dalla tendenza a proiettare su di esso modelli mentali già superati. Da qui nasce un cambio di strategia. Se il cervello non è riducibile a un algoritmo semplice, allora non è più sufficiente ispirarsi ad esso. Occorre interagirvi. È in questo passaggio che si colloca lo sviluppo di ciò che viene definito NeuroAI e Synthetic Biological Intelligence. Si tratta di un ambito in cui reti neurali biologiche reali, coltivate in vitro, vengono integrate con sistemi digitali. Il paradigma tradizionale si articola in tre componenti: hardware, software e wetware. Il primo riguarda dispositivi progettati per emulare le dinamiche neuronali. Il secondo comprende modelli computazionali sempre più sofisticati. Il terzo introduce la materia vivente nel sistema: neuroni che crescono, si connettono, apprendono. Qui avviene lo scarto decisivo. Le reti neurali biologiche non apprendono come le reti artificiali. Non ottimizzano una funzione di perdita attraverso la retropropagazione del gradiente. Si auto-organizzano. Integrano memoria e calcolo nello stesso substrato. Operano con una efficienza energetica che resta, ad oggi, irraggiungibile per i sistemi artificiali. E soprattutto modificano continuamente la propria struttura in risposta all’interazione con l’ambiente.
Quando queste reti vengono interfacciate con sistemi digitali, attraverso matrici di elettrodi che permettono di registrare e stimolare l’attività neurale, emerge una dinamica nuova. Il sistema non è più programmato. È vincolato, perturbato, orientato. Nel tempo, si adatta. Non esegue istruzioni. Costruisce configurazioni stabili. Per descrivere questo tipo di adattamento, i modelli classici dell’intelligenza artificiale mostrano i loro limiti. Il reinforcement learning, basato su meccanismi di ricompensa, richiede la definizione esplicita di ciò che costituisce un comportamento corretto. Nei sistemi biologici, questa definizione è spesso inaccessibile. Più promettente appare il quadro teorico dell’active inference, secondo cui un sistema intelligente non massimizza una ricompensa ma minimizza la discrepanza tra le proprie aspettative e gli stati del mondo. Non cerca un premio. Cerca coerenza. Questa prospettiva consente di interpretare il comportamento emergente osservato nelle reti biologiche interfacciate con sistemi artificiali. Non si tratta di intelligenza nel senso antropomorfico del termine, ma di una forma di adattamento che non può essere ridotta a un semplice calcolo.
A questo si aggiunge un ulteriore sviluppo destinato a incidere profondamente sul campo. Si tratta della costruzione di modelli digitali, i cosiddetti digital twin, capaci di rappresentare in tempo reale il comportamento di queste reti biologiche. Questi modelli integrano dati morfologici, elettrofisiologici e metabolici. Consentono simulazioni e previsioni. Aprono scenari nuovi per la ricerca e per le applicazioni. Rafforzano l’idea che non siamo più di fronte a sistemi separati, ma a un continuum tra biologico e artificiale. Se si osserva questo quadro nel suo insieme, diventa evidente che il dibattito pubblico sull’intelligenza artificiale è in larga parte disallineato rispetto allo stato dell’arte. Si discute ancora di macchine che pensano come l’uomo, mentre la ricerca si muove verso sistemi in cui la distinzione stessa tra macchina e organismo perde significato. Non è la macchina che sostituirà l’uomo. È il concetto stesso di macchina che si sta trasformando. E forse è proprio qui che emerge una fragilità meno dichiarata: la difficoltà del pensiero umano ad aggiornare rapidamente i propri modelli quando la realtà li supera. Si teme ciò che si crede di comprendere, mentre ciò che realmente accade resta, per buona parte, fuori campo. In questo contesto, anche il tema dell’etica assume una natura diversa. Le questioni relative alla coscienza, alla responsabilità, al consenso e alla tutela dei dati biologici sono reali. Ma è necessario riconoscere che l’etica, in questi scenari, non è una proprietà dei sistemi che costruiamo. È uno strumento che l’uomo utilizza per regolare il proprio rapporto con essi. Funziona come l’autorizzazione a diffondere immagini in cui altri individui sono riconoscibili. Non cambia la natura dell’immagine. Regola il contesto in cui viene utilizzata. Protegge una struttura relazionale. Il nodo centrale non è stabilire se questi sistemi possano sviluppare forme di coscienza. Il nodo è comprendere che stiamo entrando in una fase in cui l’intelligenza non è più un attributo esclusivo né dell’uomo né della macchina. È una proprietà emergente di sistemi ibridi. In questa prospettiva, l’allarme appare per quello che è. Una reazione a un cambiamento già avvenuto.





