Ecco perché l'IA non è il contraltare dell'umanesimo
Va inventato un approccio altrettanto rivoluzionario, un intero vocabolario di constatazioni e definizioni che non possono non risentire della novità sostanziale che ci attende
Raul Gabriel
|3 mesi fa

Unsplash | Foto di Giorgio Trovato
La accelerazione esponenziale del congegno IA trascina nella enorme rete a strascico delle definizioni che la accompagnano residui linguistici di ogni genere, in buona parte riconducibili alla descrizione del mondo di ieri, sostanzialmente diverso. Il determinismo è tra questi. Corrente di pensiero che inquadra i fenomeni della realtà come risultati di necessità meccanicistiche incastrate in una griglia rigida dal destino matematico prevedibile, concetto ancora oggi d’elezione per analisi e classificazioni agevoli delle operazioni tecnologiche disponibili e non solo.
E’ piuttosto comune attribuire al modo di procedere delle intelligenze artificiali un sommario schema deterministico per cui l’effetto deriva da ragioni concatenate secondo dipendenze precise.
Una semplificazione della vulgata colta, utilizzata con ampia approssimazione per tentare di ricondurre a categorie facilmente gestibili il funzionamento dei vari modelli di intelligenza artificiale. Si presta molto bene ad una riflessione critica sui misunderstanding che chissà per quanto tempo ancora caratterizzeranno il dibattito intorno alla rivoluzione in corso.
La metafora del vino nuovo negli otri vecchi si adatta perfettamente al caso. Le classificazioni conosciute possono restituire un senso di controllo e sicurezza, regalando l’illusione di poter resistere ancora un po' nel magico mondo delle care vecchie sclerosi analogiche e delle filosofie dogmatiche a prescindere, ma al confronto con le IA a venire sono destinate a soccombere.
Molto prima che tutto questo diventasse materia di inquietudini ed entusiasmi quotidiani per profeti di ogni genere, ricordo che avevo trovato particolarmente convincente (e consolatoria) la ricerca di Vernon Mountcastle, neurofisiologo e professore emerito alla John Hopkins University, sul funzionamento delle strutture neocorticali cerebrali (per chi volesse approfondire rimando a questo link). Il suo lavoro sembrava evidenziare un primato indiscutibile del cervello umano sull’omologo asimmetrico della elaborazione artificiale. L’osservazione riguardava una proprietà particolarmente intrigante, la elasticità, contrapposta ma non necessariamente contraria, alla rigida complessità meccanico statistica delle operazioni di calcolo.
In un tempo relativamente breve l’evolversi dei vari bot, llm e sistemi neurali che apre a un cataclisma linguistico senza precedenti, ha declassato quelle considerazioni al ruolo di curiosità marginali da cultura generale.
Il core operativo delle intelligenze artificiali si snoda per apparati tutt’altro che anchilosati.
Il nuovo organismo in costante modificazione è talmente proteiforme, dinamico, sfuggente e vibrante da sfuggire a qualunque compartimentazione anche solo lontanamente precisa. Credo dovremmo immaginarlo come un insieme eterogeneo e sorprendentemente isotropo in continua trasformazione genotipo-fenotipica capace di inglobare e tradurre nel suo proprio codice ogni istanza, asset o fenomeno che incontra o crea ex novo. Una sorta di ameba digitale dall’appetito insaziabile e dal metabolismo estremamente adattabile.
Cercherò di illustrare la mia teoria con un esempio che credo funzioni molto bene. Immaginiamo di avere da una parte un braccio/segmento rigido che si muove come un blocco unico e dall’altro il suo corrispettivo gemello elastico.
Ora immaginiamo che il braccio rigido possa essere frazionato in segmenti sempre più ridotti e connessi tra loro. A quel punto l’entità rigida acquisisce caratteristiche che, se non rappresentano in senso letterale la idea di elasticità, sono in grado tuttavia di replicarne i comportamenti in modo inversamente proporzionale alla dimensione delle parti che la compongono. Poco importa che una elasticità sia, per così dire, nativa e l’altra ricostruita attraverso uno stratagemma geometrico. La frammentazione strutturata fa sì che il delta tra le due entità fisiche si approssimi allo zero.
E’ esattamente ciò che succederà alle intelligenze artificiali. La complessità crescente, incardinata su un sistema di sintassi interconnesse con gradi di mobilità pressochè infiniti restituirà al loro congegno la perfetta replica della elasticità elaborativa che Vernon Mountcastle aveva individuato come peculiare delle incredibili strutture neocorticali cerebrali nel nostro cervello.
Tutto questo ha molto a che fare con il determinismo e l’uso improprio che se ne fa a proposito delle dinamiche IA. La progressiva parcellizzazione della modularità apre a possibilità di ‘movimento’ ( logico-sintattico, consequenziale, deduttivo, etc ) che finiranno per sconfinare in versioni molto credibili della imprevedibilità tipica di dimensioni come il libero arbitrio, le emozioni, la coscienza, la capacità di adeguamento responsivo a modifiche in corsa di ogni genere.
La complessità è per le IA una porta di accesso all’insondabile. Il fenomeno quantitativo, per estensione, diviene, forse per la prima volta nella storia, chiave d’accesso al privilegio qualitativo.
Criteri come efficienza e produttività, riferimenti supremi del positivismo tecnoindustriale dalla cui celebrazione quotidiana siamo sommersi, perderanno anche loro progressivamente di senso.
Il congegno linguistico del nuovo verbo, o meglio del verbo da cui si tenta di espropriare le proprietà ancestrali generative che tentano i regni della metafisica, apre indifferentemente a tutte le gradazioni di distorsione refrattiva del flusso sintattico deviato attraverso il prisma deformato e deformante dell’hardware.
Produttività e il suo contrario, efficienza e il suo contrario potranno coincidere senza ostacolarsi in un processo che non persegue finalità di sorta e non rispetta le servitù, bugiardino etico fai da te compreso, che crediamo di poter imporre.
Va inventato un approccio altrettanto rivoluzionario, un intero vocabolario di constatazioni e definizioni che non possono non risentire della novità sostanziale che ci attende. La discrasia tra ciò che succede sul campo e una riflessione ancorata ad acquisizioni inadeguate perché riferite ad un mondo radicalmente diverso, rimbalzerà, per determinismo (questo sì) sociale e culturale, una teoria interminabile di enclave di resistenza che hanno a cuore per le ragioni più varie il mantenimento dello status quo pro bono proprio, del tutto insufficienti a fronteggiare e controbilanciare la spregiudicata contaminazione linguistico-tecnologica che scardinerà la fissità obsoleta di paradigmi filosofico cognitivi essenziali, fino ad ora, puntando con decisione alla instabile ,dinamica, destabilizzante oscillazione tra entità ‘verbale’ e incidenza fenomenica. Coniando un termine del tutto estemporaneo definirei il determinismo che regola le IA come un determinismo scivoloso che annullerà progressivamente l’attrito di ogni confortante meccanismo a cremagliera di causa effetto destinato a slittare su un flusso verbale che limerà allo zero le dentiere dell’ingranaggio. Al tempo stesso la nuova tecnoalchimia del linguaggio non ostacolerà le capacità cognitive umane, non si opporrà alle fedi così come non sarà necessariamente votata all’ industria o ad incarnare un contrappasso punitivo per arte e filosofia. Il congegno IA non è il contraltare dell’ umanesimo, ne è il suo prodotto più sofisticato.

