005 (2)
di Carlo Borasi

1. Introduzione

La crisi della società dei consumi favorisce un processo in atto da qualche decennio: lo sviluppo della società dell’informazione. Tale sviluppo è permesso dalle eccezionali prestazioni raggiunte dai computer e dalle conoscenze acquisite nel campo dell’informatica e della telematica.
Hanno così potuto svilupparsi scienze quali l’intelligenza artificiale e la cibernetica. Accanto a questo dobbiamo ricordare come la teoria generale dei sistemi, la dinamica dei sistemi non lineari e la geometria dei frattali abbiano trovato nella scienza dei computer un potente strumento di sviluppo e di affermazione.
Queste nuove conoscenze hanno trovato molteplici applicazioni; esse vanno dal campo industriale a quello socio-economico. La cibernetica, intesa come scienza del controllo, si applica a tutti i campi che possono essere assoggettati a forme di programmazione e decisione razionale.
Nel campo industriale si tratta, non solo del controllo automatico di macchinari e impianti, ma anche della gestione e programmazione di interi cicli produttivi e della ricerca di strategie di ottimizzazione.
Le strategie di ottimizzazione, che hanno notevoli basi logico-matematiche, sono simili a quelle che si applicano nel campo economico e che si tenta di applicare nel campo del controllo sociale.
Tutto questo complesso di tecniche e metodi, che era un tempo frutto dell’intelligenza e della creatività umana, viene oggi affidato ai computer ed alla cosiddetta “intelligenza artificiale”. Poiché questo avviene con successo crescente, si pongono diversi interrogativi di carattere etico, sociale, filosofico e culturale.
Cercheremo di esaminare nel seguito i diversi aspetti della questione, anche se dobbiamo premettere una osservazione: la necessità di scrivere questi appunti in forma accessibile alla traduzione automatica non è affatto impresa semplice!
La necessità di adeguarsi alla logica del computer ed alla fredda razionalità delle macchine (che caratterizza il nostro attuale mondo tecnologizzato, di organizzare la vita sociale, di programmare il futuro e di comunicare) deve lasciare uno spazio vitale alle altre forme di pensiero e di comunicazione.
Il linguaggio naturale, nonostante la sua indeterminatezza sintattico-semantica e la sua continua deriva storica, rappresenta la vita reale delle persone e della società. Esso può essere fonte di ambiguità e paradossi, ma solo da esso può nascere la poesia che è la forma più alta per trasmettere emozioni e sentimenti.
Elementi questi che sono del tutto estranei alla rigida logica matematica dei computer, così come alla fredda ed impersonale logica economico-finanziaria delle “società tecnologicamente avanzate”.

L’indeterminatezza delle lingue naturali (che comporta anche i noti problemi della traduzione) costituisce un problema poco rilevante se ci si attiene agli usi del linguaggio più comuni e collaudati. Qualcosa di analogo avviene quando il discorso non cerca di affermare qualcosa sul parlante o sul carattere di ciò che viene affermato in altra parte del discorso stesso.(1)
Lo scopo del discorso umano non è però solamente quello di descrivere fatti osservativi in modo rigidamente oggettivo e neutrale. Il parlante è sempre coinvolto in ogni discorso che riguarda la sua condizione umana e storica ed i suoi rapporti con le altre persone.
Ogni discorso che riguardi la necessità di superamento della condizione presente e di apertura ad un orizzonte di senso (capace di superare la dimensione puramente operativa e fattuale) non si riduce ad un puro errore di grammatica, come pretendeva il neopositivismo.(2)

2. La cibernetica

La cibernetica può essere definita come disciplina per governare i sistemi: il termine cibernetica deriva infatti dal greco **********, che significa pilota.

«I greci vedevano nel pilota un uomo dotato di facoltà superiori alla dimensione comune. Infatti, governando la nave per condurla in porto, il pilota realizza una continuità intelligente tra il presente e il futuro; sicché può essere assunto a simbolo di chi vuole progettare il proprio destino, e si impegna così contro l’avversità del tutto».(3)

A tale riguardo, riportiamo ancora quanto afferma F. Latini:

«desideriamo ricordare che la cibernetica, che certamente significa efficacia, può e dovrà significare soprattutto libertà. Ripetiamo, cioè, il monito di Wiener, che l’essere umano, aiutato dalla macchina ed esonerato dalla parte non creativa del suo lavoro, possa sviluppare le sue qualità migliori, senza divenire egli stesso una macchina vivente».(4)

Norbert Wiener nel volume: Introduzione alla cibernetica. L’uso umano degli esseri umani,(5) non affronta il problema della cibernetica da un punto di vista squisitamente tecnico e specialistico.
Lo scopo del libro consiste nell’esame delle conseguenze sul piano umano e sociale legate all’uso delle nuove tecnologie; la preoccupazione è infatti quella che esse soddisfino al principio dell’uso umano degli esseri umani.
L’autore sembra dar voce ad un’angoscia, ad una paura di fondo: la definitiva resa dell’homo sapiens dinnanzi allo strapotere di congegni che diventano sempre più autopoietici (capaci cioè di auto-creazione). Congegni che sembrano poter sottrarre all’uomo le sue prerogative di signore, pastore e custode dell’essere.
Naturalmente può sembrare di trovarci di fronte ad una rappresentazione dicotomica, che oppone l’uomo alla macchina, il mondo dei valori e delle istanze umane agli artefatti realizzati dalla tecnica. Una concezione che dimentica l’origine di quegli artefatti, come se non fossero realizzati e pensati dallo stesso uomo creatore di valori.
Su tale questione si potrà discutere; vogliamo per ora illustrare che cosa è in grado di produrre la conoscenza in campo cibernetico, per quanto attiene all’interfaccia uomo-macchina.
Wiener ricorda che la società può essere compresa attraverso lo studio dei messaggi e dei mezzi di comunicazione relativi ad essi. Resta naturalmente da vedere se questo sia l’unico strumento di comprensione.
Nel futuro i messaggi fra l’uomo e le macchine, fra le macchine e l’uomo e fra macchina e macchina diventeranno sempre più importanti; questo ci fa intuire quanto e come la vita sociale e personale possa essere modificata dalla macchina, intesa come nuovo e potente strumento per la creazione, la trasmissione e l’elaborazione dell’informazione.
La cibernetica si pone comunque come studio dei vari messaggi e dei relativi contenuti di informazione. Abbiamo qui una osservazione importante ma non priva di risvolti problematici: Wiener osserva che il mondo può ritenersi costruito sulla base di modelli.
Un modello è essenzialmente una disposizione caratterizzata dall’ordinamento degli elementi di cui si compone, anziché dalla natura intrinseca di questi elementi.
Ricordiamo che per Wiener l’informazione consiste nella misura della regolarità di un modello, le cui parti si sviluppano nel tempo. Studiamo la macchina per comprendere l’uomo e analizziamo l’uomo per costruire macchine sempre più efficienti.
Se ci atteniamo al principio espresso dall’intelligenza artificiale in senso debole, tale modo di procedere nella ricerca appare abbastanza consolidato e non ambiguo. Cioè tale da non costituire insanabili contraddizioni dal punto di vista umano, o gravi problemi di tipo etico, personale, sociale.
Se il quadro di riferimento viene legato all’intelligenza artificiale in senso forte, gli interrogativi che ne scaturiscono assumono caratteri complessi e talora drammatici.

3. Quali interrogativi?

Il fatto che esistano due interpretazioni dell’intelligenza artificiale nasce dalla difficoltà stessa di definire l’intelligenza. Tale difficoltà è dovuta al fatto che dobbiamo spiegare che cosa sia l’intelligenza, utilizzando gli strumenti concettuali dell’intelligenza stessa.
Come abbiamo precedentemente accennato, tale modo di procedere è destinato a dar luogo a contraddizioni; esso, infatti, equivale al tentativo di formulare nel linguaggio le proprietà semantiche del linguaggio stesso, ovvero di costruire un sistema semanticamente chiuso.(6)
L’intelligenza artificiale in senso forte rappresenta dunque un’operazione altamente ambiziosa. Essa infatti non si limita ad imitare alcune funzioni del cervello umano; neppure si limita a utilizzare gli automi artificiali per cercare di capire i meccanismi del cervello.
Il suo punto di arrivo sembra essere la totale comprensione del funzionamento del cervello; questo al fine di riprodurne il completo funzionamento in termini di macchine (congegni di alta ingegneria, dotati di autonomia, di capacità di affrontare problemi nuovi e situazioni impreviste, di apprendere in modo autonomo, di sviluppare una forma di pensiero libero e creativo).
Macchine che debbono provare emozioni, sentimenti, paure, speranze? Che commettono errori e si pongono domande circa il corretto rapporto con altri esseri dotati di intelligenza? Che sono alla ricerca di un orizzonte di senso e si pongono pertanto problemi etici?
La risposta a questi interrogativi diventa priva di senso, se ci mettiamo in un’ottica ispirata banalmente all’utilitarismo e al comportamentismo. Un’ottica che è sempre più strettamente legata all’organizzazione sociale, economica e politica delle società tecnologicamente avanzate.

Con il termine utilitarismo si intende un particolare orientamento dell’etica. Precisamente esso trova una formulazione compiuta ad opera di Jeremy Bentham, il quale definì l’utilità come ciò che produce vantaggio e che rende minimo il dolore e massimo il piacere. Egli fa dell’etica una scienza quantificabile, introducendo il concetto di algebra morale.(7)
Il comportamentismo è un approccio alla psicologia, sviluppato dallo psicologo John Watson agli inizi del Novecento. Tale dottrina risulta basata sull’assunto che il comportamento esplicito è l’unica unità di analisi scientificamente studiabile della psicologia, in quanto direttamente osservabile dallo studioso.(8)

Quando l’etica, la politica, la psicologia e ogni altro tipo di analisi della realtà umana muovono da premesse di tipo utilitarista e comportamentista, abbiamo un risultato sorprendente: diventa spontaneo considerare intelligente il comportamento di una macchina quando questo simula un comportamento umano intelligente.
Questa è sostanzialmente la proposta di Minsky, che però sposta il problema senza risolverlo.
In questa prospettiva, l’uomo rischia di venire identificato ad una macchina costituita sulla base del DNA, puro frutto del caso, termine intermedio dell’evoluzione. In tal caso l’imperativo categorico diverrebbe per l’uomo quello di prendere finalmente in mano le redini della propria evoluzione, con l’utilizzazione di varie possibilità:
• la manipolazione genetica alterativa;
• le tecniche di ibridazione uomo-macchina;
• l’allungamento artificiale della vita, generando una ipotetica immortalità (magari con il trasferimento della coscienza su supporto informatico);
• la possibilità di condizionamento cibernetico dell’individuo e della società, secondo un processo di potenziamento e incremento tendente all’infinito.

4. Alcune applicazioni dell’intelligenza artificiale

Vi sono applicazioni che si stanno tentando nel rapporto uomo-macchina:
i. tra la robotica, la ricerca biomedica e, forse, l’uso di sostanze chimiche, si potrebbe arrivare a quello che è in parte macchina e in parte uomo, un equilibrio preoccupante fra la tecnologia e le nostre fragilità.
Osserviamo che l’uso di esoscheletri, impianti interni, droghe, terapia genica, impianti robotizzati e protesi, sperimentati per migliorare le prestazioni e l’efficienza delle truppe, pone vari interrogativi:
a. il problema del consenso dell’individuo alla sperimentazione;
b. le conseguenze a lungo termine e la difficoltà di ritorno a condizioni di vita “normali”;
c. l’utilizzo, come è avvenuto spesso, di tecniche sofisticate che dal campo militare passano a quello industriale;
ii. i tentativi di connessione fra neuroni e circuiti elettronici;
iii. le possibilità di condizionamento dell’individuo permesse dallo sviluppo delle neuroscienze assimilate alla bio-informatica;
iv. la biologia sintetica, che rappresenta il passaggio dal corpo bionico al postumano;(9) si tratta della possibilità di ricombinare componenti biomolecolari in modo da produrre nuovi circuiti genetici e biochimici al fine di modellare forme esistenti di vita o crearne di nuove.
Non riteniamo di doverci iscrivere al club degli apocalittici o a quello degli integrati; alcune applicazioni potrebbero rivelarsi interessanti e proficue in campo medico, scientifico, tecnologico.
Siamo piuttosto increduli rispetto al’uomo nuovo sognato dai sostenitori del post-umanesimo; in quanto non ammette linee di confine nette fra organismi auto-poietici, siano essi animali, esseri umani o macchine. Meccanismo cibernetico e organismo biologico vengono confrontati sul piano funzionale piuttosto che su quello valoriale.
Questa idea nasce in analogia a quanto avviene in ambito strutturalista; la struttura – pur implicando l’idea di sistema, e quindi di coesione di parti – non si identifica con il sistema, ma con l’ordine interno del sistema e con il gruppo di trasformazioni (che devono avvenire in modo univoco e regolare) che la caratterizzano.
La struttura si identifica con il complesso delle regole di relazione e di combinazione che connettono i termini di un sistema manifesto e che permettono di comprendere le possibili trasformazioni.
Si veda ad esempio il programma di Erlangen formulato da Felix Klein per la geometria. Si tratta di prospettive interessanti, che hanno permesso di scoprire strutture ordinatrici in vaste aree della conoscenza (che prima erano mal comprese).
Se gli strutturalisti si fossero dedicati alla scoperta di leggi o strutture governanti fenomeni antropologici, economici, storici, psichici non avremmo potuto che esprimere un giudizio positivo sul loro lavoro.
Di fatto, però, hanno pensato di dover ingabbiare la storia, la società e l’uomo all’interno di strutture condizionanti; tali cioè da negare ogni valore di libertà, di creatività, di sviluppo o di continuità all’azione dell’uomo come singolo e come comunità.
Per lo strutturalismo, l’uomo non è il padrone della propria storia. Egli non agisce, è agito da forze strutturanti inconsce. L’uomo è solo una creazione surrettizia della metafisica ed è destinato a scomparire (M. Foucault).(10)
E Lévi Strauss afferma: “all’inizio del mondo l’uomo non c’era; non ci sarà neanche alla fine”. Oggi, afferma Foucault ne Le parole e le cose, “possiamo pensare soltanto nel vuoto lasciato dalla scomparsa dell’uomo”. Vuoto che i post-umanisti hanno visto come orizzonte di possibilità. Questo nel senso che nel corso dell’evoluzione l’uomo ha creato la tecnologia, ma è anche avvenuto che la tecnologia abbia creato l’uomo.

5. Lo strutturalismo di Jean Piaget

In ultima analisi, contro ogni forma di umanesimo, gli strutturalisti hanno affermato la priorità del sistema sull’uomo, e la prevalenza delle strutture sociali sulle volontà individuali.
Contro lo storicismo, che è sostanzialmente una considerazione longitudinale della realtà (cioè una interpretazione di essa in termini di divenire, sviluppo o progresso), gli strutturalisti affermarono una concezione trasversale; una concezione che considera la realtà stessa come un sistema relativamente costante od uniforme di relazioni.(11)
Benché Jean Piaget accetti i metodi messi a punto dallo strutturalismo, persegue diversi interessi. A lui si deve la fondazione dell’epistemologia genetica. Disciplina questa che si occupa della genesi della conoscenza e dei diversi stadi che vengono attraversati in questo processo: dall’infanzia fino all’età adulta.
La conoscenza è un processo di costruzione continua, ed in questo senso, l’epistemologia genetica ha avuto influenza sul costruttivismo.(12)
Piaget dimostrò innanzi tutto l’esistenza di una differenza qualitativa tra le modalità di pensiero del bambino e quelle dell’adulto; individuò poi delle differenze strutturali nel modo con il quale, nelle sue diverse età, l’individuo si accosta alla realtà esterna ed affronta i problemi di adattamento a tale realtà.(13)
Questa prospettiva psicologica intende collegare la validità della conoscenza al modello della sua costruzione. In altre parole, essa mostra che i metodi usati per ottenere e creare la conoscenza influenzano la validità della conoscenza risultante.
Egli ricorda che i concetti sono sviluppati a partire dall’azione.

«L’azione è l’origine delle operazioni, non perché le contenga anticipatamente, ma perché i suoi coordinamenti generali comportano certe strutture elementari sufficienti per servire da punto di partenza alle astrazioni riflettenti e alle costruzioni ulteriori».(14)

La chiave di volta dello strutturalismo sarebbe da ricercarsi nella conoscenza della struttura dell’organismo, a causa della sua doppia natura di oggetto fisico e di motore del comportamento. Benché si sia molto lontani dalle conclusioni di una tale ricerca, è possibile affermare che:

«i contatti con l’esperienza e le modificazioni più fortuite acquisite con l’ambiente, nelle quali l’empirismo cercava il modello della formazione delle conoscenze, non sono mai stabilizzate se non in virtù di assimilazioni a strutture non totalmente innate o immutabili, ma più stabili e più coerenti che i brancolamenti con cui comincia la conoscenza empirica».(15)

In questo senso il computer e le tecnologie informatiche costituiscono strumenti per pensare; essi sono a maggior ragione strumenti capaci di incrementare le capacità cognitive umane, anche senza operazioni fantascientifiche di ibridazione e di interfacciamento hardware fra uomo e macchina.
Tecniche, queste ultime, che rischiano di costituire uno strumento di assoggettamento dell’uomo ai poteri forti, dato che tali poteri sono in grado di avere il monopolio di tali tecniche in generale.
Le sirene ammaliatrici ci incantano con l’illusione di un mondo caratterizzato dall’assoluta sicurezza sociale, dall’estensione delle capacità del corpo e dall’eliminazione delle sue passività, dal prolungamento illimitato della vita e dal perfetto controllo sociale.
Esse però nascondono un pericolo insidioso: quello che il soggetto, che crede di venire liberato, diventi in modo definitivo un supporto dei rapporti economici, incapace di riconoscere questa sua condizione di schiavitù e di tentare di modificarla.

6. Intelligenza naturale e intelligenze artificiali

Nei prossimi paragrafi esamineremo, in dettaglio, le applicazioni attuali e quelle previste in futuro dell’intelligenza artificiale; le limitazioni logico-matematiche intrinsecamente legate alla struttura del computer; i nodi problematici che sono connessi allo sviluppo delle tecnologie informatiche.
Saranno anche esaminate alcune questioni relative alla teoria dei sistemi dinamici lontani dall’equilibrio ed ai limiti del controllo dei sistemi sociali.

La teoria generale dei sistemi nasce in ambito biologico, ad opera di Ludwig von Bertalanffy, ma si estende ben presto ad altri ambiti disciplinari (psicologia, teoria degli automi, sociologia, economia, cibernetica e altre).(16)
Due aspetti importanti della teoria dei sistemi riguardano:
i. il concetto matematico di funzione, come relazione di interdipendenza fra variabili diverse, sulla cui base analizzare i rapporti che si instaurano all’interno del sistema fra i diversi elementi costituenti;
ii. il carattere di circolarità delle interazioni reciproche fra i diversi elementi, che rendono il comportamento del sistema del tutto nuovo rispetto al comportamento dei singoli elementi.

Il termine “intelligenza artificiale” può essere molto suggestivo, ma anche estremamente ambiguo e tale da generare pericolosi fraintendimenti. In effetti, le realizzazioni dell’intelligenza artificiale note sono di tipo diverso; esse riguardano capacità diverse e non necessariamente sommabili.
Forse sarebbe opportuno parlare di diverse applicazioni dell’intelligenza artificiale; tuttavia il termine intelligenza artificiale (IA) è entrato ormai nel’uso corrente; pertanto lo useremo anche noi.
Come abbiamo ricordato, fu McCarthy nel 1956 a introdurre tale termine; esso presenta molti lati equivoci, in quanto è estremamente difficile definire con esattezza e precisione che cosa sia la stessa intelligenza naturale.
Noi siamo abituati ad usare il termine intelligenza e crediamo di conoscerne il significato; quando dobbiamo, però, precisare scientificamente le proprietà e le funzioni dell’intelligenza (ovvero definirla con esattezza e precisione), ci troviamo di fronte a notevoli difficoltà.
Accanto a questa difficoltà dobbiamo ricordare che l’intelligenza non sembra essere quantificabile; le varie misure di QI sono, infatti, valide su aspetti particolari. Per quanto riguarda la IA, come abbiamo visto, con la proposta di Minsky il problema viene spostato, ma non risolto. Quando, infatti, un comportamento può essere considerato “intelligente”?
Inoltre, parlare di comportamento significa limitarsi a ciò che appare all’esterno, trascurando un elemento fondamentale e complesso quale l’intenzionalità che caratterizza l’agire del1’uomo.
Dal punto di vista dell’ingegnere o del progettista di sistemi di controllo, il punto di vista comportamentista è giustificato e legittimo; non lo è da un punto di vista speculativo o nell’ambito della psicologia. Cioè nell’ambito di quelle discipline scientifiche che guardano al comportamento del cervello fuori dagli schemi riduttivi e dalle facili semplificazioni.
Gli studi sulla IA possono essere volti ad imitare e riprodurre meccanicamente determinate operazioni svolte dal cervello (calcoli aritmetici, dimostrazione di teoremi, soluzione di problemi, traduzione di linguaggi). Essi costituiscono un mezzo per migliorare le prestazioni dei computer o costruirne di nuovi, ma anche per migliorare la nostra conoscenza sul funzionamento del cervello.
Questo, però, non ci autorizza ad attribuire al calcolatore una intenzionalità o consapevolezza di sé, quando compie delle scelte intelligenti secondo un programma che I’operatore umano gli ha preventivamente fornito.
Esistono difficoltà intrinseche a definire l’intelligenza umana e l’intenzionalità; tale difficoltà non ci devono indurre a credere che qualsiasi macchina, il cui funzionamento dipende dalla possibilità di rappresentazione interna degli stati – permessa da un programma – abbia un comportamento intenzionale.

7. Il modello cibernetico del sistema nervoso centrale

Fatte queste premesse, possiamo comunque esaminare il modello cibernetico del sistema nervoso come rete di neuroni. Tali neuroni sarebbero capaci di trasmettere informazione fra di loro. Secondo Mc Culloch e Pitts, il cervello può essere rappresentato come un automa finito; la cui struttura fisiologica sia funzionalmente analoga a quella di un computer.
Fatte alcune ipotesi semplificative, è possibile scorgere diverse somiglianze fra il comportamento dei circuiti logici con cui è realizzato il calcolatore e quello delle cellule nervose. Esistono, però, anche differenze di tipo quantitativo e qualitativo fra circuiti logici e reti neuroniche.
Il numero dei neuroni è dell’ordine di decine di miliardi, e ciascuno di essi può essere in grado di comunicare con alcune decine di neuroni limitrofi. Considerando il grande numero di neuroni e le possibilità di collegamento, si arriva ad un numero elevatissimo di configurazioni possibili.
Se il cervello è un automa a stati finiti, il numero di configurazioni possibili è senz’altro superiore a quelle ipotizzabili per i circuiti di un calcolatore. È comunque interessante notare alcune particolarità dei funzionamento del neurone.
Ciascun neurone possiede un corpo ed un assone; le congiunzioni fra neuroni, o sinapsi, avvengono sempre fra l’assone di un neurone ed il corpo di un’altro. In qualunque istante un neurone ha una certa soglia che la stimolazione deve superare per dare avvio all’impulso.
Le configurazioni sinaptiche e l’esistenza di soglie neuroniche permettono operazioni equivalenti alle operazioni logiche fra circuiti del computer. Combinando opportunamente tali operazioni si può realizzare qualsiasi funzione logica complessa.
All’interno dei calcolatore non vi sono soltanto circuiti logici, ma vi è una serie di circuiti capaci di memorizzare I’informazione opportunamente codificata. Sorge allora, la necessità di individuare le zone del cervello atte alla memorizzazione delle informazioni ed il modo del loro funzionamento.
In questo caso l’analogia con il calcolatore non è così evidente; nel cervello umano occorre parlare di più “memorie”; esse svolgono funzioni diverse e sono in grado di operare in modo indipendente tra di loro.
Potremmo tentare una semplice classificazione:
– memoria “storica”, la cui localizzazione appare ancora problematica, ed il cui funzionamento non è facilmente riconducibile a processi di tipo chimico-fisico;
– memoria istantanea (realizzata mediante circuiti nervosi), il cui compito è quello di registrare momentaneamente l’informazione. Il cervello opera delle scelte e decide quali dati conservare più a lungo (trasferendoli in un’altra area di memoria) e quali cancellare o “dimenticare”. Tale scelta perché alcuni dati sono ritenuti inutili rispetto agli interessi e alle aspettative dell’individuo;
– memoria “tecnica”, il cui scopo è quello di memorizzare le istruzioni necessarie per operazioni che il soggetto deve compiere ripetutamente (per esempio, centro del linguaggio).
Quando uno di tali centri viene alterato (a causa, ad esempio, di un trauma), il soggetto non è più in grado di compiere in modo automatico od irriflesso le operazioni connesse al centro in questione. Deve ripetere tutto il processo di apprendimento di quel certo gruppo di operazioni e memorizzare in un’altra area le istruzioni necessarie;
– memoria “per forme”, in cui vengono memorizzate certe forme o strutture. Esse consentono, attraverso operazioni di confronto, il riconoscimento immediato di certe immagini visive (ad esempio, forme geometriche).
Le “memorie” citate in precedenza non sono sempre facilmente localizzabili e descrivibili in termini fisico-chimici. Questo indica quanto siano parziali le notizie sul funzionamento del cervello e quanto sia difficoltoso il suo studio, anche se appassionante e profondamente coinvolgente.
Inoltre, se vogliamo usare l’analogia con il calcolatore, resta da individuare il “programma” che consente al cervello umano di operare concretamente. Cioè di apprendere, regolare e modificare il comportamento dell’individuo, ricevere informazioni selezionate dagli organi di senso, formulare teorie astratte e svolgere un’infinità di altre operazioni.

8. I limiti e le difficoltà dell’intelligenza artificiale

L’analogia fra il cervello ed il calcolatore sembra, però, limitarsi alle operazioni della logica deduttiva; le funzioni a livello inferiore secondo la classificazione di Aristotele (cioè a livello vegetativo e sensoriale) non sembrano altrettanto facilmente riproducibili mediante un calcolatore.
Si tratta, ad esempio, delle capacità di vivere, vedere, riprodursi, amare, sentire dolore, provare emozioni. I contenuti psichici non si riducono, infatti, a misure di intensità o di frequenza (l’occhio umano vede il “rosso”, e non la frequenza dei raggi luminosi che attraverso l’occhio giungono al cervello).
Occorre fare una distinzione a proposito delle capacità del calcolatore di imitare il funzionamento del cervello, per quanto riguarda le operazioni della logica. Esattamente occorre distinguere fra operazioni di deduzione, di astrazione, di induzione.
Gli studiosi più ottimisti ritengono sostanzialmente risolto il problema dell’imitazione dell’attività deduttiva mediante automi; nessuno osa dire che si siano ottenuti finora risultati soddisfacenti nell’imitazione dei processi induttivi e di quelli astrattivi.(17)
Non vogliamo ora, insistere sulle difficoltà intrinseche dei suddetti processi, che ne renderebbero ardua l’imitazione mediante calcolatore. Vogliamo, invece, soffermarci sul fatto che il fallimento delle ambizioni più sfrenate sull’intelligenza artificiale sembra sia legata alla circostanza che il calcolatore non ha un corpo.
L’uomo differisce dalie macchine nell’avere consapevolezza in relazione allo schema corporeo, cioè nell’esser capace€ di riconoscere case ed alberi come esterni allo schema-corporeo e dolori, mali, stimoli come interni.(18)
Le€ implicazioni del corpo sono enormi: da un lato, la conoscenza che del mondo ha l’uomo si costruisce da sempre mediante organi di senso raffinatissimi (e non seriali come quelli degli automi); da un altro questi organi di senso rampollano su un impianto genetico ereditario che si prolunga all’indietro nei millenni.
Nelle macchine questi due aspetti della conoscenza, ereditario e sensibile, mancano quasi completamente.(19)
Possiamo, dunque, affermare che appare assai improbabile ridurre le descrizioni che del mondo ci danno i sensi (descrizioni che avvengono mediante linguaggi non formali) al livello di informazioni codificabili nel linguaggio del calcolatore, cioè in un linguaggio formalizzato.

9. Il cervello risulta schematizzato come una scatola nera?

Resta ancora il problema di verificare la possibilità di schematizzare il comportamento del cervello come una scatola nera. Una macchina cioè di cui non conosciamo la struttura interna, ma ne conosciamo tutte le regole logiche di funzionamento.
La riduzione dell’attività mentale al funzionamento di una macchina materiale, in effetti può essere intesa in due modi differenti. Il primo prevede una scatola chiusa della quale si possono registrare gli ingressi (inputs) e le uscite (outputs); il secondo prevede una scatola apribile, della quale è lecito indagare l’interna struttura. Tale è l’obiettivo dichiarato di scientisti e materialisti.(20)
Entrambe queste ipotesi, ovvero quella “comportamentistica” e quella “materialistica” (corrispondenti rispettivamente all’immagine della scatola chiusa e a quella della scatola apribile), conducono a notevoli difficoltà.
Il tentativo di scrutare in vivo il sistema nervoso centrale, ad esempio tramite un congegno ottico-elettronico (capace di proiettare su uno schermo le immagini del cervello in funzione) lascia adito ad un dubbio: che il sistema costituito dall’apparato nervoso centrale più la connessione con il congegno ottico-elettronico sia inconfrontabile con il sistema nervoso centrale privo della connessione.(21)
Dall’altra parte, l’idea di analizzare tutte le possibili connessioni fra gli ingressi e le uscite del sistema nervoso centrale, inteso come una scatola chiusa, urta contro gravi difficoltà. Il termine “tutte” e il termine “possibili” rimandano infatti rispettivamente ad una interpretazione “estensionale” e ad una interpretazione “intensionale” della conoscenza completa della macchina.
Ma, come nota A. Verdino,(22) il comportamentista non può scegliere nessuna delle due alternative.
Non la prima, l’interpretazione estensionalistica, perché lascerebbe indeterminato il comportamento della macchina e non permetterebbe mai di dire con certezza se un determinato numero di correlazioni, già stabilite, costituisca o meno una conoscenza completa della macchina.
Resta infatti il dubbio se esse siano, appunto, tutte le correlazioni; non esistendo in questa interpretazione un criterio per stabilire, una volta per sempre, se una certa correlazione, arbitrariamente scelta, sia una correlazione possibile o impossibile per quella macchina.
Non la seconda, I’interpretazione intensionalistica, perché essa contraddirebbe all’essenza stessa del comportamentismo come tradizionalmente definito.
Inoltre, il cervello non può essere pensato come un sistema deterministico (cioè tale che le relazioni fra ingressi e uscite abbiano carattere biunivoco). Si potrebbe allora pensare di imitare il comportamento del cervello mediante un automa probabilistico; ma anche questo tentativo non sembra destinato ad avere fortuna.
Il cervello umano, benché abbia un comportamento non riconducibile ai rigidi canoni del determinismo, mostra di essere un sistema coerente (che cosa sarebbe altrimenti la razionalità se non esistesse il cervello?). Una macchina probabilistica, governata dalle leggi dei grandi numeri, non potrebbe possedere tale fondamentale coerenza.
Il caso non è, infatti, compatibile con alcuna legge interna e non può dare luogo a schemi coerenti. Si potrebbe pensare al caos deterministico, cioè al comportamento dei sistemi dinamici in condizioni di lontananza dall’equilibrio. Su tale questione ritorneremo in seguito.

10. Cibernetica e nuova unità del sapere

Come abbiamo visto, la cibernetica abbraccia oggi molte discipline scientifiche, quali la teoria dei servomeccanismi, il calcolatore elettronico, la teoria dell’informazione, la biofisica, la psicologia sperimentale, la linguistica e molte altre. Risulta dunque impossibile, per il singolo ricercatore,

«dominare tutto il settore definito come l’intersezione fra gli studi medico-biologici e quelli fisico-matematici, avente per oggetto specifico il confronto fra i processi di comunicazione e di regolazione degli animali e quelli delle macchine.
Pertanto il problema di fondo della cibernetica appare oggi quello della costituzione di un nuovo linguaggio formale […] che permetta di trattare in termini quantitativi univoci i fenomeni di generazione, trasmissione nello spazio e nel tempo, elaborazione e utilizzazione dell’informazione, che avvengono nei meccanismi naturali e artificiali addetti all’autoregolazione e autorganizzazione di macchine e di organismi viventi».(23)

A tale proposito Roos Ashby afferma:

«Fino a poco tempo fa, 1e discussioni su ciò che è un meccanismo venivano condotte quasi sempre riferendosi a qualche particolare modalità di realizzazione del meccanismo stesso, cioè a qualche suo specifico tipo di realizzazione: meccanica, neuronica, elettronica, e così via.
Esiste oggi una ben sviluppata “logica del puro meccanismo”, rigorosa come la geometria e destinata probabilmente nello studio dei sistemi biologici complessi, a svolgere lo stesso ruolo fondamentale che ha la geometria nei confronti dell’astronomia».(24)

Se si analizza, però, fino a quale punto gli studiosi di cibernetica ed Ashby in particolare siano riusciti in questa impresa, si deve constatare che non sempre i risultati ottenuti confermano le aspettative. R. Vacca afferma, ad esempio, che:

«Ross Ashby ha fornito contributi interessanti ma controversi; sono in disaccordo netto con Ross Ashby quando afferma che la cibernetica tratta problemi matematici di dimensioni estremamente rilevanti e che è già in grado di analizzare il comportamento del cervello umano in funzione.
La cibernetica intende trattare questo difficile problema: sicuramente, però, non ha oggi a disposizione gli strumenti per farlo con alcuna speranza di successo significativo».(25)

Il fatto è, come ricorda M. Nasti,

«che il lavoro di Ashby rappresenta ancora oggi l’istanza di una cibernetica come disciplina unitaria, capace cioè di impostare (se non di trattare esaurientemente) in modo unitario e interdisciplinare tutta una serie di problemi».(26)

Un tale approccio alla cibernetica risulta indubbiamente interessante e da esso emergono due elementi essenziali: il nuovo concetto di macchina e la nuova unità del sapere.

«I1 problema per il bio-matematico va dalla identificazione della 1ogica fondamentale necessaria per la rappresentazione del concetto di meccanismo, fino all’impiego eventuale di tecniche particolari. I1 nostro punto di partenza è l’idea vecchia di o1tre un secolo che una “macchina” è qualcosa che, tutte le volte che si trova in certe determinate condizioni, e in un determinato stato interno, passa sempre ad un certo altro particolare stato (cioè non passa a stati differenti in occasioni differenti)».(27)

In tale impostazione comportamentistica sta, a nostro avviso, un notevole interesse, ma anche una limitazione fondamentale, ulteriore rispetto a quella precedentemente esposta.
L’interesse è dovuto al fatto che il concetto di macchina, definita per mezzo del suo “comportamento” o modo di operare, si svincola radicalmente dalla tradizionale dicotomia res cogitans-res extensa, che veniva a creare una irriducibile contrapposizione fra il mondo “materiale”, fisico, delle macchine e quello “immateriale” e “libero” della mente.
Lo spirito cessa dunque di essere una sorta di deus ex machina, separabile dal corpo e capace di animarlo dal suo interno.
Le difficoltà nascono quando si pensa alle limitazioni che i vari congegni elettronici presentano a tutt’oggi; limitazioni che taluni ritengono dovute non tanto all’imperfezione tecnica, quanto piuttosto agli stessi formalismi matematici che stanno alla base del funzionamento degli apparati elettronici.

11. Le limitazioni del formalismo matematico

Intendiamo riferirci particolarmente al teorema di Gödel, che presenta due aspetti interessanti.
Il teorema di Gödel afferma che in ogni sistema formale è possibile formulare enunciati che non possono essere dimostrati né veri né falsi all’interno del sistema stesso. Alcuni ritengono che il teorema in questione limiti definitivamente il potere matematico dei calcolatori.
Essi operano infatti secondo un insieme prestabilito di direttive fisicamente incorporate nella loro memoria. Queste direttive possono considerarsi come corrispondenti alle regole di inferenza fissate per un sistema formale. Quindi, per quanto perfezionati possano essere i calcolatori, esiste un numero infinito di problemi che essi non sono in grado di risolvere.
Si potrebbe affermare che non sia possibile per questi di eguagliare il cervello umano per quanto riguarda l’intelligenza matematica.
La mente umana, benché soggetta a limitazioni, avrebbe per contro una struttura interna assai più complicata e sottile di qualsiasi macchina non vivente.
Per contro, si può tuttavia supporre che problemi, che una macchina non è in grado di risolvere, possano essere risolti da un’altra macchina; in questo caso la vittoria dell’uomo sulla singola macchina non è più un argomento sufficiente, in quanto sarebbe una vittoria parziale e per nulla probante.
A tale proposito ci sembra appropriata l’osservazione di Latini, quando afferma che:

«il problema deve essere espresso nei termini di determinare in che misura sia possibile costruire algoritmi che raffigurano comportamenti intelligenti, ovvero ridurre l’intelligenza a schemi algoritmici.
La domanda se “può una macchina pensare”, può essere riproposta formulando la domanda opposta equivalente, se “può un uomo essere pensato come una macchina”.
Vale a dire, che ci chiediamo se, e in che misura, il comportamento intellettuale umano può essere ricondotto ad uno schema formale, riproducibile artificialmente da una macchina».(28)

A questo interrogativo si possono dare varie risposte. Vogliamo intanto ricordare come le concezioni formaliste della matematica siano insufficienti a rendere conto dell’attività matematica nel suo complesso, a causa di un’altra conseguenza fondamentale del teorema di Gödel.
La seconda conclusione di tale teorema afferma infatti che: la coerenza di un sistema formale non può essere dimostrata nell’ambito del sistema stesso. Questo non significa che non si possa dimostrare la non-contraddittorietà di un sistema formale, ma che tale dimostrazione deve avvenire con mezzi esterni al sistema.
Nessuna teoria ha in sé la dimostrazione della propria coerenza, e resta necessariamente aperta verso le metateorie.
Inoltre, se “macchina” significa, entro una prospettiva cibernetica, funzione ricorsiva, è anche possibile ridurre la “macchina” ad un certo “costrutto mentale”.
Ammesso naturalmente di adottare determinate filosofie costruttiviste della matematica; quelle per cui gli oggetti matematici ammissibili sono il risultato di nostre costruzioni mentali e non invece, platonicamente, enti “esterni” a noi, che vengono “scoperti” e non “costruiti” dal matematico.

«Occorre però ricordare come tutta la “matematica intuizionista” finora effettivamente “costruita” (o meglio, tutto ciò che è stato detto finora, dal punto di vista intuizionista, sulle costruzioni mentali della matematica) è in un certo senso paradossale.
Questo perché, tenuto conto di certi risultati tecnici della logica matematica, è possibile dedurre, proprio partendo dagli assiomi intuizionisti, che non tutti i procedimenti matematici sono il risultato di una costruzione mentale».(29)

Incidentalmente vorremmo notare come la vecchia contrapposizione fra realismo e nominalismo si ritrovi in matematica come contrapposizione fra le concezioni platoniste, formaliste e intuizioniste.
Le aporie della concezione platonista non possono essere eliminate assumendo che la matematica sia una teoria formale o un costrutto mentale; in altri termini, I’attività matematica non sembra ridursi a quella parte di essa che è effettivamente implementabile sul calcolatore.

12. : Applicazioni dell’intelligenza artificiale

I1 mondo del lavoro, quello della ricerca e quello della scuola, vedranno in futuro uno sviluppo sempre più pronunciato della robotica, dei sistemi esperti, della regolazione automatica, dell’automazione, della gestione e della progettazione assistita dal calcolatore, della istruzione assistita dal calcolatore.
Abbiamo visto alcune delle limitazioni dell’intelligenza artificiale; vediamo ora quali problemi essa è in grado di risolvere, quali criteri usa, quali applicazioni può avere. Cerchiamo di capire che cosa essa è in grado di fare.
Abbiamo già accennato che una delle applicazioni dell’intelligenza artificiale è nel campo della dimostrazione di teoremi, sia pure con tutte le riserve già espresse al riguardo, circa le limitazioni dei formalismi matematici e le difficoltà di una logica induttiva.
Un’altra possibile applicazione riguarda la soluzione di problemi di ottimizzazione. Questi possono essere sia di natura sia applicativa che matematica, completamente diversi. Il loro ambito di applicazione spazia ormai dalla ricerca scientifica e tecnologica alle applicazioni in campo economico e sociale.
Per questo tipo di problemi, il calcolatore non fa altro che applicare i metodi matematici della ricerca operativa, della statistica, della teoria matematica dei giochi.(30)
Metodi che, per problemi piuttosto complessi, richiedono una tale quantità di calcoli da eseguire che solo il calcolatore (grazie alla sua eccezionale brillantezza in fatto di quantità e di velocità di dati trattati) può effettivamente eseguire.
Si tratta in particolare di problemi di ottimizzazione; cioè, di problemi in cui si deve trovare la “migliore” configurazione di un sistema o il “migliore” valore di un insieme di parametri per raggiungere un determinato obiettivo.
L’obiettivo può riguardare la pianificazione economica o industriale, la valutazione dei rischi connessi a decisioni prese in condizioni di incertezza, la simulazione di situazioni complesse.
Dal punto di vista degli strumenti formali disponibili per trattare tali problemi, vi sono due aspetti fondamentali: la modellistica del problema e le tecniche o algoritmi per la determinazione della soluzione “migliore”.
La modellistica del problema implica l’identificazione dei parametri di controllo attraverso cui si può influire sulla soluzione (variabili di decisione), I’identificazione dei dati del problema, la costruzione di un modello quantitativo dei vincoli che la soluzione deve rispettare.
Gli algoritmi per la determinazione della soluzione “migliore”, o soluzione “ottima”, dipenderanno naturalmente dalla struttura matematica del modello complessivo.
Negli ultimi 40 anni sono stati proposti innumerevoli algoritmi per problemi di ottimizzazione, sia di tipo generale (validi, cioè, per ampie classi di quesiti di ottimizzazione), sia costruiti specificamente per particolari situazioni.
Osserviamo che non sempre il calcolatore è in grado di eseguire in tempi ragionevoli tutti i calcoli relativi ad un certo algoritmo (31) di ottimizzazione; questo può avvenire quando aumenta il numero delle istanze che devono essere soddisfatte dalla procedura di ottimizzazione o di parametri di cui tener conto nel modello del sistema.
In questi casi si fa ricorso a metodi euristici, che non pretendono sempre di trovare la soluzione ottima, ma che in pratica hanno dimostrato di saper trovare soluzioni “buone”; soluzioni vicine a quella ottima per valore della funzione obiettivo.
È interessante notare che sono stati messi a punto algoritmi che forniscono con un grado di approssimazione prefissato la soluzione desiderata; non potendo trovare esattamente la soluzione ottima ci si accontenta in questo caso di approssimarla nel miglior modo possibile Questi ultimi sono detti “algoritmi approssimati”.(32)
Si tratta in definitiva di applicare metodi matematici per problemi o per aspetti della realtà che hanno carattere matematico; oppure situazioni che, fatte determinate scelte semplificatrici, possono essere ricondotte a modelli matematici.
Resta comunque il problema delle ipotesi semplificatrici. Si tratta di un problema che si presenta in tutte le discipline scientifiche. Sia nel campo delle scienze naturali che in quello delle scienze umane.
La Fisica ha fatto spesso ricorso a modelli lineari; ma lo studio dei sistemi complessi lontano dall’equilibrio ha mostrato l’insufficienza di tale modellizzazione lineare. Come abbiamo già premesso, riprenderemo questi problemi, in seguito.
Analogamente ritorneremo sulle applicazioni dell’intelligenza artificiale e sulle problematiche di carattere filosofico, etico, sociale ad essa connesse.

13. Qualche riflessione conclusiva

La scienza viene utilizzata secondo modalità che sono solo parzialmente scientifiche e secondo giudizi di valore che sono extra scientifici.
Indipendenza di giudizio significa capacità di rifiutare le ideologie correnti, prima fra tutte il tecnicismo ed ogni altra forma di ragione strumentale.
Una concezione puramente strumentale della ragione opera, infatti, una netta distinzione tra fatti e valori; ed in nome dell’oggettività non prende in considerazione tutto ciò che possa trascendere ciò che esiste.
In altre parole, devolve la discussione sui valori alla mitologia e alla irrazionalità, impedendo una chiara presa di posizione ai riguardo delle scelte scientifiche e delle ragioni che stanno dietro a queste scelte.
Come ricorda West Churchmann, in una concezione puramente strumentale la ragione diviene:

«l’oggetto della logica e la logica strumento per inventare nuovi linguaggi e, dal momento che il linguaggio è una convenzione, la ragione diventa semplicemente il modo migliore per discutere e riferire». Si ha, quindi, come conseguenza che «la ragione svolge il lavoro necessario, ma servile, della scienza, ed abbiamo tutti una gran smania di affidare le sue mansioni ai computer in modo da non pensarci più».(33)

Si capisce cosi dove stia I’origine dell’attuale infatuazione per il computer e della acritica accettazione di ogni suo risultato. In realtà l’uso di strumenti potentissimi non ci deve dispensare dal pensare, ma ci pone dei problemi e delle responsabilità proporzionati alla potenza dello strumento ed assai superiori a quelli che avevamo prima d’ora.
L’esortazione conosci te stesso (Γνῶθι σεαυτόν) è il motto iscritto sul tempio dell’Oracolo di Delfi; esso sembra riassumere l’insegnamento di Socrate, in quanto esortazione a trovare la verità attraverso una conoscenza interiore, rifuggendo dalle facili illusioni e dagli inganni delle apparenze.(34)
Poiché non vogliamo concludere in modo troppo serioso, ricordiamo che un’altra applicazione assai curiosa del calcolatore si ha nel campo dei giochi (per esempio il gioco degli scacchi).
Tutto ciò non deve meravigliare; vi è infatti, una forte somiglianza fra la soluzione di problemi e il gioco di strategia; nel senso che la soluzione di un problema può essere rappresentata come un percorso – attraverso diversi insiemi di stati – tra le condizioni iniziali e la soluzione finale.
Alquanto diversa è invece la situazione nel caso dei cosiddetti sistemi esperti. I sistemi esperti sono programmi capaci di fornire consulenza su una determinata materia; in alcuni casi con livelli paragonabili a quelli di un esperto umano.
Tali sistemi operano mediante una base delle conoscenze e mediante un motore inferenziale.
La base delle conoscenze è una struttura di informazioni e risposte standard; essa viene creata in determinati linguaggi di programmazione ed incorpora tutti i dati e le conoscenze disponibili su una determinata materia.
Il motore inferenziale che, sulla base degli inputs (domande poste dall’utente), attraverso un meccanismo di deduzione (rappresentato da un opportuno algoritmo), è in grado di fornire le adeguate risposte.
Ovviamente il computer è molto bravo a fornire risposte a domande molto precise; oppure ad operare delle scelte su base statistica, quando si tratti di operare in condizioni di incertezza.
La diagnosi di una malattia e la ricerca petrolifera sono esempi classici di questa situazione. I sistemi esperti si sono rivelati abbastanza attendibili in questi casi.
Dove invece il computer trova difficoltà è paradossalmente nel campo delle conoscenze che fanno riferimento al “buon senso”; si tratta di una base di conoscenza che sta, implicitamente, alla base di tutte le conoscenze specifiche.
Queste ultime possono essere facilmente codificate e memorizzate; anche nel senso di poter costruire motori inferenziali che dalla conoscenza degli effetti sanno risalire alle possibili cause.
Non provate però a formulare al computer una domanda del tipo: la bistecca che mi hanno servita ieri sera al ristorante era immangiabile: si trattava forse di una bistecca di dinosauro?

14. Analisi di nuovi problemi

Negli interventi precedenti, abbiamo visto come affrontare un’analisi sistematica del concetto di Intelligenza artificiale. Per un’analisi ulteriore occorre partire da un gruppo di autori, quesiti, concetti di seguito elencati:
◊ Minsky: quando un comportamento si può definire intelligente?
◊ quale differenza fra conoscenza e informazione?
◊ la struttura dell’elaboratore secondo von Neumann;
◊ relazione esistente fra architetture parallele e reti neurali;
◊ intelligenza artificiale in senso debole e intelligenza artificiale in senso forte;
◊ gli algoritmi e le leggi naturali della fisica sono in grado di spiegare l’origine dell’informazione o soltanto il flusso e la trasmissione dell’informazione?
◊ le cause naturali ed il caso non possono accrescere l’informazione (legge di aumento dell’entropia);
◊ caratteri dei diversi tipi di processi mentali: percezione, apprendimento, soluzione di problemi, ragionamento logico, memoria, attenzione, emozioni (che non sono separabili dai processi di ragionamento, di attenzione e di memoria), il linguaggio, l’intenzionalità;
◊ che cos’è la coscienza?
◊ che cos’è uno stato mentale?
◊ che rapporto esiste fra uno stato mentale e uno stato cerebrale?
◊ come può il cervello dare luogo a stati mentali?
◊ naturalismo filosofico in senso radicale e in senso moderato;
◊ qual è il ruolo dell’etica nella visione del naturalismo filosofico radicale?
◊ i filosofi contemporanei hanno abbandonato il dualismo ontologico (res cogitans-res extensa) in favore di un meno impegnativo dualismo delle proprietà o delle funzioni; mente e cervello non vengono viste come due sostanze separate, ma compenetrate e coniugate funzionalmente;
Vi è però una domanda che può essere preliminare: che cosa rappresenta il logos per il pensiero greco? Esistono di fatto diverse letture interpretative:
* la parola attraverso la quale viene espresso il pensiero interiore (linguaggio);
* il pensiero interiore o la ragione stessa (ragione);
* un processo di riflessione, di deliberazione o di scelta;
* un processo o operazione di calcolo o di computo (matematica);
* una forma di relazione, considerazione, stima (indagine);
* analisi delle condizioni di relazione, proporzione, analogia (armonia, equilibrio);
* un ragionevole motivo, una condizione; che sono legate:
a. alla determinazione di una prova, una dimostrazione;
b. alla ricerca della verità o alla verifica della adeguatezza, soddisfacibilità;
Abbiamo quindi la domanda ulteriore:
◊ Quali caratteristiche del logos ritroviamo nelle applicazioni dell’intelligenza artificiale?
L’analisi deve partire dalla considerazione di quelle che sono alcune importanti applicazioni dell’intelligenza artificiale:
– dimostrazione di teoremi;
– sistemi esperti
– OCR; sistemi di riconoscimento ottico dei caratteri (optical character recognition). Si tratta di programmi dedicati alla conversione di un’immagine contenente testo. Il testo deve essere convertito nella sua forma digitale; in forma cioè utilizzabile da un normale editor.
L’OCR è un campo di ricerca di diversi settori dell’intelligenza artificiale; fra essi quelli della visione artificiale e del pattern recognition, legati al riconoscimento delle immagini;
– robotica;
– sistemi che apprendono;
– sistemi di riconoscimento delle immagini;
– sistemi di riconoscimento vocale;

15. Informazione e conoscenza

Vediamo di passare in rassegna alcuni degli argomenti indicati. Tenuto conto delle premesse fatte (e delle riflessioni svolte in precedenti interventi), riteniamo che l’analisi del problema possa partire dalla considerazione dei limiti e delle differenze dei sistemi artificiali rispetto all’intelligenza umana.
Occorre operare una distinzione fra informazione e conoscenza.
L’informazione comincia a divenire conoscenza quando si stabiliscono relazioni e collegamenti fra diverse informazioni. Queste sono strutturate fra di loro; è possibile stabilire chiavi di ricerca sulla base delle diverse utilizzazioni (o delle diverse situazioni) per le quali certe particolari informazioni risultano importanti.
Ci sono infatti elementi innegabili di correlazione e di interpretazione nell’attività connessa alla gestione automatizzata dell’informazione. La filosofia della scienza riconosce oggi che non esiste fatto osservativo che sia indipendente da una teoria.
I fatti osservativi debbono confermare o smentire un qualche schema concettuale; secondo Popper, le teorie scientifiche non sono verificate ma falsificate dall’esperimento cruciale.
Uno schema concettuale (o paradigma, nella concezione di Kuhn) ha una duplice utilità: una di tipo logico ed una di tipo psicologico. Fornisce agli eventi una logica, cioè un ordine, una giustificazione e una possibilità di previsione. Alimentando così la speranza di poter pervenire ad un loro ragionevole controllo.
Fornisce soprattutto un quadro logico e concettuale; questo non deve essere interpretato come una spiegazione connessa all’essenza ultima della realtà naturale, alla sua intima struttura metafisica.
Non possiamo adesso esaminare tutte le diverse interpretazioni sostenute dai filosofi della scienza. A seconda del loro orientamento (realista, materialista, positivista, convenzionalista, idealista …), hanno sostenuto immagini talora molto diverse della scienza, del suo modo di procedere e del suo valore o portata conoscitiva.
La scienza procederebbe – nei diversi casi – grazie a:
– accumulo di conoscenze;
– approssimazioni successive;
– tentativi ed errori (con un procedimento adattativo simile a quello evolutivo);
– continua ridefinizione dei propri schemi (grazie alle “rivoluzioni scientifiche”);
– formulazione di reti concettuali, variamente connesse ai dati osservativi;
– definizione di paradigmi o schemi interpretativi diversi, ma complementari fra di loro;
– passaggio da un paradigma ad un altro, che risulta totalmente “incommensurabile” con il precedente. I due paradigmi sono cioè alternativi e irriducibili tra loro;
– falsificazione di una teoria (e sostituzione con una più coerente con le verifiche sperimentali).

16. Computer e induzione scientifica

Abbiamo sommariamente elencato alcuni dei possibili modi di interpretare il processo di sviluppo della scienza. Il suo valore conoscitivo, parimenti, può essere variamente interpretato. Ad esempio, la scienza può essere vista come un tentativo di:
– rispecchiare la realtà materiale;
– fornire una conoscenza certa, perché sperimentalmente verificata;
– costituire un possibile schema interpretativo;
– consentire la costruzione di una rete concettuale (la cui validità è assicurata dalla perfetta e rigorosa strutturazione e organizzazione logica);
– costituire una estensione e perfezionamento della conoscenza empirica;
– costituire un progressivo sforzo di approfondimento e comprensione dei fenomeni. In altre parole, rendere possibile uno schema che permetta nuove considerazioni e nuove osservazioni.
Queste ed altre sono le immagini della scienza che la moderna indagine storico-critica ha messo in evidenza. La scienza – anche se non vi è un’interpretazione unica ed esaustiva della sua portata conoscitiva e del suo sviluppo – non si riduce ad una serie di conoscenze oggettive e neutrali.35 Conoscenze cioè che si accumulano secondo uno schema logico e normativo univoco e incontrovertibile.
Il processo di crescita della conoscenza non è determinato una volta per tutte, secondo una programmazione che potremmo definire anticipatamente. La novità irriducibile, la critica immaginativa, l’intuizione, il coraggio di tentare nuove strategie conoscitive sono il motore che spinge avanti la conoscenza.
Tradizionalmente, la competenza algoritmica era intesa come capacità di esprimere i passi necessari per risolvere un problema con l’utilizzo del computer. Questo nei termini delle operazioni effettivamente eseguite dal processore.
Oggi essa appare sempre più superata, ed occorre guardare al problem solving in un’ottica diversa. Precisamente nell’ottica delle operazioni che possono essere eseguite dai linguaggi funzionali; linguaggi che sono molto più vicini a quello dell’analisi matematica o della logica formale.36
La logica formale – nel campo della definizione di una teoria scientifica – interviene nel contesto della giustificazione. Il contesto della scoperta – benché non espressamente preso in considerazione dai filosofi neopositivisti – risulta preliminare e irrinunciabile.
In questo senso ci sembra insostituibile il ruolo del ricercatore. I linguaggi logici e i linguaggi funzionali potranno svolgere compiti molto interessanti, fornendo un valido aiuto al ricercatore. Non lo potranno però sostituire al momento della genesi della teoria scientifica.

17. Il carattere umanistico della conoscenza scientifica

Inoltre, anche qualora fossimo in grado di automatizzare il recupero della particolare conoscenza, saremmo difficilmente in grado di dare un senso profondo a questa ricerca. Un senso cioè che vada al di là di pure finalità strumentali e utilitaristiche; capace di mettere in rilievo l’esistenza di valori etici, come di autentiche valenze esistenziali.
Il pensiero, la conoscenza, non si riducono alla pura dimensione logica. Pensare non è un puro esercizio di logicità (e tantomeno di logica formale); dimensioni quali l’interiorità, la spiritualità, il sentimento, la paura, la speranza non possono essere comprese all’interno di schemi di logica astratti e impersonali.
L’intelligenza artificiale intesa in senso forte, come riduzione della complessa attività del pensiero umano a quella di una macchina, appare dunque come il sogno di una razionalità astratta, fredda, insensibile alle emozioni, paure, attese, speranze tipiche dell’uomo e del suo porsi di fronte al mondo.
In effetti, come ricorda A. Negri, resta ancora valida l’affermazione di Kant

«secondo il quale non si dà e non può darsi conoscenza puramente intellettuale, essendo indispensabile, per un effettivo guadagno conoscitivo, il contributo della sensibilità (Sinnlichkeit: un termine nella cui latitudine semantica cade anche il sesso)».(37)

Questo implica che la comunicazione o l’informazione gestite dal computer sono altra cosa rispetto alla comunicazione o alla trasmissione di conoscenze fra esseri umani.
L’idea di schematizzare il cervello umano come un automa sembra dunque intrinsecamente contraddittoria. Oppure adeguata per classi di problemi molto particolari, ma inadeguata in generale.
Come ricorda Weizenbaum, non tutte le conoscenze umane sono codificabili in «strutture informatiche» per quanto complesse. Ci sono delle cose che gli uomini vengono a sapere solo in virtù del fatto di essere stati trattati come esseri umani da altri esseri umani.
Nel suo uso concreto, il linguaggio umano è infinitamente più problematico di quei suoi aspetti che possono venir trattati dalla teoria dell’informazione. Il linguaggio coinvolge le storie di coloro che lo usano, quindi la storia della società, anzi di tutta l’umanità in generale.
Il linguaggio, nell’uso umano, non è solo funzionale alla maniera dei linguaggi per computer. Esso non identifica cose e parole soltanto con obiettivi da trasformare. L’uso del linguaggio umano rivela la memoria umana.
Tale memoria è un oggetto ben diverso dal serbatoio di informazioni del computer, che è stato antropomorfizzato chiamandolo «memoria». La nostra memoria dà origine a speranze e paure, per esempio. È difficile capire che cosa potrebbe significare dire che un computer «spera».
Queste considerazioni toccano non soltanto certe limitazioni tecniche del computer, ma anche il problema di cosa significhi essere una persona e che cosa significhi essere un computer.(38)

18. Il ruolo della dialettica

Ritorniamo brevemente al problema della genesi e della portata conoscitiva delle teorie scientifiche.
Ci possiamo domandare se siano pensabili altre forme completamente diverse di scienza e di matematica. Forme capaci di trattare aspetti della realtà che la nostra scienza e i nostri abituali schemi mentali non sono in grado di analizzare compiutamente.
Tale questione è posta dallo stesso von Bertalanffy,(39) con riferimento ad esseri razionali aventi una struttura diversa dalla nostra; tale domanda ci sembra implicare diversi problemi:
– i problemi del rapporto fra pensiero e linguaggio;
– della traduzione fra «linguaggi» che utilizzano astrazioni e formalismi diversi;
– della accessibilità logica dei «mondi possibili».
Occorre infatti ricordare che il nostro principale interessamento è rivolto a qualità misurabili, a unità isolabili e così via. Questo dipende probabilmente dalla grammatica delle lingue indoeuropee. Il linguaggio condiziona il pensiero.
In modo analogo, il nostro modo di pensare è particolarmente inadatto a trattare problemi di totalità e di forma. Ed è per questo motivo che costa tanta fatica includere i tratti olistici del reale in quanto contrapposti a quelli elementaristici, anche se i primi non sono meno «reali» dei secondi.
Il modo di pensare della fisica occidentale ci lascia in imbarazzo se dobbiamo affrontare dei problemi di forma. Questo aspetto, fondamentale in questioni di carattere biologico, non costituisce altro che un tremendo impaccio per la fisica.(40)
La nostra rappresentazione dell’universo rispecchia sempre e soltanto certi aspetti o prospettive della realtà. Secondo von Bertallanffy, questo deve essere collegato a una caratteristica peculiare del nostro pensiero; cioè al fatto che esso opera essenzialmente in termini di opposti.
A questo punto occorre esaminare il ruolo che compete alla dialettica; naturalmente nel quadro di una teoria della conoscenza quale è stata precedentemente delineata.
Non intendiamo sostenere l’idealismo assoluto di Hegel, o vedere ovunque nella realtà triadi di tesi, antitesi e sintesi. Riteniamo piuttosto che il modo di procedere della dialettica sia in relazione all’unità complessa del reale.
La realtà, quella naturale e quella storico-sociale, non può essere compresa a partire da un qualsiasi schema concettuale assolutizzato ed elevato alla dignità del tutto, oppure imponendo una riduzione del molteplice dei fenomeni entro un unico schema normativo.
Da quanto abbiamo detto emerge un problema di fondamentale importanza, cioè quello del rapporto fra pensiero e linguaggio.

19. Dialettica e filosofia del linguaggio

A tale riguardo esistono due indirizzi contrapposti:
– il primo (di ispirazione neopositivistica) tendente ad eliminare un pensiero essenzialmente distinto dai segni linguistici;
– il secondo tendente a considerare i segni linguistici come utili, preziosi strumenti, ma soltanto strumenti per favorire l’opera del pensiero, che non si pretende di esaurire mediante i segni impiegati.(41)
Il rifiuto dell’identificazione di pensiero e linguaggio si connette all’idea che l’area di intervento della logica non si debba ridurre alla sfera dei puri dati linguistici e dei criteri formali di correttezza.
Questo aspetto dialettico si ritrova infatti, non solo nel senso comune, ma anche nei costrutti della fisica. Quando una teoria si esprime in termini di opposti, questi si dimostrano inadeguati a quella realtà che tentano di descrivere. Realtà della quale alcune relazioni sono espresse nelle formule della fisica teorica.
La realtà sembra essere, in definitiva, una unità degli opposti. Ogni asserzione vale soltanto da un certo punto di vista; ha solamente una validità relativa, e deve essere integrata mediante asserzioni antitetiche legate a opposti punti di vista.(42)
Ogni concetto, ogni verità parziale diviene falsa quando ci si dimentica che essa è soltanto una astrazione e una delle considerazioni possibili e necessarie, e si esige che tutto si riduca ad essa.
La verità può essere afferrata solo come totalità; essa è la struttura di tutte le verità, la struttura che le unisce, le pone in contatto e in contraddizione.(43) Il movimento dialettico esprime dunque la continua inadeguatezza tra il vero e il concetto, dando luogo ad uno sviluppo necessario che rappresenta, nel suo insieme, l’esperienza filosofica.
Come ha messo in evidenza Silvano Tagliagambe, Hegel pone con inusitata chiarezza il problema del rapporto fra pensiero e linguaggio.

«Il rifiuto dell’identificazione di pensiero e linguaggio trova qui la sua matrice esplicativa più significativa: e ad esso si accompagna il rigetto dell’idea che l’area di intervento della logica debba restringersi alla sfera dei puri dati linguistici e dei criteri formali di correttezza».

Scopo della dialettica hegeliana sarebbe quello di permettere di

«rivedere le condizioni di coerenza di un discorso e di mettere in discussione le sue modalità di strutturazione. Di “rivisitare” cioè periodicamente il contesto globale all’interno del quale si produce il movimento del pensiero e avviene l’enunciazione dei suoi contenuti; allo scopo di precisarne/rettificarne le assunzioni di partenza».(44)

Si prospetterebbe così un nuovo modo di guardare alla logica, che può essere confrontato con quanto scrive Corrado Mangione a conclusione della sua analisi della logica del ventesimo secolo.

20. Logica del computer o logica dell’umano?

Afferma infatti Mangione:

«Il compito della logica non si limita affatto a quello di conferire rigore. Essa piuttosto offre concettualizzazioni e metodi che sono sì tecnici e rigorosi, ma diventano operativi e fecondi solo una volta che diano origine a nuove formulazioni e interpretazioni intuitive cui debbono fornire articolazioni, ma mai puramente veste logica.
Quello che ci appare importante è la esplicitazione dei presupposti in un linguaggio che consenta il confronto con altre pratiche teoriche, piuttosto che la pura individuazione di criteri formali di correttezza».(45)

L’auto-riflessività o, meglio, la possibilità di auto-riflessività è fondamentale nel modo di procedere di Hegel. Essa è resa possibile dalla indeterminatezza sintattico-semantica del linguaggio ordinario.
Dalla sua indipendenza, cioè, rispetto a qualsiasi schema concettuale preconcetto, desunto da una qualche pre-comprensione della realtà, più o meno universalmente condivisa.

«In questo modo, il metodo dialettico è fedele all’ideale di una scienza priva di presupposti»,(46)

ma questo non è l’unico ideale perseguito dalla dialettica. Essa persegue infatti anche quello di una determinatezza ultima, e ciò spiegherebbe il ruolo della contraddittorietà in una indagine di tipo dialettico.
I procedimenti dialettici sarebbero infatti guidati dal presupposto che determinazioni contraddittorie non possono costituire l’esito finale del procedimento.(47)
Nella dialettica hegeliana, la contraddizione è l’elemento dinamico che «spinge oltre» il processo, ma essa svolge questa funzione solo se si pone come principio che le contraddizioni debbono essere eliminate, ossia che il processo debba avere un esito, almeno in linea di principio.(48)
La dialettica non costituisce dunque un tipico esempio di insensatezza filosofica e neppure riflette fedelmente la struttura intima del reale. Essa rappresenta un processo attraverso cui l’uomo cerca di aprirsi un varco nella direzione di comprensione della realtà.
Il modo di procedere dell’uomo nel campo della conoscenza può apparire assai problematico, a volte tortuoso e insidioso. La sua logica è talvolta sfumata; non riesce sempre a separare, con un taglio netto, il vero dal falso, il certo dal probabile.
L’uomo opera in condizioni di incertezza, ma è sempre coinvolto in prima persona nelle decisioni che deve prendere. Paradossalmente non può accettare di operare, nelle scelte di fondo, secondo criteri di carattere statistico. Non può accettare la cosiddetta logica fuzzy dei computer.(49)

21. Riflessioni sul pensiero di Bernard Lonergan

Sulle considerazioni svolte nel paragrafo precedente, sembra essere d’accordo B. Lonergan, quando afferma:

«Non ogni opposizione è dialettica. Ci sono differenze che saranno eliminate con la scoperta di nuovi dati. Ci sono le differenze che abbiamo chiamate differenze di prospettiva; queste testimoniano soltanto la complessità della realtà storica.
Al di là di tutte queste differenze ci sono conflitti fondamentali, che derivano da una esplicita o implicita teoria della conoscenza, da una presa di posizione etica, da una visione religiosa. Tali conflitti modificano profondamente la propria mentalità.
Essi possono venire superati solo attraverso una conversione intellettuale, morale, religiosa. La funzione della dialettica consisterà nel portare alla luce questi conflitti, e nel fornire una tecnica la quale oggettiva le differenze soggettive e promuove la conversione».(50)

Come si vede, il discorso di Lonergan ha una valenza tipicamente esistenziale; l’uomo in prima persona è il protagonista di questo impegno di coerenza, che lo costringe a passare da una prospettiva intellettuale, morale, religiosa più ristretta ad un’altra più libera e più ampia.
Risulta più libera poiché l’esercizio della libertà non si attua solo nella decisione e nella scelta fatta entro un orizzonte già stabilito. Esso si attua principalmente in quello che J. de Finance chiama «esercizio verticale della libertà»; che è «l’insieme dei giudizi e delle decisioni in virtù delle quali passiamo da un orizzonte ad un altro».(51)
Si danno essenzialmente due possibilità:
– il nuovo orizzonte, benché notevolmente più profondo, più vasto e più ricco, risulta consono con il precedente e rappresenta uno sviluppo delle sue potenzialità;
– il passaggio ad un nuovo orizzonte comporta un rovesciamento; procede dal precedente ripudiandone dei tratti caratteristici; dà l’inizio ad una nuova sequenza, capace di rivelare sempre maggiore profondità, ampiezza e ricchezza.
Tale rovesciamento di orizzonte e un nuovo inizio è ciò che si intende per conversione.(52) La conversione, secondo Lonergan è sempre un processo di auto trascendenza.
Secondo Lonergan, la trascendenza ha un ambito di significato che non dà luogo ad un periodo storico particolare, come ritengono Hegel e Comte. Essa non costituisce una specializzazione della coscienza, ma sarebbe presente in ogni stadio di sviluppo della coscienza o del pensiero umano.
Analogamente, il concetto di superamento è interpretato nel senso che ciò che supera va al di là di ciò che è superato, mette tutto su una nuova base; tuttavia, lungi dall’interferire con ciò che è superato o dal distruggerlo, lo include, mantiene tutte le sue caratteristiche proprie e le sue proprietà.
Il superamento non viene inteso come negazione, ma come nuova interpretazione di ciò che è superato, o come nuova attuazione in un contesto più ricco. La dialettica dunque, favorendo la conversione, permette che lo storico e lo studioso abbiano un io diverso da capire.

22. Dialettica e conversione

La nuova intelligenza di se stessi sarebbe allora capace di modificare la loro intelligenza degli eventi storici, delle cose, delle parole, dell’autore. La dialettica, favorendo la conversione, favorirebbe la trasformazione del sistema dei valori o visione del mondo.
Favorirebbe così la possibilità di una interpretazione più profonda e significativa. Infatti, accanto alla interpretazione che capisce e alla storia che coglie ciò che è avvenuto, sarebbe possibile una interpretazione e una storia che valutano i risultati, che discernono il bene e il male.(53)
La apprensione di valori o disvalori è compito non del capire, ma della risposta potenziale. Tale capacità valutativa sarebbe tanto più piena e differenziata, quanto migliore è colui che valuta, quanto più raffinata è la sua sensibilità e più delicati i suoi sentimenti.(54)
Tale capacità valutativa dipenderebbe dunque dal grado di conversione raggiunta; conversione che è opera della dialettica. La conversione costituirebbe la possibile soluzione al problema delle differenti interpretazioni, dovute alle differenze di orizzonte culturale.
La ricerca storica e l’ermeneutica non permettono infatti risultati univoci. Questo in quanto la medesima sequenza di eventi, o la cosa, le parole, l’autore da interpretare vengono visti in maniera diversa a causa dei diversi orizzonti culturali.
L’interpretazione dipende dal sistema di valori o visione del mondo adottati dallo studioso o dalla comunità. La funzione di un sistema di valori sembra infatti essere quella di

«permettere ad un dato gruppo di dare senso alla “confusa rumorosa attività” del suo mondo esterno, dedicando una attenzione selettiva al proprio ambiente, e riducendo quindi, in termini di esigenze del gruppo, la quantità di informazione da elaborare».(55)

L’acquisizione di nuovi dati, la loro variabile organizzazione e concatenazione sulla base di una qualche logica all’interno della memoria di una macchina, non elimina l’ambiguità dell’interpretazione.
Il computer è oggi caratterizzati da grande velocità di calcolo e di elaborazione, capacità di manipolare quantità sorprendenti di dati, possibilità di ricercare e di strutturare secondo molteplici logiche tali dati.
Tutto questo ha aumentato le nostre possibilità di informazione, di documentazione, di previsione, di lettura ed analisi dei dati secondo chiavi interpretative diverse, nonché di affrontare problemi complessi di natura tecnica, scientifica, economica, gestionale ecc.
Problemi la cui soluzione richiede una mole di calcoli che solo il computer è in grado di eseguire, grazie alla sua straordinaria brillantezza e velocità di esecuzione. Parimenti la sua affidabilità ci consente di utilizzarlo per la gestione ed il controllo di sistemi complessi di varia natura.
Tutto questo non costituisce di per sé una visione del mondo e non determina una scala di valori, diversa da quelle semplicemente basate sull’utilitarismo e la statistica che sono alla base dei “software intelligenti”.

23. Rischi connessi all’uso delle nuove tecnologie

Ogni nuova tecnologia cerca di soddisfare l’esigenza umana di avere una risposta concreta e una misura quantificabile di tutto. Le nuove tecnologie dell’informazione ci costringono ad operare sulla base di gradi crescenti di astrazione, a differenza delle tecnologie tradizionali che lasciavano più spazio all’aspetto analogico delle operazioni.
In questo modo si rischia di pervenire a creare l’immagine di un mondo virtuale, il cui rapporto con il mondo reale può essere problematico.
Un’altra preoccupazione riguarda il fatto che molte delle informazioni ed il modo con cui esse sono presentate in rete possono generare pregiudizi nella conoscenza. Questo perché non sono presentate in forma neutrale, ma secondo interessi nascosti che tendono a condizionare le opinioni di chi accede alla rete.
Alcuni hanno parlato della bolla filtro delle informazioni, che non permette di allargare i propri orizzonti, né di pervenire ad immagini critiche e non banalmente distorte della realtà.
Esiste poi la differenza fra la lettura di un libro, con i suoi tempi, la possibilità di revisione critica e di riflessione, e il modo con cui scorrono le informazioni sullo schermo del computer.
Di fatto stiamo andando verso una capacità di attenzione breve; con un premio verso il sensazionalismo piuttosto che verso il pensiero astratto e la profonda riflessione. Il Web, nelle sue applicazioni più comuni, tenderebbe infatti a privilegiare una stimolazione sensoriale costante, legata ad un flusso non dominabile dall’utente.
La modalità ipertestuale di presentare dati ed informazioni può favorire una migliore ed una più veloce fruibilità degli stessi. Esempio significativo possono essere un dizionario o una banca dati.
Dall’altra parte, essa favorisce in molti casi un approccio affrettato e superficiale alla consultazione di fonti del sapere; senza contare l’impossibilità del controllo, come già evidenziato, di enormi flussi di dati.
Accanto a queste problematiche, legate al rapporto che l’utilizzatore umano stabilisce con il computer, ne esistono altre legate all’uso che del computer viene fatto dalla comunità. Tali problematiche sono anche in relazione ad alcune limitazioni intrinseche alla macchina.
Possiamo provare ad esemplificarne alcune:
1. Problemi legati alla privacy, alla affidabilità, alla sicurezza e alla trasparenza delle informazioni. Se pensiamo al concetto di cloud (sempre più diffuso nella tecnologia del software), vediamo che esso ha sancito la perdita totale del controllo o del “possesso” fisico dei propri dati, anche personali.
Si pensi ad esempio ad album fotografici o archivi di dati, residenti su server remoti, situati in luogo ignoto.
2. Le procedure utilizzate dal computer per il riconoscimento di immagini sembrano decisamente complesse e poco efficienti. Sono cioè molto più complesse e intricate rispetto al modo con cui la persona riconosce immagini in modo immediato.
Anche quando si tratta di immagini di notevole complessità, il cervello umano riesce a cogliere determinate caratteristiche ed elementi essenziali in modo spontaneo.
In tale contesto, l’esempio significativo è rappresentato dallo sforzo, condotto da alcuni decenni, del riconoscimento automatico di oggetti tridimensionali anche semplici.

24. Programmazione o senso comune?

Proseguiamo con l’elenco precedentemente iniziato:
3. I limiti della logica formale; e l’incapacità del computer di andare oltre i processi di inferenza statistica. La difficoltà cioè di procedere verso un vero processo di induzione scientifica.
4. Difficoltà di operare ricerche all’interno di basi di dati, secondo chiavi di lettura flessibili e progressivamente modificabili.
L’organizzazione della conoscenza nei computer (ricorrendo ai frames) ne permette un aggiornamento; esso risulta molto utile nei sistemi esperti (ed in generale nelle basi di dati), ma non ne può permettere l’utilizzo secondo chiavi di lettura continuamente modificabili.
Ricordiamo il già citato esempio del sistema esperto; molto abile a risolvere problemi che rientrano del suo dominio specifico; impreparato a risolvere problemi diversi, (anche semplici e tali che l’essere umano risolverebbe con poche conoscenze ed utilizzando l’intuizione ed il semplice buon senso).
5. A questo è legata la difficoltà a rappresentare quella base fondamentale di ogni altra conoscenza specifica e specialistica, che è nota come “buon senso”.

«Il buon senso c’era; ma se ne stava nascosto, per paura del senso comune».(56)

Questo giudizio mette in evidenza l’intrinseca difficoltà a trattare di quella serie di conoscenze che sono alla base del sentire comune.(57)
Tali conoscenze sono spesso svalutate rispetto alle conoscenze formali e ai contenuti specialistici della cultura. Tuttavia esse costituiscono, in qualche misura, la base di ogni altra conoscenza più articolata e specializzata. Lo sfondo o il quadro cioè dove le altre conoscenze vengono collocate e interpretate.
Un quadro che i frames dell’intelligenza artificiale non sanno riprodurre proporzionatamente. Anche perché determinate conoscenze sono il frutto dell’esperienza e della memoria dell’evoluzione culturale umana. Evoluzione che si è sviluppata nel corso di millenni.(58)
6. Differenza fra il modo con cui il computer memorizza i dati e l’operato della memoria umana. Il computer memorizza singoli dati in singole unità di memoria. La mente umana, invece, coglie il singolo dato all’interno di un intreccio di relazioni, che non sono soltanto di tipo logico, ma anche di tipo esperienziale ed emotivo.
7. Impossibilità di dimostrare la coerenza di un sistema formale all’interno del sistema stesso. Tale verifica può essere fatta:
– dimostrando che il sistema in questione è sottosistema di uno più ampio, di cui si conosce la coerenza; così facendo però si sposta il problema all’infinito;
– trovando un modello isomorfo del sistema che sia coerente. In questo modo però si è costretti ad affrontare questioni semantiche e non solo sintattiche.
A questi elementi è connesso di decidere il problema dell’arresto. Le funzioni ricorsivamente calcolabili (equivalenti alla macchina di Turing o alla sua realizzazione concreta mediante computer) possono essere messe in relazione con i numeri naturali (infinito numerabile) mentre le funzioni sono in relazione con i numeri reali (infinito che ha la potenza del continuo).
In altri termini, un algoritmo – finito ed eseguibile in tempi finiti – non può risolvere qualsivoglia problema matematico; esistono problemi indecidibili.
Come abbiamo già ricordato, il computer non è un oggetto magico, un oracolo e non costituisce la chiave di accesso a fantasmagorici mondi virtuali; esso non ha neppure la maniera di risolvere problemi matematici oltre un certo grado di complessità.

25. Prospettive e problemi attuali

Quanto abbiamo detto finora non ci deve indurre a credere esaurite le possibilità dell’intelligenza artificiale. Esse infatti non sono esaurite una volta per tutte, secondo una linea di sviluppo nota in anticipo.
Voler limitare le capacità del computer (e dei programmi “intelligenti”) equivale a voler limitare le capacità dell’uomo di costruirne di nuovi e raffinati. Il computer59 non è altro che una sfida nei confronti dell’ignoto.
Una realtà ignota e complessa, che non può essere spiegata a partire da ciò che è semplice ed elementare, che può invece giustificare e rendere ragione – in un’ottica sistemica – delle singole realtà elementari.
Jean Piaget formula, al riguardo, alcune interessanti considerazioni. Esse sono legate ai risultati ottenuti nel campo dei numeri transfiniti. Tali risultati sembrano mettere in evidenza che:
– ogni nuova conoscenza nel campo delle matematiche non è una semplice estensione di concetti già noti; aprirebbe infatti nuove possibilità, nel senso che:
– collegherebbe l’insieme dei possibili di un livello determinato ad un insieme gerarchicamente distinto di possibilità, non contenute nelle precedenti e per conseguenza operatoriamente nuove.
– porterebbe ad ammettere che in matematica, come in altri campi, l’universo dei possibili non è esaurito una volta per tutte, secondo una programmazione che potremmo leggere in anticipo.(60)
Piaget rileva come caratteristica essenziale della logica formale contemporanea una duplice apertura, che deriva proprio dai risultati tecnici della ricerca.
Vi è innanzitutto un carattere di apertura verso l’alto: l’acquisizione all’indagine logica di sistemi situati su livelli sempre più elevati non è dovuta a semplici processi di estensione della ricerca.
Tale acquisizione sembra dovuta anche e soprattutto all’intrinseca incompletezza di ogni teoria, che richiede per la sua «fondazione» un essenziale riferimento a teorie più potenti.
Si può allora affermare che i cosiddetti teoremi limitativi [fra questi il già citato teorema di Gödel] aprono la strada per un rovesciamento di quell’immagine a piramide che era tipica di tutti i programmi riduzionisti.
In definitiva, possiamo dire che il semplice sta alla base della costruzione del complesso, così come il complesso sta alla base della giustificazione del semplice.(61)
Fra le attuali linee di ricerca del campo della computer science ricordiamo62)
1. Il computer quantistico.
2. I biocomputer: i risultati ottenuti nel campo dell’elettronica e delle nanotecnologie (uniti alle nuove conoscenza che si stanno ottenendo nell’ambito della neurofisiologia) probabilmente ci consentiranno di “accoppiare” stabilmente dei sistemi elettronici e biologici eccitabili tramite ioni.
3. Altri tipi di logica: l’evolversi dei sistemi esperti mette in evidenza che la base di conoscenza deve essere aggiornata continuamente. Ma non sempre è possibile disporre di informazioni e dati precisi e completi.
In questo caso la logica binaria diventa inadeguata; occorre cioè trattare con dati che appaiono sfumati, di cui non è noto il valore di verità ma solo la probabilità. Risulta quindi necessario utilizzare logiche diverse dalla logica binaria (le cosiddette logiche “fuzzy”).
Possiamo ricordare anche le applicazioni della teoria dei giochi, le tecniche di ottimizzazione o di decisione in condizioni di incertezza.
(gioco quale sinonimo per esempio di strategia economica da attuare nelle diverse situazioni che possono contemplare condizioni di incertezza).
4. Sistemi di produzione. Essi sono costituiti da tre parti: l’insieme delle regole (produzioni), la base dei dati (che rappresenta lo stato attuale del sistema o del problema), la strategia di controllo per l’applicazione delle regole.
Ogni regola risulta composta da una condizione e da una azione. Se la condizione è coerente con la base dei dati (con lo stato del sistema o del problema), verrà eseguita l’azione che modificherà lo stato del sistema (della base dei dati). Esempio Deep Blue o sistema esperto nel gioco degli scacchi, che si è mostrato capace di battere un giocatore come il campione Karpov.
Naturalmente il computer non “sa di avere vinto”.

Note:

(1) Una tipica antinomia è quella del mentitore: l’affermazione “io mento” non può essere né vera né falsa, perché se vera implica la falsità, se falsa la verità dell’affermazione. Per un riferimento alle antinomie del linguaggio cf. P. Casalegno e D. Marconi, Alle origini della semantica formale, in M. Santambrogio (a cura di), Introduzione alla filosofia analitica del linguaggio, Laterza, Bari 1992, 63-65.
(2) “Il senso di una frase è il metodo della sua verifica”. Questo è uno dei canoni fondamentali del neopositivismo. È un vero peccato che la frase tra parentesi non abbia un metodo di verifica!
(3) F. Latini, Tempo reale e calcolatore elettronico, Etas Kompas, Milano 1969, 1s.
(4) Ibid., 3.
(5) N. Wiener, Introduzione alla cibernetica. L’uso umano degli esseri umani, Boringhieri, Torino 1997.
(6) Santambrogio, op. cit.
(7) S.G. Ludovici, L’utilità del bene. Jeremy Bentham, l’utilitarismo e il consequenzialismo, Vita e Pensiero, Milano 2004.
(8) U. Galimberti, Enciclopedia di psicologia, Garzanti, Milano 1999.
(9) Sul post-umanesimo, si vedano i contributi specifici apparsi sul sito http.//www.eticaescienza.eu/ (21 luglio 2012; dal 3 agosto al 19 agosto 2012).
(10) Per lo strutturalismo cf. S. Moravia, Lo strutturalismo francese, Le Lettere, Firenze 2006.
(11) N. Abbagnano, Dizionario di filosofia, Utet, Torino 1961; D. Antiseri e G. Reale, Storia della filosofia, Bompiani, Milano, vol. 11, parte terza.
(12) “Nella tradizione occidentale, ciò che si chiama conoscenza è sempre considerata come una rappresentazione più o meno vera di un mondo ontologico; cioè un’approssimazione, e comunque l’immagine di un mondo indipendente dal soggetto conoscente.
Piaget rompe con questa tradizione, perché propone un cambiamento radicale del concetto di conoscenza. Per lui, invece di essere l’organo della rappresentazione, la conoscenza diviene uno strumento dell’adattamento”. (E. von Glasersfeld, Il Costruttivismo e le sue Radici, in http://www.oikos.org/voncostrutt.htm). È interessante notare il rapporto che von Glasersfeld pone fra costruttivismo radicale e cibernetica).
(13) J. Piaget, L’epistemologia genetica, Laterza, Bari 2000.
(14) J. Piaget, Lo strutturalismo, Il Saggiatore, Milano 1974, 69.
(15) Ibid., 82.
(16) L. von Bertalanffy, Teoria generale dei sistemi, ILI, Milano 1971; E. Agazzi (a cura di), I sistemi tra scienza e filosofia, SEI, Torino 1978; C.S. Bertuglia e F. Vaio, Non linearità, caos, complessità. La dinamica dei sistemi naturali e sociali, Bollati Boringhieri, Torino 2007.
(17) E. Agazzi, Alcune osservazioni sul problema dell’intelligenza artificiale, in P.A. Rossi (a cura di), Cibernetica e teoria dell’informazione, La Scuola, Brescia 1978, 230.
(18) T.R. Miles, A proposito della differenza tra I’uomo e la macchina, in D. De Martino e M. Bianca (a cura di), La mente e la macchina, La Scuola, Brescia 1978, 50.
(19) G.O. Longo, Aspettando robot: intelligenza artificiale a Saint-Vincent, in «Le Scienze», n. 225.
(20) Ovvero delle visioni del naturalismo filosofico in senso forte.
(21) E. Benvenuto, Materialismo e pensiero scientifico, Tamburini, Milano 1974, 185s.
(22) A. Verdino, Epistemologia della causalità, Bulzoni, Roma 1972.
(23) V. Somenzi, La filosofia degli automi, Boringhieri, Torino 1965, 9 s.
(24) W. Ross Ashby, Design for a Brain, Wiley, New York, V.
(25) R. Vacca, L’uomo considerato con cautela come una macchina, in L’uomo e le macchine, Atti del XXI Congresso Nazionale di Filosofia, Edizioni di Filosofia Torino 1967.
(26) W. Ross Ashby, Introduzione alla cibernetica, Einaudi, Torino 1971.
(27) Ibid., 241 s.
(28) F. Latini, op. cit., 75.
(29) W. Ross Ashby, op. cit., XXII s.
(30) M.D. Resnik, Scelte. Introduzione alla teoria delle decisioni, Muzzio, Padova 1990.
(31) Il termine algoritmo deriva dal nome del matematico persiano Abū Jaʿfar Muhammad ibn Mūsā al-Khwārizmī. Esso indica un procedimento di calcolo finito e composto da un numero finito di passi elementari. Tale procedura può anche essere ripetuta un numero finito di volte, secondo uno schema ricorsivo.
La cosa importante è che la procedura abbia termine; in caso opposto ci si troverebbe di fronte ad un problema indecidibile e ad un processo di calcolo che non ha termine.
(32) M. Lucertini, Modelli informatici, in G. Cioffi e V. Falzone (a cura di), Manuale di informatica, Calderini, Bologna 1986.
(33) C. West Churchmann, Filosofia e scienza dei sistemi, ILI, Milano 1971, 145.
(34) La frase scritta sul tempio tradotta recita: “Uomo, conosci te stesso, e conoscerai l’universo e gli Dei”. Essa potrebbe essere però interpretata come un avvertimento per l’interrogante che si rivolgeva all’oracolo. Le risposte di questo erano infatti di difficile interpretazione: solo chi conosceva profondamente la propria condizione avrebbe potuto decifrare il responso dato dall’oracolo.
(35) I. Lakatos, La metodologia dei programmi di ricerca scientifici. Scritti filosofici, 2 voll., Il Saggiatore, Milano 1985; K.R. Popper, Scienza e filosofia, Einaudi, Torino 1969; Id., Epistemologia, razionalità, libertà, Armando, Roma, 1972; Id., Congetture e confutazioni, Il Mulino, Bologna 1972; Id., Poscritto alla logica della scoperta scientifica, 3 voll., Il Saggiatore, Milano 1984; L. Laudan, Il progresso scientifico, Armando, Roma 1979; P. Rossi, Immagini della scienza, Editori Riuniti, Roma 1977; F. Minazzi, «Epistemologia, criticismo e storicità», in L. Geymonat e G. Giorello, Le ragioni della scienza, Laterza, Bari 1986; M. Hesse, Modelli e analogie nella scienza, Feltrinelli, Milano 1980; K. Hubner, Critica della ragione scientifica, Angeli, Milano 1982; M. Polanyi, Personal knowledge, Routledge & Kegan, London 1951: M. Pera, Popper e la scienza su palafitte, Laterza, Bari 1981; H. Reichenbach, Relativitätstheorie und Erkenntnis A priori, Springer, Berlin 1920; J. Agassi, Epistemologia, metafisica e storia della scienza, Roma 1978; Id., Le radici metafisiche delle teorie scientifiche, Armando, Roma 1983; J. Watkins, Tre saggi su scienza e metafisica, Armando, Roma 1983; E. Nagel, La struttura della scienza, Feltrinelli, Milano 1977; R. Carnap, The Unity of Science, London 1934; M.L. Dalla Chiara Scabia e G. Toraldo di Francia, Le Teorie Fisiche, Boringhieri, Torino 1981.
(36) G. Mauri, «Matematica ed informatica: quale rapporto?», in Atti del Convegno «Scuola 2000», Jackson, Milano 1987.
(37) A. Negri, «Un’intelligenza senza passioni», in J. Jacobelli (a cura di), Aspettando Robot. Il futuro prossimo dell’intelligenza artificiale , Laterza, Bari 1987.
(38) J. Weizenbaum, Computer power and human reason, Penguin Books, London 1984, 193.
(39) von Bertalanffy, Teoria generale dei sistemi, 369.
(40) Ibid.
(41) Sulla possibilità di esprimere integralmente un sistema razionale mediante segni linguistici cf. E. Carruccio, Storia delle matematiche, della logica, della metamatematica, Pitagora, Bologna 1977, 367s.
(42) Esempi di tale situazione potrebbero essere l’antitesi fra moto e quiete che diventa priva di significato nella teoria della relatività, o quella fra onda e corpuscolo che verrà interpretata dalla meccanica quantistica secondo la logica della complementarità.
Analogamente «il contrasto fra struttura e processo si infrange nell’atomo come pure nell’organismo vivente, le cui strutture sono, nel tempo stesso, espressioni ed elemento portante di un flusso continuo di materia ed energia» (von Bertalanffy, Teoria generale dei sistemi, 372).
(43) L. Sichirollo, La dialettica, ISEDI, Milano 1973, 149.
(44) S. Tagliagambe, La meditazione linguistica. Il rapporto pensiero-linguaggio da Leibniz a Hegel, Feltrinelli, Milano 1980, 294.
(45) C. Mangione, «La logica del ventesimo secolo», in L. Geymonat, Storia del pensiero filosofico e scientifico, Garzanti, Milano 1976, vol. VII, 416-419.
(46) D. Marconi (a cura di), La formalizzazione della dialettica, Rosenberg & Sellier, Torino 1976, 70.
(47) Ibid.
(48) Ibid.
(49) Riprenderemo più avanti i modi tipici, suggeriti dalla statistica, di operare quando si devono prendere decisioni in condizioni di incertezza. Si tratta di procedimenti adottati nel campo dei sistemi esperti o dell’intelligenza artificiale.
(50) B.J.F. Lonergan, Il metodo in teologia, Queriniana, Brescia 1975, 251.
(51) Ibid., 253.
(52) Ibid., 254.
(53) Ibid., 263.
(54) Ibid., 262.
(55) S. Rosell, «La dimensione del valore e la trasformazione dei sistemi», in Agazzi (a cura di), I sistemi tra scienza e filosofia, SEI, Torino, 359.
(56) Il giudizio è riferito alla psicosi collettiva legata alla peste (A. Manzoni, Promessi sposi, cap. XXXII).
(57) Una precisa distinzione fra buon senso e senso comune esula dagli scopi dichiarati del presente articolo. Saremmo infatti costretti a riferire le diverse interpretazioni e le critiche di pensatori quali Aristotele, Tommaso d’Aquino, Thomas Reid, Cartesio, Kant.
(58) Ricordiamo che il filosofo Antonio Livi ha sostenuto particolarmente la funzione essenziale del “senso comune”. Egli interpreta il senso comune in chiave anticartesiana, come un sistema organico di certezze universali e necessarie che sono la condizione di possibilità di ogni ulteriore certezza. (A. Livi, Filosofia del senso comune, Ares, Milano.
(59) e con esso, lo sviluppo dei sistemi intelligenti, le ricerche sulla intelligenza artificiale e la comprensione dell’uomo ottenuta anche attraverso di esse.
(60) J. Piaget, L’epistemologia genetica, Laterza, Bari 1971, 104.
(61) M. Ceruti, La danza che crea. Evoluzione e cognizione nell’epistemologia genetica, Feltrinelli, Milano 1989, 171s.
(62) P. Battaglia, L’intelligenza artificiale. Dagli automi ai “robot intelligenti”, Utet, Torino 2006.

Annunci