Press "Enter" to skip to content

Intelligenza artificiale – Un corso discorsivo

https://flic.kr/p/N2LvdL

Scopri Intelligence & Interview di Scuola Filosofica!

Iscriviti alla Newsletter!

Consigliamo Filosofia della mente e l’intervista al professor Silvano Tagliagambe


Introduzione

Il nostro intento è di analizzare, sotto l’aspetto qualitativo, i temi principali dell’Intelligenza Artificiale. Questa scienza è giunta ad una certa maturità grazie agli studi congiunti di matematica, logica, scienze cognitive e all’imprescindibile tecnologia. Solo dall’interazione combinata di queste diverse discipline poteva nascere una scienza capace di ottenere i risultati che hanno portato a quel cambiamento dei costumi noto come “rivoluzione informatica”.

L’Intelligenza Artificiale è lo studio dei meccanismi della mente attraverso la teorizzazione e realizzazione di programmi capaci di simulare almeno un aspetto dell’Intelligenza umana. L’I.A. al principio si poneva come obbiettivo quello di riprodurre il sistema cognitivo umano per intero, cioè la costruzione di una macchina pensante o che fosse capace di risolvere problemi allo stesso modo che la mente umana.

Tale scienza si può analizzare sotto diversi punti di vista: la storia, la definizione dei problemi, gli obbiettivi, le tecniche e la tecnologia richiesta. I prerequisiti per trattare l’I.A. in termini più tecnici sono molto elevati e spaziano dalla conoscenza della matematica ai linguaggi di programmazione. Evidentemente, per tutti coloro che desiderassero una trattazione ad alto contenuto esplicativo, rimandiamo a letture più qualificate.

Il nostro intento sarà ricostruire la storia e i temi dell’I.A. nei suoi passi fondamentali, analizzando in termini generali gli obbiettivi, tecniche e problematiche, senza scendere nell’analisi tecnica degli argomenti.

Schema generale

  1. Che cosa è l’Intelligenza Artificiale (I.A.)
  2. Il grande sogno dell’Intelligenza Artificiale e i suoi pregi e i suoi limiti
  3. Un po’ di storia
  4. Il funzionalismo e l’Intelligenza Artificiale forte
  5. Critiche al funzionalismo e all’Intelligenza Artificiale forte
  6. Il connessionismo
  7. Forze e debolezze dei modelli neurali
  8. Il dibattito tra connessionisti e classicisti
  9. Modelli di vita artificiale
  10. I sistemi dinamici
  11. I robot
  12. Bibliografia

 

Che cosa è l’Intelligenza Artificiale

L’Intelligenza artificiale è una disciplina delle scienze cognitive che ha come obbiettivo fondamentale la spiegazione dei processi mentali umani mediante tecniche di simulazione rigorose. L’idea è che la mente umana sia un elaboratore di informazioni, capace di prendere decisioni. Attraverso questa definizione molto generica della mente, l’I.A. analizza i vari processi mentali in termini rigorosi.

Il metodo utilizzato in Intelligenza Artificiale ci consente di capire meglio in cosa essa consista: il primo punto fondamentale consiste in una definizione rigorosa del problema da risolvere, ad esempio, una chiarificazione analitica di cosa si debba intendere con “intelligenza”, “creatività” e, in generale, con qualunque facoltà mentale umana che si voglia simulare. Questo livello di analisi è generale ma consente ai ricercatori di fissare le proprietà della mente che dovranno avere un corrispettivo nel programma di simulazione. Se per “intelligenza” si vuole intendere capacità di decisione, allora il programma dovrà essere in grado definire delle scelte non casuali.

Se il primo livello consiste sostanzialmente nella definizione del fine da raggiungere, il secondo passo consiste nella progettazione dell’architettura del programma, cioè dell’algoritmo, o dell’insieme di algoritmi, che definiscono l’elaborazione logica dell’informazione. A questo livello di analisi non subentra ancora la questione dell’implementazione: i primi due punti consistono in un’analisi logica del fine e dei mezzi ma giunge non ancora al sostrato materiale necessario per costruire l’unità di calcolo.

Dopo aver definito i primi due passi, si giunge all’implementazione del programma su supporto materiale. Esso consente l’elaborazione delle informazioni necessaria per la soluzione degli algoritmi.

L’ultimo punto consiste nella discussione dei dati, sia in senso ristretto, da un punto di vista tecnico, ad esempio, la valutazione dell’efficacia di un programma e le sue possibili evoluzioni; sia in senso più ampio, cioè la valutazione delle ricadute dei risultati in altri ambiti delle scienze cognitive. Un esempio della discussione “ristretta” dei risultati potrebbe essere quella della valutazione della bontà dei programmi di scacchi, in termini di efficacia nella soluzione dei problemi. Un esempio della discussione “ampia” è il caso della critica di Searle al funzionalismo e all’Intelligenza Artificiale classica.

L’I.A. è una disciplina che richiede il supporto di diverse scienze, in particolare della fisica applicata alla tecnologia. L’ideazione di programmi può anche avvenire in tempi precedenti alla disponibilità di mezzi materiali sufficienti per implementare un certo algoritmo. L’Intelligenza Artificiale non può fare a meno di una base materiale in quanto i suoi risultati non avvengono a priori, semplicemente all’interno della discussione del problema e dell’elaborazione di procedure attraverso cui risolverlo, ma necessita di verifica empirica e questa si effettua proprio controllando i risultati successivi all’implementazione del programma sul sostrato materiale.

Dunque, la scienza dell’I.A. si fonda su questi punti:

  1. Analisi della facoltà mentale umana da emulare,
  2. Elaborazione di algoritmi per risolvere il problema stabilito nel punto 1,
  3. Implementazione del programma su sostrato materiale, cioè su un’unità di calcolo,
  4. Discussione dei dati in senso ristretto ed ampio.

In termini moderni, una scienza è una qualunque disciplina che formula teorie su dati di esperienza. Ogni scienza, intesa in questo senso, procede attraverso la formulazione di ipotesi all’interno del proprio quadro teorico. Le ipotesi devono essere verificabili, cioè il metodo scientifico deve riuscire a mostrare la verità o la falsità della proposizione da dimostrare. Allo stesso tempo, le ipotesi devono essere falsificabili, vale a dire che esse devono denotare fatti, siano esse espresse in termini di proposizioni elementari o attraverso altri tipi di formulazione. La verifica della veridicità di un’ipotesi o implica un aumento della nostra conoscenza del mondo in termini quantitativi oppure ci consente di falsificare la nostra teoria. La scienza progredisce in questo modo: riformulando i propri modelli su base empirica.

L’Intelligenza Artificiale è una scienza a tutti gli effetti. Essa sembra partire da un’analisi a priori, cioè la definizione preliminare sebbene rigorosa, della facoltà mentale da emulare. Ma da tale analisi, si giunge sino alla verifica: se un programma fallisce o non riesce a simulare in alcun modo una facoltà umana allora ciò di per sé falsifica l’idea a base del programma e si procede oltre.

Grazie all’evoluzione della scienza dell’Intelligenza Artificiale, congiuntamente alla sua intrinseca utilità, l’I.A. ha trovato molteplici campi di lavoro, anche assai diversi ma tutti molto fecondi.

La risoluzione automatica dei problemi consiste nella costruzione di agenti che identificano azioni per il raggiungimento di stati desiderati, in altri termini, è il problema della programmazione di elaboratori capaci di prendere delle decisioni autonome su determinati problemi. Essi sono ottenuti mediante la definizione di alcuni algoritmi di ricerca della soluzione, semplicemente, una procedura di passi finiti che consente di giungere ad un obbiettivo prestabilito e specifico. Tali algoritmi si dividono in due grandi categorie: gli algoritmi non-informati sono sprovvisti di una conoscenza ulteriore di dati estranei al problema da risolvere, essi sono dotati di tutte le informazioni necessarie per risolvere solo un quesito specifico. Gli algoritmi informati, invece, sono provvisti di una buona euristica, cioè una funzione in grado di sveltire la ricerca e l’elaborazione dei dati, rendendoli così capaci di svolgere più obbiettivi.

La rappresentazione della conoscenza è sempre stato uno dei grandi obbiettivi dell’Intelligenza Artificiale e consiste nella ricerca di linguaggi e metodi su domini applicativi e la capacità di inferenze sui domini previsti. La capacità di inferenza prevede tre proprietà fondamentali: completezza, correttezza e complessità di calcolo. La completezza è la proprietà di non avere ambiguità o dati mancanti in un teorema inferito dal programma, esso sarebbe inutile se le sue deduzioni fossero parziali. La correttezza è il parametro che sancisce il valore di verità delle inferenze, anche in questo caso, è importante che il programma non proceda in deduzioni false per ovvi motivi. In fine, la complessità di calcolo è la capacità di una macchina di svolgere più operazioni simultaneamente. Un’unità di elaborazione dati è certamente più funzionale rispetto ad un’altra, se la sua complessità di calcolo è maggiore. Essa consente una maggiore solidità nelle previsioni e valutazioni in prospettiva.

La pianificazione automatica consiste nella definizione di programmi capaci di elaborare strategie organizzative, come la gestione di risorse o la definizione automatica di rotte per autoveicoli. Essa si realizza mediante la definizione di un dominio applicativo, la descrizione esaustiva del dominio in cui si trova ad operare l’agente e l’insieme delle possibili azioni dell’agente stesso. In poche parole: v’è la definizione dell’ambiente, che costituisce in sé il problema da risolvere, quindi la chiarificazione della natura dell’agente capace di operare all’interno dell’ambiente dato e, in fine, la descrizione esaustiva delle capacità dell’agente.

Il ragionamento probabilistico è uno dei modi attraverso cui arriviamo a prendere decisioni e riguarda tipi di inferenze che non si basano sulla completa conoscenza dei dati necessari per risolvere un problema. Ad esempio, quando giochiamo a poker dobbiamo necessariamente ragionare in termini di probabilità, massimizzazione degli utili su basi incerte e minimizzazione dei rischi sulle medesime basi. La mente umana nella maggior parte delle situazioni prende decisioni su probabilità, sebbene non in termini rigorosi. Per questo, è molto utile avere una vasta conoscenza dei casi passati: non per questioni di abitudine ma perché consente di stilare una “classifica” provvisoria di pro/contro di una determinata scelta di cui si ignora la bontà a lungo termine. L’I.A. studia programmi capaci di prendere decisioni su basi incerte sebbene, per il momento, l’accuratezza delle risposte è di molto inferiore alle capacità umane, rispetto alle capacità di soluzione di problemi specifici definiti interamente a priori nel programma.

L’apprendimento automatico è la capacità di un programma di imparare da sé i dati per risolvere un problema e, allo stesso tempo, deve essere in grado di operare generalizzazioni. Questa branca dell’I.A. interessa soprattutto la ricerca connessionista, che prevede l’utilizzo di reti neurali non preprogrammate al principio.

La comunicazione è la capacità di “dialogo” tra un programma e l’uomo. La spinta verso la concezione di programmi in grado di comunicare è stata sempre molto forte sia per ragioni prettamente teoriche sia per questioni economiche. Non bisogna mai dimenticarsi della relazione molto forte che l’Intelligenza Artificiale ha con le esigenze di mercato e della sua capacità di fornire soluzioni a problemi materiali. Le compagnie telefoniche hanno spinto le case produttrici di programmi al concepimento di simulatori vocali che fossero in grado di sostituire i call-center umani[1].

La percezione è l’insieme degli organi di senso che consentono la traduzione di dati esterni in informazioni per la mente. Come sanno tutti, esistono cinque sensi. L’I.A. si è interessata in particolare della vista e dell’udito, ma esistono studi anche sul tatto e sull’olfatto. Il problema della percezione non è solamente una questione teorica ma anche pratica: la costruzione di Robot in grado di deambulare nell’ambiente, siano essi autonomi o controllati a distanza, dipende in gran parte dalla possibilità di farli interagire nell’ambiente, cioè fornirli di un corpo in grado di assumere informazioni dall’esterno ed elaborarle con la propriocezione così da farli muovere nel mondo senza errori. Anche in questo caso, è evidente la relazione dell’I.A. e i problemi concreti posti dal mercato o dalla vita quotidiana.

La domotica è la branca dell’I.A. che studia l’integrazione tra uomo e ambiente di vita. La casa intelligente è il progetto della domotica la quale non solo pensa alla costruzione di singole parti della casa o di elettrodomestici altamente specializzati, come il robot in grado di pulire per terra. Essa intende anche realizzare un programma di pianificazione automatica capace di integrare le informazioni che l’unità di calcolo riceve dai vari sensori presenti nell’abitazione “intelligente”[2].

La robotica è la branca dell’I.A. che si occupa della fabbricazione di agenti dotati di un corpo con il quale agire all’interno dell’ambiente. Non si tratta di una vera e propria scienza, sebbene essa si fondi su alcuni prerequisiti scientifici imprescindibili. Sebbene si sia ammesso l’impossibilità di un progetto di ricostruzione di un umanoide capace di operare allo stesso modo dell’uomo, l’ambizione della Robotica rimane abbastanza simile: la produzione di artefatti meccanici in grado di svolgere funzioni in modo indistinguibile da quello umano. Questa branca più di ogni altra è sensibile alla richiesta del mercato, basti pensare alla presenza dei bracci meccanici dell’industria. La robotica è una disciplina emergente e in rapida evoluzione.

 

Il grande sogno dell’Intelligenza Artificiale e i suoi pregi e i suoi limiti

L’Intelligenza Artificiale è nata con l’idea di ricostruire ogni facoltà mentale dell’uomo. Tale progetto ambizioso è reso possibile dal principio assunto e indimostrato ma piuttosto credibile che una macchina pensa come l’uomo se è in grado di esibire le stesse risposte agli stessi stimoli. Quest’ipotesi era stata esposta da uno dei massimi logici e fondatori dell’Intelligenza Artificiale, Alan Turing. Egli sosteneva che se una macchina fosse in grado di giocare una partita a scacchi come un uomo, bisognava concludere che fosse capace di pensare come l’uomo che gioca a scacchi (test di Turing).

La credibilità di questa proposta si basa sul principio comportamentistico che vuole che ogni comportamento sia definito esclusivamente nei termini di stimoli e risposte, senza considerare la “scatola nera” della mente. In questo senso, si può considerare una mente, una qualsiasi attività meccanica in grado di far seguire i medesimi risultati dai medesimi dati di partenza. Gli scacchi, da questo punto di vista, sono un esempio azzeccato: entrambi i giocatori hanno la stessa conoscenza del gioco, essa è completa e si fondano su regole comuni. Dunque, se un computer giocasse come un uomo, allora pensa come un uomo quando gioca.

La fiducia nella possibilità di riprodurre l’intera intelligenza umana è venuta parzialmente meno una volta che si è proceduto nell’analisi sistematica delle capacità della mente dell’Uomo. Non senza un certo rammarico, i ricercatori dell’Intelligenza Artificiale si sono accontentati di elaborare simulazioni adeguate per problemi specifici, come la percezione, la capacità di prendere decisioni e così via.

La strada della scienza cognitiva dell’A.I. è stata costellata di grandi progetti e grandi fallimenti, se pensati in relazione all’intenzione dei ricercatori. Tuttavia, se consideriamo i risultati da un punto di vista oggettivo, non si può che rimanere ammirati dalla grande elasticità di tale scienza e della sua capacità di ottenere effettive risposte a problemi non facili.

Innanzi tutto, è un principio comune alle scienze “maggiori” quello di percorrere una serie di sviluppi teorici che hanno riscontrato poi dei momenti di stallo, se non proprio di incertezza. Tuttavia, la capacità dell’A.I., di riproporre sempre nuove concezioni basandosi sempre sullo stesso metodo, evidenzia la grande capacità dei pensatori e del metodo stesso.

I risultati concreti di tale scienza, al di là della pura considerazione teorica, è notevole giacché essa pervade per intero il sistema di vita occidentale. Sarebbe interessante riflettere a cosa succederebbe se tutti i computer della Terra smettessero di funzionare nello stesso istante. E così pure i Robot industriali, spaziali etc.

I limiti di tale scienza risiedono sulla difficoltà di accettare l’idea che una simulazione di un comportamento implichi necessariamente il medesimo processo per giungere allo stesso risultato. Ma esistono più metodi capaci di risolvere medesimi problemi. Un computer che gioca a scacchi, in che senso lo fa. Di sicuro il calcolo della macchina sarà in qualche misura simile a quello dell’uomo, ma non si può dire che il programma di scacchi giochi a scacchi nello stesso senso in cui lo intendiamo per un uomo. C’è poco da fare: un computer non prova alcuna emozione, non arriva alla selezione della mossa allo stesso modo di un giocatore umano, né si può dire che ragioni in termini di probabilità o di “sicurezza nell’impianto”. Mi metto a ridere se penso che un computer a disagio! Cosa che capita tra i giocatori umani quando devono affrontare situazioni sconosciute. Ma possiamo dire che sono “sconosciute” allo stesso modo di come sono “sconosciute” ad un computer? E’ difficile concedere tutte insieme queste obiezioni e dire “si, Fritz esibisce comportamenti propri di un uomo quando gioca a scacchi, dunque pensa come un uomo”. L’idea che non si possa dimostrare che gli altri uomini siano “coscienti” anziché macchine, come vorrebbe il solipsismo, è, invero, un modo assai debole di confutare tale concetto. Sarebbe molto più interessante cercare di capire perché un uomo vuole giocare a scacchi…

Questa critica parziale non vuole negare nulla alla ricerca in A.I., né a sminuire i risultati compiuti dai computer scacchistici. Tutt’altro. E’ l’idea che basti una simulazione per giustificare un pensiero: se fosse così, dovrei dedurre che i cartoni animati pensano. E tante altre cose. Il che, è molto difficile da accettare.

Un po’ di storia

Tutti fanno iniziare la storia dell’Intelligenza Artificiale da Blaise Pascal o da quel tale che progettò un’oca capace di mangiare e defecare. Secondo il nostro limitato parere, bisognerebbe andare molto indietro, cioè al medioevo, anche prima dei progetti di Leonardo Da Vinci: ci riferiamo agli orologi. Un orologio è un’entità meccanica capace di svolgere un semplice “calcolo”: la successione temporale. Può apparire una forzatura concepire un orologio a molla come un precursore delle macchine attuali, tanto più delle macchine pensanti. Tuttavia, è uno dei primi artefatti dell’uomo ad essere uno strumento interamente determinato dal suo stesso meccanismo ed è indipendente dal costruttore. Inoltre, vennero elaborati molti modelli tra i quali ce n’erano alcuni in grado di far cantare degli angeli o cose simili: “La ragione per cui la macchina origine in Europa va cercata in termini umani. Prima che gli uomini potessero sviluppare e applicare la macchina come fenomeno sociale occorreva che gli uomini stessi divenissero meccanici”[3] e “Sulle torri comunali a Basilea come a Bologna, sui campanili delle chiese o all’interno delle chiese come a Strasburgo e a Lund si costruirono complicatissimi orologi, in cui l’indicazione dell’ora era un fatto quasi accidentale che si accompagnava a rivoluzione di astri, a movimenti e piroette di angeli, santi, madonne, magi e personaggi del genere. Questi macchinari testimoniavano ad usura un gusto irrefrenabile per il fatto meccanico. Questo gusto raggiunse forme esasperate nel corso del rinascimento e ne ritroviamo l’espressione più chiara nei disegni di Leonardo”. Non stiamo paragonando gli orologi agli attuali computer, piuttosto a mostrare l’antichità della spinta che giunge dall’uomo verso gli artefatti artificiali, alle macchine automatiche. In realtà le “piroette degli angeli” non vanno considerate diverse dall’oca capace di defecare.

Il sentimento dell’uomo verso il marchingegno è antico quanto l’uomo stesso. La concezione dello schiavo non è assolutamente diversa da quello di un Robot capace di eseguire meccanicamente i compiti a cui è adibito. La schiavitù è stata spesso giustificata con la spiegazione dell’assenza di coscienza in quei poveri malcapitati. Roma intera ha costruito il suo impero sulla convinzione che lo schiavo fosse una condizione prevista dal diritto[4].

Ad ogni modo, la prima macchina in grado di operare dei calcoli è stata la pascalina del grande scienziato e filosofo Pascal. Essa era in grado di operare somme e sottrazioni. Leibniz impostò una macchina capace di calcoli differenziali. Durante il settecento e l’ottocento si susseguirono artefatti di vario genere.

Tuttavia, la prima corrente che si protese verso una definizione del ragionamento meccanico fu la logica moderna, pensata come “studio del pensiero seriale”. In particolare, fu i programma logicista a porre delle solide basi per i successivi progressi in I.A.: l’idea di ricondurre l’intero pensiero umano all’analisi logica fu senza dubbio fine e strumento della successiva A.I.. La logica si univa con la matematica per generare ogni tipo di ragionamento, pensando alla ragione come la nostra capacità di deduzione.

Un altro influsso importante all’A.I. vene dalla psicologia comportamentista. L’ipotesi forte del comportamentismo risiedeva nell’idea che ogni azione umana fosse causata da stimoli e da rinforzi, positivi o negativi. L’uomo è interamente determinato dall’ambiente e dalla sua educazione e, per prevedere il suo svolgimento nella realtà, basta considerare la storia dei suoi stimoli. L’umanità è all’interno della fisica e della biologia, i corpi si muovono su leggi meccaniche e gli organismi agiscono in virtù delle cause che influiscono sul loro comportamento. L’uomo non è al di là di questo schema.

Il “padre” dell’A.I., Alan Turing, fonda la nuova scienza proprio sui due cardini della logica e del comportamentismo: egli aveva elaborato una macchina capace di risolvere qualunque algoritmo, una macchina ideale irrealizzabile ma possibile. Essa è nota come “Macchina di Turing”. Ed egli sostenne fermamente il test di Turing per la valutazione del pensiero della macchina: se essa esibisce i medesimi comportamenti dell’uomo nelle medesime condizioni ambientali allora essa pensa come l’uomo.

Il vero salto di qualità dell’Intelligenza Artificiale avvenne nel 1957, grazie ad alcuni studiosi che si riunirono per un convegno. Nel 1956 vi era stata la crisi del comportamentismo come scienza, grazie alle critiche di alcuni pensatori, in particolare di Chomsky. Sempre di questo periodo era arrivata la definizione del funzionalismo di Putnam: uno stato mentale è definito dal ruolo causale che ha all’interno del sistema mentale; per lo studio del pensiero la conoscenza del sostrato materiale è ininfluente perché basta definire il ruolo funzionale dello stato mentale. Il funzionalismo appariva come il sostrato filosofico capace di giustificare l’idea di fondo: il pensiero è riproducibile anche da meccanismi non biologici in quanto ciò che definisce il pensiero è l’insieme dei nessi causali degli stati del sistema. Tutto ciò confluì nella nascita della Intelligenza Artificiale Forte o classica.

Il principio su cui si fonda tale corrente tutt’ora sostenuta da molti, è che il pensiero è un’attività seriale su simboli implementata da un’unità di calcolo. Il sostato fisico, che consente l’elaborazione, è ininfluente per l’emersione del pensiero. A seguito di questo, un computer che esibisca un comportamento analogo a quello umano, è a tutti gli effetti una “macchina pensante”. Lo sviluppo di questa corrente ruotò intorno alla soluzione di problemi semplici rispetto al mondo in generale, ma di grande complessità come il gioco della dama o, ancor di più, degli scacchi.

Il concetto fondamentale è che uno stato mentale sia un simbolo computato da un insieme di regole interamente descritte nel programma. I calcoli sono definiti dalle regole e le combinazioni possibili dipendono dalle regole stesse e dai simboli. Il massimo sostenitore dell’Intelligenza Artificiale classica è J. Fodor con la sua teoria rappresentazional computazionale della mente: rappresentazionale perché si fonda su simboli e computazionale perché implica calcoli.

A seguito di molte critiche, l’Intelligenza Artificiale forte ha posto una serie di problemi, tra cui il fatto che non rispecchia i processi neurologici che avvengono all’interno della mente. Tenuto conto che uno degli obbiettivi dell’I.A. è proprio quello di “ricostruire” il pensiero umano, non è un problema di poco conto.

Il connessionismo è una corrente dell’Intelligenza Artificiale che affonda le sue radici intorno alla metà del secolo scorso. Essa era stata elaborata da un logico e un neurofisiologo che avevano definito il “neurone” come un’unità logica e il pensiero come una serie di attivazioni e connessioni di più neuroni. Tuttavia, il successo iniziale della I.A. forte aveva messo tra parentesi l’interesse verso questa impostazione. Essa, in effetti, risultava praticamente opposta alla dominante.

I successi delle reti neurali hanno sollevato, a loro volta, alcune critiche attualmente in fase di verifica. Ciò che è interessante sapere è che ci sono molti progetti volti a mediare tra le due impostazioni, vale a dire raggiungere dei calcolatori in grado di computare simboli attraverso le reti neurali.

Per avere un quadro migliore dei punti di vista del funzionalismo/A.I. forte e del connessionismo, si proceda oltre.

Il funzionalismo e l’Intelligenza Artificiale forte

L’idea fondamentale del funzionalista è quella di riuscire a salvaguardare, da un lato, il fisicalismo, e dall’altro l’indipendenza (della descrizione) del mentale. La spiegazione funzionalista, si badi bene, è una questione tutta di spiegazione/descrizione e non è una questione ontologica, nel senso che accetta l’ontologia proposta dal fisicalismo, ma non l’idea che il mentale sia interamente riscrivibile in termini fisici.

Il fatto è che una delle tesi del funzionalismo (quella fisicalista appunto) pone come una realtà la materia che è descrivibile nei termini della scienza fisica. Ma anche il mentale è una faccenda di questo tipo. Ora, se così stanno le cose, perché si deve porre una ulteriore descrizione del mentale intesa in modo forte, cioè irriducibile nei termini della fisica galileiana? Una delle ragioni addotte dai funzionalisti è quella che la loro teoria offre una spiegazione di alto livello estremamente più semplice di quella che darebbe altrimenti la fisica e, in tal modo, non è riducibile a quella.

Si badi che l’idea funzionalista non è una sorta di descrizione-alternativa quella scientifica, bensì sfrutta uno dei principi di cui la stessa scienza biologica si avvale: del principio di causalità finale. Un certo stato mentale è definito da ciò che lo precede ma anche da ciò che determina in vista di un certo altro stato mentale. Come il cuore è definito dal suo ruolo causale che svolge nell’organismo, allo stesso modo lo stato funzionale. L’idea è dunque quella di porre gli stati mentali descrivibili come se fossero delle entità causali all’interno del loro campo di esistenza, vale a dire il campo “mentale”. Ogni stato mentale è causato da ed è causa di. Ma in questa “causalità di” si pone il fine dello stato mentale stesso senza il quale non sarebbe tale.

E in questo senso vediamo come la descrizione degli stati mentali sopravvenga alla descrizione fisica in quanto, sebbene uno stato mentale sia senz’altro determinato da certe cause fisiche, non per questo si può definire a partire esclusivamente da queste. Per porre rimedio a questa mancanza si fa uso di questa teleologia predicata dello stato mentale. Ed è una questione descrittiva in quanto, a livello fisico, la teleologia non si applica ma ci è indispensabile per definire certe relazioni che gli stati mentali hanno.

Il funzionalismo dunque è in tutto una teoria scientifica o che, per lo meno, ha un intento genuinamente scientifico e si propone di difendere questo approccio in nome della pretesa di salvaguardia dell’”indipendenza del mentale dal fisico” e in nome del “non sacrificio della mente al corpo”.

Per quanto riguarda l’idea di fondo, il funzionalismo nasce dalla considerazione che si può spiegare un fenomeno a partire da diversi livelli di descrizione indipendenti, vale a dire che le due descrizioni o sono parallele o sono riscrivibili. Se sono riscrivibili allora sono equivalenti. Se sono parallele allora l’una non è riscrivibile nei termini dell’altra. La biologia tratta gli organismi da un punto di vista generale e non secondo la descrizione sommaria degli atomi. Allo stesso modo, la chimica parla di molecole e non di particelle elementari.

La considerazione su cui si fonda il funzionalismo non è il fatto che la scienza fisica sia in sé manchevole nella descrizione dei processi fisici che sottostanno all’attività mentale, ma che essa vada troppo nel dettaglio e che, dunque, potrebbe in linea di principio spiegare il mentale ma, di fatto, occorrono altre spiegazioni di carattere meno particolare.

Un altro punto su cui ruota la concezione funzionalista è quella di Putnam, considerato il fondatore di tale corrente della filosofia della mente: tenuto conto che i calcolatori elettronici computano algoritmi allo stesso modo che la mente umana, sebbene il supporto materiale sia diverso, si può benissimo spiegare il funzionamento tanto del computer quanto della mente tenendo conto esclusivamente della computazione e non di ciò che la produce. La causalità del processo computazionale non è importante ai fini della descrizione formale dell’attività mentale, sia essa generata da un supporto al silicio piuttosto che materiale organico. Quest’idea non è altro che la formulazione dell’indipendenza della descrizione logica e qualitativa da una descrizione di tipo quantitativo. Se l’immagine della scienza esatta è quella quantitativa nel livello di descrizione della causalità fisica, giacché spiega ciò che avviene nel dettaglio e prevede ciò che avverrà, essa diventa puramente “cieca” di fronte alle computazioni di genere astratto-qualitativo.

Critiche al funzionalismo e all’Intelligenza Artificiale forte

Ci sono diverse critiche all’Intelligenza Artificiale forte: 1) la critica di Searle, ovvero la stanza cinese, 2) la critica dello Stato cinese, 3) l’incorporeità teorica e 4) la danneggi abilità del sistema.

1) La critica Searle è celebre e si fonda sull’idea che la sintassi non spiega la semantica e l’analisi formale non giunge all’emergenza del significato. Immaginiamo un uomo in una stanza. Egli riceve informazioni da una fessura. Le informazioni sono in cinese. Il nostro uomo non capisce il cinese però ha un libro nella sua lingua che gli consente di associare ai simboli in arrivo altri simboli. Egli risponde ai messaggi inserendo nella fessura la risposta. Le frasi ottenute sono in cinese perfetto. Ma si può dire che il complesso “uomo+libro di sintassi” comprenda nello stesso modo in cui un uomo comprende il proprio linguaggio naturale? La metafora consiste in questo: il programma è il libro e l’uomo è l’elaboratore di informazioni. Se si considera il punto di vista esterno alla stanza, cioè quello dei cinesi al di fuori, si può pensare che il computer “parli” e “comprenda”, senza parlare e “comprendere”. Ci sono state molte critiche a Searle, però l’idea è forte: prima di tutto, la mente non è un’entità priva di corpo, né il corpo è così indifferente nell’elaborazione dell’informazione, come è accettato dal funzionalismo.

2) L’altra celebre critica è quello dello Stato cinese: una macchina di Turing è una testina capace di leggere i simboli su un rullo infinito. A seconda del simbolo, la testina può andare a destra, sinistra, cancellare un simbolo oppure spostarlo. La macchina di Turing può risolvere qualsiasi algoritmo. Essa è inimplementabile perché non esiste un nastro infinito, ciò non di meno, si possono costruire dei computer relativamente simili alla macchina ideale. Ora, immaginiamo che ogni cinese si mettesse in fila indiana costituendo un simbolo. Ammesso di avere una testina in grado di leggere i simboli, allora potremmo considerare lo Stato cinese al pari di una mente. Ciò che è criticato non è che lo Stato cinese così concepito sia incapace di elaborare informazioni, piuttosto che sia impossibile che esso provi “stati mentali” allo stesso modo degli uomini.

3) Il funzionalismo consente l’esistenza di una mente “indipendente” dal corpo, cioè che una stessa mente potrebbe benissimo essere implementata da due sostrati materiali differenti. Ciò è discutibile secondo alcuni.

4) Un’altra obiezione, questa piuttosto forte, è che la mente umana se danneggiato il sostrato, non perde tutto d’un blocco le facoltà cognitive. Le funzioni della mente decadono progressivamente. Ciò non è certo ciò che accade ai computer classici, che se rotti, diventano interamente inutilizzabili.

Il connessionismo

Il connessionismo è un movimento delle scienze cognitice che intende spiegare l’abilità intellettuale umana attraverso l’utilizzo di reti neurali. Le reti neurali sono dei modelli semplificati del cervello, composte di un numero elevato di unità, i neuroni. Ciascuna unità è definita da un peso che è la misura della forza delle connessioni tra neuroni.

Il connessionismo si propone come valida alternativa alla teoria dell’Intelligenza Artificiale forte. Come abbiamo visto, quest’ultima ritiene che la mente umana sia una computazione su simboli. Le critiche fanno leva sull’idea che il corpo e il sostrato materiale, nonché la sua organizzazione, non sia così ininfluente come appare alla luce della teoria funzionalista. Altro fatto rilevante è che esiste una conoscenza sub-simbolica che viene del tutto ignorata dagli elaboratori classici.

Una rete neurale è l’insieme delle unità, i neuroni, definiti da un certo valore-soglia di attivazione. Esistono tre “tipi” di neurone in base alla locazione in cui si trovano nella rete: i neuroni di in-put; le unità nascoste, se ci sono; e le unità di out-put.

Le unità di in-put sono quelle che ricevono dati dall’esterno, le unità di out-put sono quelle che esibiscono la risposta e le unità nascoste sono quelle interne alla rete e non “visibili”, esse sono unità di raccordo tra le unità di in-put e out-put.

Il parallelismo tra cervello e rete neurale appare piuttosto evidente, nello specifico le unità di in-put rappresentano i neuroni sensoriali, le unità di out-pu i moto neuroni e le unità nascoste tutti gli altri neuroni.

Le unità di in-put hanno un calore di attivazione stabilito e questo rappresenta le proprietà esterne alla rete capaci di interagire con la rete stessa. Queste unità inviano il loro valore di attivazione a ciascuna connessione che rivaluta il peso complessivo. Il risultato o viene inviato direttamente alle unità di out-put oppure viene mediato dalle unità nascoste.

Le unità nascoste calcolano la loro attivazione a dal valore della connessione per il valore dell’in-put in arrivo. Le Hidden units inviano il messaggio ad altre unità nascoste oppure alle unità di out-put.

Il pattern di attivazione della rete è impostato dal peso o forza delle connessioni tra unità. I pesi possono essere positivi o negativi. Se il peso è positivo, la connessione è attiva, se il peso è negativo, la connessione è inibitoria. La funzione di attivazione è la somma di tutti i valori inviati dalle singole unità. Il contributo di ciascun neurone è il peso delle connessioni tra i tempi di ricezione e invio del valore di attivazione.

Per migliorare la prestazione della rete, impostata casualmente al principio, si possono modificare i pesi delle connessioni sulla base del principio di Hebb che vuole che ad una connessione qualunque, se ripetuta, allora si rafforza, cioè aumenta di valore. Questa tesi darebbe ragione alla teoria “connessionista” ante litteram di David Hume.

Trovare la giusta combinazione dei pesi è l’obbiettivo fondamentale nella ricerca connessionista. La ripetizione di un esempio aumenta la capacità di soluzione corretta. Il principio di distribuzione dei pesi segue valori casuali al principio, successivamente le unità di in-put sollecitate a riconoscere le singole parti del problema “apprendono” una certa connessione. La ripetizione degli esempi a cui è sottoposta la rete neurale si ripete sino a che la rete non arriva all’elaborazione di risposte corrette. In fine, l’apprendimento implica generalizzazioni, cioè la rete è capace di riconoscere oggetti identici per categoria ma con caratteristiche distinte da quegli degli esempi.

Forze e debolezze dei modelli neurali

I punti di forza della teoria connessionista si fonda sull’evidente parallelismo tra reti neurali e reti neurali cerebrali. Esse hanno una grande flessibilità per quanto riguarda l’oggetto di apprendimento. Inoltre, la perdita di unità di in-put non implica la degenerazione dell’intera rete ma solo i punti in cui è presente il danno. Le reti neurali offrono un’ottima capacità di soluzione per problemi di processazione in parallelo, cioè elaborazioni di dati distribuite su più elaboratori.

I problemi del connessionismo possono essere elencati nel modo seguente: innanzi tutto le reti hanno difficoltà a categorizzare elementi con proprietà inessenziali proprie di un individuo, non riscontrate in altri elementi precedentemente categorizzati. Le reti mostrano solamente una regolarità ma non la capacità di apprendere una regola nel modo usuale di intendere tale capacità. I modelli confessionisti non sono una valida rappresentazione delle reti neurali reali in quanto non ammettono differenze tra unità, presenti tra i neuroni cerebrali; non c’è alcuna rappresentazione di ciò che sono i neurotrasmettitori; il cervello non necessita di tante ripetizioni per imparare qualcosa e, talvolta, basta un solo esempio.

Come si vede, la critica al connessionismo si fonda sostanzialmente nel discutere l’effettivo parallelismo tra rete neurale e rete cerebrale. La discussione dei risultati delle reti, è meno presa in considerazione.

Il dibattito tra connessionisti e classicisti

I classicisti sostengono che l’informazione cosiste sostanzialmente in stringhe di simboli. Questi ritengono che la processazione mentale consista nella sequenza di istruzioni.

I connessionisti ritengono che l’informazione simbolica è il risultato di un’elaborazione sub-simbolica e che l’attività mentale consista nell’elaborazione dell’informazione a livello parallelo.

Sta andando ad affermarsi ultimamente una teoria mediana che ritiene che alla base della processazione mentale ci siano le reti neurali ma che il livello più astratto del sistema sia effettivamente simbolico. Il fine delle ricerche deve essere indirizzato verso la costruzione di programmi classici attraverso l’uso delle reti neurali.

Un altro argomento di scontro tra i connessionisti e i classicisti è sul ruolo della psicologia folk, cioè sulla “realtà ontologica” di quello che intuitivamente intendiamo quando diciamo che “qualcuno pensa qualcosa”, l’attribuzione de dicto della credenza. L’idea di alcuni classicisti dell’I.A., come J. Fodor, è che sia indispensabile utilizzare anche in un lessico scientifico parole come “credenza”, “Intenzione” etc., vale a dire degli stati mentali conosciuti attraverso l’introspezione e attribuiti agli altri sulla base di una generalizzazione della nostra esperienza interna. Molti sostenitori del connessionismo sostengono che questa concezione della psicologia non consenta delle previsioni adeguate e che i termini del senso comune utilizzati per descrivere la psicologia altrui sono, nella sostanza, vuoti. Possiamo anche utilizzare quei termini per utilità, ma non possiamo certo pensare realmente che esista qualcosa di simile ad una “credenza”. In questo senso, il paradigma connessionista riesce a descrivere l’attività mentale senza usare un vocabolario mentalistico del senso comune.

Modelli di vita artificiale

Alcuni campi di ricerca dell’I.A. sono rivolti all’analisi di realtà complesse, cioè nell’elaborazione di sistemi simulativi capaci di mostrare delle proprietà reali. Esistono programmi che simulano l’evoluzione di sistemi biologici, meterologici e sociali.

L’idea comune a tutti questi campi di studio è che si possano progettare dei programmi capaci di mostrare una serie di unità predefinite da parametri fissi nella loro evoluzione. In questo senso, le entità mostrate dal programma devono essere interpretate allo stesso modo di organismi viventi che vivono in un ambiente determinato del quale non hanno tutte le informazioni.

Nel caso della biologia, il problema di ogni organismo vivente consiste nella volontà di vivere e ciò dipende dalla sua capacità di adattarsi all’ambiente. Per un programmatore, l’ambiente è visto come il campo di esistenza del problema, uno o più di uno, mentre l’organismo è interpretato come una possibile soluzione. Nell’ambiente saranno inseriti più esseri capaci di adattarsi. Solo i più adatti sopravviveranno e saranno in grado di riprodursi, gli altri moriranno o non lasceranno alcuna prole.

Sono stati progettati programmi in cui alcuni organismi erano in grado di comunicare e altri no. Si è visto che solo i primi alla lunga sopravvivevano mentre gli altri tendevano a sparire. Altri programmi hanno tenuto conto della capacità di altruismo di alcune specie e hanno evidenziato come i comportamenti sociali di aiuto reciproco rendono i singoli individui più forti e capaci di sopravvivere in condizioni sfavorevoli.

L’implementazione di tali programmi avviene su reti neurali.

Per descrivere la rete neurale che computa la vita artificiale, si può procedere in questo modo semplice: descrivere il fine della rete (simulazione del comportamento sociale di animali, emulazione dell’evoluzione di un sistema biologico etc.), definizione delle caratteristiche ad alto livello (l’ambiente o l’insieme dei problemi, l’agente o le varie possibili soluzioni al problema, l’evoluzione del sistema dell’agente/ambiente), analisi del tipo di rete neurale coinvolta nella computazione.

I sistemi dinamici

Un sistema dinamico è lo studio dell’evoluzione di un certo sistema nel tempo. Uno stato è un insieme dei valori di un dato sistema in un certo momento ed è definito da certe caratteristiche fondamentali: un sistema dinamico che descrive il tempo meteorologico assocerà a ciascuna variabile determinati valori fisici. Un sistema dinamico è la somma dei singoli stati nella loro evoluzione.

L’evoluzione del sistema è descritta da un’equazione di transizione di stato. Se l’evoluzione del sistema avviene in un tempo discreto allora esso è detto discreto, mentre se esso avviene in un tempo continuo allora è detto continuo. Un sistema dinamico è detto libero se la sua evoluzione è causata da eventi e regole interne al sistema stesso mentre è detto forzato se si evolve a partire da cause esterne ad esso.

L’applicazione dei sistemi dinamici all’informatica consente lo studio di processi fisici estremamente complessi e di operare lo studio di ambienti in cui a piccoli cambiamenti nelle variabili iniziali seguono grandi variazioni nell’evoluzione del sistema. Applicazioni possibili dei sistemi dinamici possono riguardare la meteorologia, l’economia.

I robot

Senza dubbio, uno dei programmi di ricerca che ha raggiunto una grande notorietà è la robotica. Lo studio di macchine capaci di esibire comportamenti fisici simili a quelli dell’uomo o, almeno, di altri esseri viventi è una branca non ancora definibile come scienza, ma un campo di ricerca piuttosto fecondo.

Nonostante le apparenze, l’I.A. e la robotica solo di recente hanno unito, almeno in parte, gli sforzi in progetti comuni. L’I.A., storicamente, è stata più interessata alla progettazione di programmi capaci di esibire “risposte” intelligenti più che all’elaborazione di macchine capaci di muoversi o “vivere” nel mondo. I propositi, al principio, erano un po’ diversi: da una parte c’era la volontà di concepire elaboratori di informazione, dall’altra di costruire macchinari capaci di aiutare l’uomo nella propria vita. Solo di recente c’è stato un accostamento tra le due branche. Ciò è dovuto, in buon parte, a stimoli esterni alle due discipline: miglioramenti tecnologici e necessità economiche.

La tecnologia sia nell’A.I. che nella robotica riveste un ruolo chiave. Infatti, l’implementazione di programmi che richiedono grande capacità di calcolo risente della qualità dei supporti fisici. Non è un caso che per arrivare alla vittoria del programma di scacchi sul campione del mondo umano ci sia stato bisogno di un computer capace di calcolare milioni e milioni di varianti al secondo. La robotica, a sua volta, richiede un uso massiccio della tecnologia, basti pensare al fatto che per costruire un robot c’è bisogno di materiali capaci di condurre l’energia elettrica, elaborare l’informazione proveniente dall’esterno, muovere oggetti del mondo etc.: un robot deve avere un “corpo” a tutti gli effetti. Ma anche l’economia è stata una potente spinta verso la nascita di una possibile integrazione tra intelligenza artificiale e robotica: il costo della manodopera umana è superiore rispetto a quella dei robot; alcuni lavori pericolosi o in ambienti estremi, come lo spazio, è preferibile farli svolgere a esseri non umani controllabili; l’aumento delle attività che richiedono l’uso della mente umana implicano la grande richiesta di elettrodomestici “intelligenti”; non si può sottovalutare poi il campo bellico: esistono attualmente degli aerei spia privi di motore utilizzati dall’esercito degli Stati Uniti.

Un robot non è altro che una macchina capace di svolgere almeno un compito allo stesso modo di un agente umano. La spinta primordiale della robotica è stata quella di riprodurre un essere meccanico capace di pensare. Ciò non è stata solo una fantasia romanzesca ma un “sogno” della robotica come “scienza”. Tuttavia, come per l’intelligenza artificiale, la constatazione della complessità dell’essere umano rende, di fatto, impossibile per una macchina la replicazione di tutte le funzioni di cui l’uomo è capace. Così, attualmente, i campi di ricerca sono più settoriali e l’offerta di soluzioni diverse è molto ampia. Ciascun interesse spinge i ricercatori verso soluzioni molto diverse da applicare in settori assai lontani.

I robot possono essere autonomi oppure vincolati. I robot autonomi sono quelli capaci di prendere “decisioni” all’interno di un ambiente mentre i robot vincolati vengono comandati da un essere umano. Un esempio di robot del primo tipo sono i “robot aspirapolvere” mentre un esempio di robot del secondo tipo sono gli aerei spia.

I calcoli necessari per la deambulazione del robot possono essere implementati o direttamente sul robot, oppure su un supporto esterno. Nel secondo caso, i supporti di percezione del robot inviano all’unità di elaborazione i dati esterni in base ai quali il computer potrà operare.


Bibliografia

Carlucci Aiello L., Dapor M., Intelligenza Artificiale: i primi 50 anni, Mondo Digitale., Giugno 2004.

Cianciarini, Il computer gioca a scacchi, Mondo digitale., Settembre 2005.

Filosofico.net. Funzionalismo.

Giolito B., Intelligenza Artificiale. Una guida filosofica, Carocci, Roma, 2007.

Gori M., Introduzione alle reti neurali, Mondo digitale, Dicembre 2003.

Standford University, Connectionism. First published Sun May 18, 1997; substantive revision Wed Mar 7, 2007.

Tettamanzi A., Algoritmi Evolutivi: Concetti e applicazioni, Mondo Digitale, Marzo 2005.

Wikipedia, Che cos’è un Robot.

Wikipedia, Sistema dinamico (fisica matematica).

Wikipedia, Teorida del caos.

Zaccaria R., Aspettando il robot, Mondo digitale, Settembre 2

 


[1]Anche in questo si vede il triste problema della concorrenza di uomini e macchine, sempre più stringente da questo punto di vista e assai poco evidenziata. E’ molto interessante che gli informatici siano molto influenzabili dagli incentivi economici e assai meno da quelli prettamente morali: il fatto che centinaia di persone possano perdere il lavoro interessa assai poco.

[2] Lo scetticismo che può sollevare questa disciplina è pari al sogno di una vita senza impegni e senza lavoro, in effetti, andando a ben vedere le tecnologie più sono intese come “intelligenti”, vale a dire autonome, e più sono incapaci di comprendere le vere necessità umane, prima di tutte l’elasticità. Prendiamo l’automobile e i suoi sensori che non sono certamente in grado di distinguere quando una persona si dimentica della cintura e quando non la mette perché, ad esempio, ha una malformazione fisica. Oppure quante volte il cellulare è una componente invadente ed invasiva. L’assurdità di un principio domotico non risiede tanto nel fatto che si sia retrogradi, quanto nella volontà da parte degli esseri umani di concepire le esigenze degli altri a partire dalle proprie. Il sogno di un programmatore potrebbe anche essere quello di un water che pigli la cartai genica e provveda a ciò che altrimenti farebbe la sua mano, ciò non significa che l’invadenza del braccio meccanico, che non sempre è in grado di riconoscere le varie “situazioni”, potrebbe risultare più invasivo e alienante di quanto non sia. Il fatto è che l’uomo non si riduce a schemi fissi e rimane pur sempre un animale che richiede uno spazio “neutro” in cui sussistere. La metafora dell’uomo come elaboratore tiene sino al punto di non ridurlo esclusivamente alla serialità.

[3] Cipolla C., Storia Economica dell’Europa Pre-industriale. Il Mulino. Bologna. 1997.

Ivi.

[4]La verità è che troppo poco si conosce la storia e ci si illumina quando si ha qualche idea balzana che si ritiene nuova e rivoluzionaria. Invece l’originalità dell’uomo è cosa assai relativa. L’Intelligenza Artificiale è il risultato di uno sforzo millenario che affonda le sue radici molto all’interno delle credenze umane nonostante sia richiesta per la sua realizzazione la parte più “logica” delle conoscenze a nostra disposizione. Guardando in faccia la genesi dei pregiudizi, si scopre che essi sono molto antichi e lungi dall’esser stati compresi come tali. Il “mito” dell’Intellingenza Artificiale è un pregiudizio, un preconcetto, una specie di fede. Il punto è questo: che la conoscenza dovrebbe essere libera da credenze, se per credenze si intendono i sogni degli scienziati. Chi dice che, allora, non c’è diversità nella fede e che tutti ne abbiamo una, ciò è un giudizio assai affrettato, soprattutto quando la scienza dovrebbe essere animata non dall’immaginazione ma dalla semplice constatazione dei fatti.

Artificial Intelligence & AI & Machine Learning


Giangiuseppe Pili

Giangiuseppe Pili è Ph.D. in filosofia e scienze della mente (2017). E' il fondatore di Scuola Filosofica in cui è editore, redatore e autore. Dalla data di fondazione del portale nel 2009, per SF ha scritto oltre 800 post. Egli è autore di numerosi saggi e articoli in riviste internazionali su tematiche legate all'intelligence, sicurezza e guerra. In lingua italiana ha pubblicato numerosi libri. Scacchista per passione. ---- ENGLISH PRESENTATION ------------------------------------------------- Giangiuseppe Pili - PhD philosophy and sciences of the mind (2017). He is an expert in intelligence and international security, war and philosophy. He is the founder of Scuola Filosofica (Philosophical School). He is a prolific author nationally and internationally. He is a passionate chess player and (back in the days!) amateurish movie maker.

Be First to Comment

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *