Alan Turing – Macchine che apprendono

Nel vasto panorama della filosofia della mente e dell’intelligenza artificiale, pochi nomi risuonano con la stessa forza di Alan Turing. Il suo lavoro pionieristico ha gettato le basi per molte delle discussioni contemporanee sull’intelligenza delle macchine. In uno dei suoi scritti più celebri, Turing affronta una questione fondamentale: le macchine possono pensare?

Il campo dell’intelligenza artificiale (AI) deve molto al lavoro di Alan Mathison Turing. Negli anni ’30 del XX secolo, Turing descrisse una macchina computazionale astratta, nota oggi come macchina di Turing. Questa macchina consisteva in una memoria illimitata e uno scanner che si muove avanti e indietro attraverso la memoria, simbolo per simbolo, leggendo ciò che trova e scrivendo ulteriori simboli. Le azioni dello scanner sono dettate da un programma di istruzioni, anch’esso memorizzato sotto forma di simboli. Questo concetto di programma memorizzato implicava la possibilità che la macchina potesse operare su, e quindi modificare o migliorare, il proprio programma.

Durante la Seconda Guerra Mondiale, Turing fu un crittanalista di spicco presso la Government Code and Cypher School a Bletchley Park, Buckinghamshire, Inghilterra. Tuttavia, non poté dedicarsi al progetto di costruire una macchina computazionale elettronica a programma memorizzato fino alla fine delle ostilità in Europa nel 1945. Nonostante ciò, durante la guerra, Turing rifletté considerevolmente sulla questione dell’intelligenza delle macchine. Uno dei suoi colleghi a Bletchley Park, Donald Michie, ricordò che Turing discuteva spesso di come i computer potessero apprendere dall’esperienza e risolvere nuovi problemi attraverso l’uso di principi guida, un processo oggi noto come risoluzione euristica dei problemi. “Quello che vogliamo è una macchina che possa apprendere dall’esperienza” e che la “possibilità di lasciare che la macchina modifichi le proprie istruzioni fornisce il meccanismo per questo.” Nel 1948, introdusse molti dei concetti centrali dell’AI in un rapporto intitolato “Intelligent Machinery”. Tuttavia, Turing non pubblicò questo documento, e molte delle sue idee furono successivamente reinventate da altri. Le sue idee sulla macchina di Turing universale sono alla base di tutti i moderni computer, e il suo lavoro ha ispirato generazioni di scienziati e ingegneri a esplorare i confini dell’intelligenza artificiale.

Le macchine possono pensare?

Nel documento pubblicato nel 1950 parte dalle obiezioni che le sue idee hanno ricevuto. Una delle obiezioni più note contro l’idea che le macchine possano pensare all’epoca gli arriva da Lady Lovelace, che sosteneva che le macchine possono fare solo ciò che gli esseri umani le dicono di fare. Turing risponde a questa obiezione con una serie di analogie affascinanti. Paragona le idee immesse in una macchina a neutroni che entrano in una pila atomica. Se la pila è sotto una certa dimensione critica, il disturbo causato dal neutrone scomparirà. Tuttavia, se la pila è abbastanza grande, il disturbo potrebbe crescere fino a distruggere l’intera pila. Turing si chiede se esista un fenomeno simile per la mente umana e per le macchine.

Un’altra analogia utilizzata da Turing è quella della “pelle della cipolla”. Egli suggerisce che, man mano che esploriamo le funzioni mentali e cerebrali, troviamo operazioni che possiamo spiegare in termini puramente meccanici. Tuttavia, ogni strato che rimuoviamo rivela un altro strato, fino a chiederci se alla fine troveremo una mente reale o solo un’altra pelle. Se tutto ciò che troviamo sono strati meccanici, allora forse tutta la mente è di tipo meccanico.

Turing ammette che le sue argomentazioni non sono definitive e propone di aspettare la fine del secolo per eseguire esperimenti concreti. Egli ritiene che il problema principale sia la programmazione, non la capacità tecnica delle macchine. Le valutazioni della capacità di memorizzazione del cervello umano variano enormemente, ma Turing crede che una macchina con una capacità di memorizzazione di 10^7 unità binarie potrebbe già essere sufficiente per giocare il “gioco dell’imitazione”.

Invece di programmare una macchina per simulare una mente adulta, Turing propone di iniziare con una mente infantile. Questa macchina-bambino potrebbe poi essere educata fino a diventare una mente adulta. Questo approccio divide il problema in due parti: il programma iniziale e il processo educativo. Turing suggerisce che il cervello infantile è simile a un taccuino con pochi meccanismi e molti fogli bianchi, rendendolo più facile da programmare.

Il processo educativo per una macchina dovrebbe includere punizioni e ricompense, ma anche altri canali di comunicazione. Turing ha sperimentato con macchine-bambino, ma riconosce che il metodo di insegnamento deve essere migliorato. Egli paragona l’apprendimento delle macchine all’evoluzione, suggerendo che il processo potrebbe essere accelerato dall’intelligenza dello sperimentatore.

La macchina-bambino potrebbe essere semplice o includere un sistema completo di inferenza logica. Le proposizioni e gli imperativi dovrebbero essere programmati in modo che la macchina possa eseguire azioni appropriate. Turing sottolinea che le regole di funzionamento della macchina possono cambiare nel processo di apprendimento, anche se le regole fondamentali rimangono invarianti.

Il futuro delle macchine pensanti

Turing conclude che le macchine potrebbero competere con gli esseri umani in tutti i campi intellettuali. Egli suggerisce di iniziare con attività astratte come il gioco degli scacchi o con l’insegnamento del linguaggio naturale. Questo processo potrebbe seguire il metodo d’insegnamento normale per un bambino, con le cose che vengono indicate e nominate.

Macchine che apprendono

di Alan Turing

Computing Machinery and Intelligence

Published in The Philosophy of Artificial… 1 October 1950

Il lettore si sara` gia` accorto che non ho alcun argomento molto convincente di carattere positivo per sostenere il mio punto di vista. Se l’avessi avuto non mi sarei certo dedicato con tanta cura a indicare gli errori dei punti di vista opposti al mio. Le prove che ho esporr`o ora.

Torniamo per un attimo all’obiezione di Lady Lovelace, secondo la quale la macchina puo` fare solo ci`o che noi le diciamo di fare. Si potrebbe dire che un uomo puo’ “iniettare” una idea nella macchina, e che essa rispondera` in una certa misura per poi ricadere di riposo, come una corda di pianoforte colpita da un martello. Un altro paragone potrebbe essere costituito da una pila atomica di grandezza inferiore a quella critica: un’idea im- messa corrisponderebbe allora a un neutrone che entra nella pila dal di fuori. Ciascun neutrone di questo tipo determinera` un certo disturbo che eventualmente poi scomparira’. Se, tuttavia, la grandezza della pila viene sufficientemente aumentata, il disturbo causato da un neutrone in ingresso molto probabilmente continuera` ad aumentare fino alla distruzione dell’intera pila. Esiste un fenomeno corrispondente per la mente, e ne esiste uno per le macchine? Per la mente umana sembra che ne esista uno. La maggior parte delle menti umane sembra essere “sotto il livello critico”, esse equivalgono cio`e in questa analo- gia alle pile di grandezza inferiore a quella critica. Un’idea che si presenti ad una mente di questo tipo fara` nascere in media meno di un’idea, in risposta. Una parte piuttosto delle menti umane `e, invece “sopra il livello critico”. Un’idea che si presenti ad una di queste menti pu`o far nascere un’intera teoria fatta di idee del secondo ordine, del terzo o ancora piu` remote. Attenendoci a questa analogia possiamo chiedere: “Si puo’ fare in modo che una macchina sia sopra il livello critico?” Anche l’analogia della “pelle della cipolla” puo` servire. Considerando le funzioni mentali o quelle del cervello troviamo certe operazioni che possiamo spiegare in termini puramente meccanici. Questo, diciamo, non corrisponde alla mente come essa `e in realta`: `e una specie di pelle che dobbiamo togliere se vogliamo trovare la mente reale. Ma poi in cio` che rimane troviamo un’altra pelle da togliere, e cos`ı via. Procedendo a questo modo arriviamo infine alla mente “reale”, o solo ad una pelle che non contiene nulla? Nell’ultimo caso tutta la mente sarebbe di tipo meccanico. (Non si tratterebbe comunque di una macchina a stati discreti. Ne abbiamo gia` discusso.)

Questi due ultimi paragrafi non pretendono di presentare argomenti convincenti. Dovreb- bero piuttosto essere descritti come “tirate” tendenti a far nascere una credenza.

L’unico sostegno veramente soddisfacente che pu`o essere fornito per il punto di vista espresso all’inizio del paragrafo 6 si avra` aspettando la fine di questo secolo ed eseguendo l’esperimento descritto. Ma cosa possiamo dire nel frattempo? Che passi dovremmo compiere ora, perch ́e l’esperimento riesca?

Come ho spiegato, il problema `e soprattutto di programmazione. Si dovranno com- piere progressi anche nella tecnica ma sembra improbabile che essi non risultino adeguati al bisogno. Le valutazioni della capacit`a di memorizzazione del cervello vanno da 1010 a 1015 unita` binarie.[4] Io sono incline a considerare piu` esatte le valutazioni piu` basse e penso che solo una parte piccolissima venga usata per i tipi superiori di pensiero. La mag- gior parte viene probabilmente usata per ritenere le impressioni visive. Mi sorprenderei se occorressero piu` di 109 unita` per giocare in modo soddisfacente il gioco dell’imitazione, almeno contro un cieco. (Si noti che la capacit`a dell’Enciclopedia britannica, undicesima edizione, `e di 2 × 109 unita` binarie.) Una capacita` di memorizzazione di 107 unita` sarebbe senz’altro alla nostra portata anche con le attuali tecniche. Non `e probabilmente affatto necessario aumentare la velocita` di funzionamento delle macchine. Le parti delle mac- chine moderne che possono essere considerate analoghe alle cellule nervose funzionano ad una velocita` circa mille volte superiore. Cio` dovrebbe fornire un “margine di sicurezza” sufficiente a compensare le perdite di velocita` che in vario modo possono determinarsi. Il nostro problema quindi `e di trovare il modo di programmare queste macchine per poter giocare il gioco. Al mio attuale ritmo di lavoro elaboro in un giorno circa mille unita`

di programma, cosicch ́e circa sessanta operatori, lavorando continuamente per cinquan- t’anni, potrebbero portare a termine il lavoro, se nulla dovesse venir cestinato. Appare desiderabile un metodo piu` rapido.

Cercando di imitare una mente umana adulta siamo tenuti a riflettere parecchio sul processo che l’ha condotta allo stato in cui si trova. Possiamo notare qui tre componenti:

  1. a)  lo stato iniziale della mente, diciamo alla nascita;
  2. b)  l’educazione cui `e stata sottoposta;
  3. c)  altre esperienze, che non possono venir descritte come educazione, che essa ha vissuto.

Invece di elaborare un programma per la simulazione di una mente adulta, perch ́e non proviamo piuttosto a realizzarne uno che simuli quella di un bambino? Se la macchina fosse poi sottoposta ad un appropriato corso d’istruzione, si otterrebbe un cervello adulto. Presumibilmente il cervello infantile `e qualcosa di simile ad un taccuino di quelli che si comprano dai cartolai. Poco meccanismo e una quantita` di fogli bianchi (meccanismo e scrittura sono dal nostro punto di vista quasi sinonimi). La nostra speranza `e che ci sia cosi poco meccanismo nel cervello infantile, che qualcosa di analogo possa venir facilmente programmato. Per il processo educativo possiamo supporre che il lavoro, in prima ap- prossimazione, sia pressappoco uguale a quello necessario per il bambino. Abbiamo cos`ı diviso il nostro problema in due parti. Il programma a livello infantile e il processo ed- ucativo. Essi sono strettamente connessi. Non possiamo aspettarci di trovare una buona macchina al primo tentativo. Bisogna sperimentare un metodo d’insegnamento per una macchina del genere e vedere in che misura essa impara. Si puo` poi provarne un’altra e vedere se `e migliore o peggiore. C’`e una connessione evidente tra questo processo e l’evoluzione:

Struttura della macchina-bambino Cambiamenti della macchina-bambino Giudizio dello sperimentatore

→ Materiale ereditario → Mutazioni
→ Selezione naturale

E` da sperare, peraltro, che questo processo sia piu` rapido dell’evoluzione. La soprav- vivenza del piu` adatto `e un metodo troppo lento per quanto concerne la evidenziazione del progresso realizzato. Lo sperimentatore, servendosi della sua intelligenza, dovrebbe essere in grado di renderlo piu` veloce. Ugualmente importante `e il fatto che egli pu`o non limitarsi ad attendere le mutazioni casuali. Se `e in grado di scoprire la causa di qualche difetto pu`o probabilmente pensare al tipo di mutazione che lo eliminerebbe.

Non sara` possibile applicare alla macchina proprio lo stesso metodo d’insegnamento che si usa per un bambino. Per esempio, essa non avra` gambe e quindi non le si potra` chiedere di uscire per riempire il secchio del carbone. Potrebbe non avere occhi. Ma anche

se questi difetti potessero venir brillantemente superati da abili espedienti meccanici, non si potrebbe mandare una simile creatura a scuola senza farla beffeggiare in modo eccessivo dagli altri bambini. Bisogna le sia data una certa protezione. Non dobbiamo preoccuparci troppo per le gambe, gli occhi, ecc. L’esempio di Helen Keller mostra che il processo educativo si puo` svolgere, purch ́e vi sia un mezzo per la comunicazione in ambedue le direzioni tra maestro e allievo.

Normalmente associamo punizioni e ricompense al processo d’insegnamento. Alcune semplici macchine-bambino possono essere programmate in base a questo tipo di prin- cipio. La macchina deve essere costruita in modo che sia impossibile che si ripetano gli avvenimenti che precedettero di poco il verificarsi di un segnale di punizione, mentre un segnale di ricompensa aumenta la probabilit`a di ripetizione degli avvenimenti che hanno condotto ad esso. Queste definizioni non presuppongono alcun sentimento da parte della macchina. Ho fatto alcuni esperimenti con una simile macchina-bambino e sono riuscito ad insegnarle alcune cose, ma il metodo d’insegnamento era troppo poco ortodosso perch ́e gli esperimenti potessero venir considerati veramente riusciti.

L’uso di punizioni e ricompense pu`o al piu` costituire una parte del processo d’insegna- mento. Parlando approssimativamente, se l’insegnante non ha altri mezzi per comunicare con l’allievo, la quantit`a di informazione che puo` fargli giungere non supera il numero totale delle ricompense e delle punizioni assegnategli. Quando un bambino avesse appre- so a ripetere “Casabianca”, si sentirebbe probabilmente davvero indolenzito, se la parola potesse venire individuata solo con una tecnica del tipo “venti domande”, ed ogni “no” si fosse tradotto in una botta. E` necessario percio` disporre di altri canali di comunicazione, “non emozionali”. Se vi sono questi canali, `e possibile mediante punizioni e premi in- segnare a una macchina ad eseguire ordini dati in un certo linguaggio, per esempio un linguaggio simbolico. L’uso di questo linguaggio diminuira` notevolmente il numero delle punizioni e delle ricompense necessario.

Ci possono essere vari punti di vista sulla complessita` piu` opportuna per la macchina- bambino. Si potrebbe tentare di farla piu` semplice possibile purch ́e in accordo coi principi generali. Oppure si potrebbe “incorporarvi” un sistema completo di inferenza logica.2 In quest’ultimo caso la memoria sarebbe in gran parte occupata da definizioni e proposizioni. Le proposizioni sarebbero di vari tipi, per esempio fatti ben fondati, congetture, teoremi dimostrati matematicamente, dichiarazioni fornite da un’autorita`, espressioni aventi la forma logica di una proposizione, ma nessun valore di credibilit`a.

Alcune proposizioni possono essere descritte come “imperativi”. La macchina dovrebbe venir costruita in modo che appena un imperativo viene classificato come “ben fondato” si svolge automaticamente l’azione opportuna. Per illustrare questo, supponiamo che l’insegnante dica alla macchina: “Fa’ i tuoi compiti ora.” Cio` potrebbe determinare l’in-

2O piuttosto “incorporare nella programmazione”, dato che la nostra macchina-bambino sar`a “programmata” da un calcolatore numerico. Non sar`a per`o necessario che il sistema logico venga appreso.

clusione tra i fatti ben fondati dell’espressione “L’insegnante dice: ’Fa’ i tuoi compiti ora’.” Un altro fatto simile potrebbe essere “Ogni cosa che dice l’insegnante `e vera”. La combinazione di queste espressioni potrebbe eventualmente condurre ad includere tra i fatti ben fondati l’imperativo “Fa’ i tuoi compiti ora”, e cio`, per il modo in cui la macchina `e costruita, significa che essa comincer`a effettivamente a fare i compiti, e che il risultato sara` molto soddisfacente. Il processo di inferenza usato dalla macchina non ha bisogno di possedere requisiti tali da soddisfare i logici piu` esigenti. Potrebbe, per esempio, non esserci alcuna gerarchia di tipi. Ma questo non significa necessariamente che verranno commessi errori di tipo, quant’`e vero che non siamo obbligati a cadere da un dirupo per il fatto che non `e recintato. Imperativi opportuni (espressi nell’ambito dei sistemi, non compresi nelle regole del sistema) come “Non usare una classe a meno che non sia una sottoclasse di una di cui ha parlato l’insegnante” possono avere un effetto simile a “Non avvicinarti troppo all’orlo”.

Gli imperativi cui puo` obbedire una macchina che non ha membra sono necessari- amente di tipo piuttosto intellettuale, come nell’esempio fornito sopra (fare i compiti). Avranno speciale importanza tra questi imperativi quelli che regolano l’ordine in cui de- vono essere applicate le regole del sistema logico in questione. Ad ogni livello infatti, quando si usa un sistema logico, c’`e un grandissimo numero di passi diversi, ciascuno dei quali pu`o essere compiuto, pur rispettando le regole del sistema logico in questione. Queste scelte mettono in luce la differenza tra un ragionatore brillante ed uno sciocco, non la differenza tra un ragionamento valido e uno errato. Le proposizioni che portano a imperativi di questo tipo potrebbero essere “quando si cita Socrate usare il sillogismo in barbara” oppure “Se `e stato provato che un metodo `e piu` rapido di un altro, non usare il metodo piu` lento”. Qualcuna di esse puo` essere fornita alla macchina “d’autorit`a”, ma altre possono essere prodotte dalla macchina stessa, per esempio per induzione scientifica.

L’idea di una macchina che impara puo` apparire paradossale ad alcuni lettori. Come possono cambiare le regole di funzionamento della macchina? Esse dovrebbero descrivere completamente come reagir`a la macchina qualsiasi possa essere la sua storia, a qualsiasi cambiamento possa essere soggetta. Le regole sono quindi assolutamente invarianti rispet- to al tempo. Questo `e verissimo. La spiegazione del paradosso `e che le regole che vengono cambiate nel processo di apprendimento sono di un tipo meno pretenzioso e intendono avere solo una validit`a temporanea. Il lettore puo` fare un parallelo con la costituzione degli Stati Uniti.

Una caratteristica importante di una macchina che impara `e che il suo insegnante ig- norera` spesso in gran parte cio` che di preciso si verifica al suo interno, quantunque possa essere in grado dl predire in qualche misura il comportamento del suo allievo. (Questo dovrebbe valere nel modo piu` deciso per l’educazione successiva di una macchina nata da una macchina-bambino ben progettata (o programmata). Ci`o contrasta nettamente con la procedura normale quando si usa una macchina per fare calcoli: lo scopo `e allora

di avere una chiara immagine mentale dello stato della macchina in ogni momento del calcolo. Questo scopo puo` essere conseguito con uno sforzo. La teoria che “la macchina puo` fare soltanto cio` che sappiamo come ordinarle”, sembra strana se consideriamo tutto questo. La maggior parte dei programmi che possiamo inserire nella macchina avranno come risultato di farle fare qualcosa che non possiamo assolutamente capire, o che giu- dichiamo come comportamento completamente casuale. Il comportamento intelligente consiste presumibilmente nello staccarsi dal comportamento completamente prevedibile implicato nel calcolo, ma di poco, in modo da non determinare un comportamento casuale o dei giri viziosi che si risolvono in inutili ripetizioni. Preparando la macchina per la sua parte nel gioco dell’imitazione mediante un processo di insegnamento e di apprendimento conseguiamo un altro importante risultato: `e probabile cio`e non occorra piu` preoccuparsi della “capacita` dell’uomo di commettere errori” imitandola in modo naturale, ossia senza un “tirocinio speciale”. I processi che si apprendono non assicurano al cento per cen- to il risultato: altrimenti non potrebbero essere disimparati. E` probabilmente un buon provvedimento introdurre un elemento casuale in una macchina che impara. Un elemento casuale `e piuttosto utile quando cerchiamo la soluzione di qualche problema. Supponi- amo, per esempio, di voler trovare un numero tra 50 e 200 uguale al quadrato della somma delle sue unit`a; potremmo cominciare con 51, poi con 52 e continuare fino ad ottenere un numero che vada bene. Come alternativa, potremmo scegliere numeri a caso fino a trovarne uno buono. Tale metodo ha il vantaggio che non `e necessario tenere conto dei valori gi`a provati, ma lo svantaggio che sussiste la possibilit`a di provare due volte lo stesso numero; questo per`o non ha molta importanza se esistono diverse soluzioni. Il metodo sistematico ha lo svantaggio che pu`o esserci un blocco enorme senza alcuna soluzione pro- prio nel gruppo che deve essere esaminato per primo. Ora il processo di apprendimento puo` essere considerato come la ricerca di una forma di comportamento che soddisfara` l’insegnante (o qualche altro criterio). Dato che esiste probabilmente un gran numero di soluzioni soddisfacenti, il metodo casuale sembra migliore di quello sistematico. Bisogna notare che esso `e impiegato nell’analogo processo dell’evoluzione. Ma in quel caso il meto- do sistematico non `e possibile. Come si potrebbe tener conto delle diverse combinazioni genetiche che sono state tentate, in modo da evitare di sperimentarle di nuovo?

Possiamo sperare che le macchine saranno alla fine in grado di competere con gli uomini in tutti i campi puramente intellettuali. Ma quali sono i migliori per cominciare? Anche questa `e una decisione difficile. Molta gente pensa che un’attivita` molto astratta, come giocare a scacchi, sarebbe la migliore. Si puo` anche sostenere che `e meglio fornire alla macchina i migliori organi di senso che si possano comprare e poi insegnarle a capire e parlare l’inglese. Questo processo potrebbe seguire il metodo d’insegnamento normale per un bambino. Le cose verrebbero indicate, verrebbe dato loro un nome, ecc. Ancora una volta ignoro quale sia la risposta esatta, ma penso che bisognerebbe tentare ambedue le strade.

@ RIPRODUZIONE RISERVATA

China-Linked CeranaKeeper Targeting Southeast Asia with Data Exfiltration

Fake Job Applications Deliver Dangerous More_eggs Malware to HR Professionals

Alert: Over 700,000 DrayTek Routers Exposed to Hacking via 14 New Vulnerabilities

Alert: Adobe Commerce and Magento Stores Under Attack from CosmicSting Exploit

5 Must-Have Tools for Effective Dynamic Malware Analysis

Researchers Sound Alarm on Active Attacks Exploiting Critical Zimbra Postjournal Flaw

AI-Powered Rhadamanthys Stealer Targets Crypto Wallets with Image Recognition

CISA Kicks Off 21st Anniversary of Cybersecurity Awareness Month

5 Actionable Steps to Prevent GenAI Data Leaks Without Fully Blocking AI Usage

Free Sniper Dz Phishing Tools Fuel 140,000+ Cyber Attacks Targeting User Credentials

New Cryptojacking Attack Targets Docker API to Create Malicious Swarm Botnet

U.K. Hacker Charged in $3.75 Million Insider Trading Scheme Using Hacked Executive Emails

THN Cybersecurity Recap: Last Week’s Top Threats and Trends (September 23-29)

Critical Flaws in Tank Gauge Systems Expose Gas Stations to Remote Attacks

ᴘᴀᴏʟᴀ ɢɪᴀɴɴᴇᴛᴀᴋɪꜱ