In generale, nella nuova robotica c’è la tendenza a ricorrere al vocabolario delle rap- presentazioni solo quando, per così dire, non se ne può fare a meno, ovvero, più precisamente, quando si lascia il livello puramente reattivo (taxon system), nel quale il lessico delle rappresentazioni sarebbe banale, per passare a quello topologico (è il caso di Mataric) e, a maggior ragione, a quello metrico (locale system) o delle mappe cognitive (il caso di Wyeth e Browning). Nolfi e Floreano (2000: cap. 5) mostrano come robot puramente reattivi sono capaci di risolvere alcuni compiti per i quali, nella 9 Si veda anche (Clark 1997). 13 Roberto Cordeschi ricerca su animali reali da Tolman a Gallistel, si erano invocate rappresentazioni com- plesse come le mappe cognitive. Ma essi mostrano anche come questi stessi robot reattivi, man mano che si riducono le restrizioni sull’ambiente, diventano sempre meno abili nell’affrontare quegli stessi compiti, che possono essere risolti solo da agenti dotati di stati interni ai quali essi riconoscono lo status di rappresentazioni. Parafrasando quello che David Marr e Tomaso Poggio dicevano del loro lavoro sulla visione, la massima sarebbe in questi casi quella di esaminare tutti i modi possibili di “spremere l’ultima goccia di informazione” dal livello reattivo prima di parlare dell’influenza di rappresentazioni, modelli del mondo o mappe sul comportamento intelligente10 Circa la natura delle rappresentazioni, una volta ammesse, le opinioni sono contra- stanti, e riflettono la varietà dei punti di vista ormai usuale in IA, classica o nouvelle che sia. Per tornare ad alcuni dei casi esaminati, per Dickinson e Dyer si può parlare di rappresentazioni anche per i pattern connessionisti, a patto di distinguere le relative computazioni. Per Gallistel le rappresentazioni sono solo simboliche, quale che sia la loro complessità, e i pattern connessionisti, non essendo considerati da lui simbolici, non sono rappresentazioni.11 Si parla dunque, come si è visto, di rappresentazioni che possono essere di diversa complessità e accuratezza, esplicite o implicite, metriche o topologiche, centralizzate o distribuite. E in generale si parla di rappresentazioni sim- boliche quando si è in presenza di costrutti dotati di proprietà ritenute analoghe a quel- le linguistiche.12 Ho ricordato all’inizio come ricorrenti valutazioni polemiche da parte di alcune tendenze dell’IA nouvelle identificano nell’Ipotesi del Sistema Fisico di Simboli (PSSH) il “paradigma” linguistico per eccellenza dell’IA classica. Tuttavia, un con- fronto di qualche anno fa tra sostenitori e critici della PSSH mostra come questa inter- pretazione sia quanto meno opinabile. Sarebbe opportuno tenerne conto, per evitare di porre in un modo troppo sbrigativo l’identificazione tra simbolico e linguistico in IA classica e per affrontare senza pregiudizi i difficili problemi che stanno alla base della costruzione dei modelli della vita mentale, tra i quali quello della natura delle rappre- sentazioni. Mi riferisco all’interpretazione data da Herbert Simon e Alonso Vera in termini di sistemi di elaborazione simbolica dell’informazione (dunque in termini di sistemi fisici di simboli) di sistemi tradizionalmente non considerati tali, come quelli proposti dai teorici dell’azione situata e quelli alla Brooks. Detto in breve, l’idea di simbolo che sta alla base della PSSH è che un simbolo è un pattern che denota, e la nozione di denotazione è quella che dà al simbolo la sua capacità rappresentazionale.13 I pattern possono denotare altri pattern, sia interni al 10 L’espressione di Marr e Poggio è citata da Fodor (1983, p. 118). 11 Si veda per una formulazione particolarmente esplicita (Gallistel 1999). 12 Detto in breve, tali proprietà riguardano, tra l’altro, la produttività, ovvero la capacità di generare e capire un insieme illimitato di frasi, e la sistematicità, ovvero la capacità di capire ad esempio tanto aRb quanto bRa. Fodor ne ha fatto la base per la sua controversa ipotesi del “linguaggio del pensiero” Per una introduzione all’argomento, si veda (Di Francesco 2002). 13 Per pattern si intende, come sarà più chiaro nel seguito, una struttura fisica, biologica o inor- ganica, che può essere oggetto di processi computazionali—codifica, decodifica, registrazione, cancellazione, cambiamento, confronto—i quali occorrono in sistemi diversi, in un calcolatore e nel sistema nervoso, anche se in quest’ultimo caso non sappiamo nei dettagli come. Questa tesi provocò diverse reazioni (si vedano i volumi 17 e 18 di Cognitive Science). Si noti che nelle intenzioni di Simon e Vera la tesi non comporta che ogni pattern sia dotato di meccanismo 14 Vecchi problemi filosofici per la nuova intelligenza artificiale sistema che esterni ad esso (nel mondo reale), e anche stimoli sensoriali e azioni mo- torie. Processi tanto biologici quanto inorganici possono essere simbolici in questo senso e, dal punto di vista sostenuto da Simon e Vera, i relativi sistemi sono sempre sistemi fisici di simboli, ma a diversi livelli di complessità. Per esempio, nel caso più semplice che riguarda gli organismi, anche l’azione riflessa (subcorticale) è un processo simbolico: la codifica di un simbolo provocata da un ingresso sensoriale, poniamo la bruciatura di una mano, dà luogo alla codifica di un simbolo motorio, con la conseguente rapida effettuazione dell’azione, in questo caso il ritirare la mano. Più precisamente, l’idea è che “il sistema nervoso non trasmette certo la bruciatura, ma ne comunica l’occorrenza. Il simbolo che denota l’evento [la brucia- tura] viene trasmesso al midollo spinale, che a sua volta trasmette un simbolo ai mu- scoli, i quali esercitano la contrazione che consente di ritirare la mano” (Vera e Simon 1994: 358). Nel caso degli artefatti, già il solito termostato è un sistema fisico di sim- boli, sebbene particolarmente semplice: il suo livello di tensione è un simbolo che denota uno stato del mondo esterno (p. 357). Come ho ricordato, anche Brooks ha finito per riconoscere alle rappresentazioni un loro ruolo nel comportamento dei suoi robot, se non altro alle rappresentazioni “relati- ve al particolare compito per il quale sono usate” (i “modelli parziali del mondo”), quali potrebbero essere, a diversi livelli di complessità, quelle usate da agenti naturali come Cataglyphis o da agenti artificiali come Toto o il solutore di labirinti sopra ri- cordato. Simon e Vera considererebbero senz’altro agenti del genere come sistemi fisici di simboli, dotati di un’attività rappresentazionale molto sofisticata, anche se specializzata a un compito particolare. Ma essi includono tra i sistemi fisici di simboli anche artefatti molto più semplici, come il ricordato termostato, e agenti robotici pu- ramente reattivi o collocabili al livello del taxon system (che, seguendo Prescott, era stato definito come una catena di associazioni consistenti in coppie <stimolo, azio- ne>). Secondo i due autori, i primi robot alla Brooks sono (un tipo relativamente sem- plice di) sistemi fisici di simboli: anche l’interazione senso-motoria diretta di un agen- te con l’ambiente nella misura in cui dà luogo a un comportamento coerente alle rego- larità dell’ambiente, non può essere considerata se non come manipolazione simboli- ca. Ho ricordato sopra il semplice comportamento reattivo di Allen, che tramite sonar evita ostacoli presenti in un ambiente reale. In questo caso, i suoi ingressi sensoriali danno luogo a un processo di codifica, e i costrutti in gioco (i simboli, secondo la definizione sopra ricordata) che risultano da tale interazione sensoriale, e poi motoria, dell’agente con l’ambiente sono rappresentazioni interne (degli ostacoli esterni da evitare) in un senso non banale: l’informazione sensoriale captata dal robot è converti- ta in simboli, i quali sono manipolati al fine di determinare gli appropriati simboli motori che evocano o modificano un certo comportamento. L’assenza di memoria in questo tipo di agente comporta che l’azione sia eseguita senza una rappresentazione esplicita del piano e dell’obiettivo che orienta l’azione stessa (senza pianificazione), ma non che non ci sia attività rappresentazionale (simbolica). Qual è la natura di questi simboli, di queste rappresentazioni simboliche? denotazionale, cosa che evidentemente renderebbe banale questa definizione di simbolo: ci sono pattern che non denotano, tanto naturali quanto artificiali (si veda Vera e Simon 1994, p. 356). Sulla sufficienza della denotazione per caratterizzare la nozione di simbolo (come di rappresen- tazione) si è molto discusso. Si veda (Bechtel 1998) per una discussione particolarmente utile ai fini del punto di vista sostenuto nel presente articolo. 15 Roberto Cordeschi Nel caso degli artefatti più semplici si tratta di rappresentazioni analogiche che stabiliscono e mantengono la relazione funzionale del sistema con l’ambiente. Questo, si è visto, è già vero per il solito termostato. Nel caso di Allen o di Toto e di altri robot simili (come pure di certi sistemi connessionisti, o che includono sistemi connessioni- sti), tali rappresentazioni (analogiche) hanno carattere temporaneo (senza intervento di memoria) e distribuito (non sono sottoposte a controllo centralizzato). In questi casi, una rappresentazione certo imprecisa ma sufficientemente efficace è fornita da un sonar sotto forma di un pattern interno fisico (un pattern di nodi della rete, nel caso di un sistema connessionista): essa denota o rappresenta per il robot un ostacolo o una certa curvatura di una parete o di un percorso. Una volta che tale pattern venga comu- nicato a uno sterzo, esso determina l’angolo della ruota sterzante del carrello del ro- bot. Per quanto diversa a seconda dei casi, è sempre presente un processo di codifica- elaborazione-decodifica non banale, che stabilisce una ben precisa relazione funziona- le tra il sistema e l’ambiente, e spiega il comportamento coerente dell’agente nell’interazione con il mondo. Non parlare di rappresentazioni interne, e limitarsi a dire che un agente “intrattiene certe relazioni causali con il mondo, non spiega come tali relazioni vengano mantenute. E’ del tutto ragionevole sostenere che un agente mantiene l’orientamento verso un oggetto tramite una relazione causale con esso e che tale relazione è un pattern di interazione, ma non ha senso pensare che tale pattern venga prodotto per magia, senza un corrispondente cambiamento di stato rappresenta- zionale dell’agente, ovvero che esso possa aver luogo senza una rappresentazione [interna] fosse pur minima” (Vera e Simon 1993a: 40). Rappresentazioni più complesse, che sono alla base di un’attività non semplice- mente percettiva (diretta), sono presenti in altri casi, quando entrano in gioco la me- moria, l’apprendimento, il riconoscimento di oggetti e l’elaborazione di concetti, la formulazione esplicita di una mappa o di piani alternativi, sotto forma di rappresenta- zioni off-line, e ancora. In molte di queste attività “alte” intervengono rappresentazioni esplicite, linguistiche e metriche, ma se si riconosce che la cognizione richiede questo tipo di rappresentazioni, è difficile mettere in dubbio che tali attività non condividono con attività più “basse” come la percezione, sulle quali esse vengono elaborate, il meccanismo denotazionale, sia pure in una forma minimale. A meno di restringere arbitrariamente la nozione di rappresentazione e di simbolo, non c’è ragione di riser- varla esclusivamente a pattern linguistici, o ai costrutti della semantica denotazionale (variabili da vincolare ecc.). Penso si possa sottoscrivere questa conclusione di Be- chtel: “la nozione base [di rappresentazione] è effettivamente minimale, tale da rende- re le rappresentazioni più o meno ubique. Esse sono presenti in ogni sistema organiz- zato che si è evoluto o è stato progettato in modo da coordinare il suo comportamento con le caratteristiche dell’ambiente. Ci sono dunque rappresentazioni nel regolatore di Watt, nei sistemi biochimici e nei sistemi cognitivi” (Bechtel 1998: 313).14 14 Il riferimento di Bechtel al regolatore di Watt è polemico nei confronti di van Gelder (1995), che ne faceva il prototipo della sua concezione non computazionale e non simbolica della co- gnizione. In realtà questo tipo di artefatti analogici (sistemi a feedback negativo e servomecca- nismi) erano stati interpretati come sistemi rappresentazionali già all’epoca della cibernetica, in primo luogo da Kenneth Craik, che ne aveva fatto la base per una “teoria simbolica del pensie- ro”, come egli la chiamava, per la quale “il sistema nervoso è visto come una macchina calcola- trice capace di costruire un modello o un parallelo della realtà” (per dettagli si veda Cordeschi 2002, pp. 137 sgg.). Non entriamo in questa sede sui diversi problemi relativi al contenuto delle 16 Vecchi problemi filosofici per la nuova intelligenza artificiale Simon e Vera distinguono il livello della modellizzazione simbolica da quello della realizzazione fisica (sia biologica che inorganica) di un agente. Nell’interazione con l’ambiente, un agente ha un’attività rappresentazionale che è data dalle caratteri- stiche specifiche del suo apparato fisico di codifica-elaborazione-decodifica di simbo- li. Si pensi ancora alla codifica, molto approssimativa ma generalmente efficace, at- traverso sonar degli ostacoli da parte di un robot reattivo, e alla relativa decodifica che si conclude in un ben determinato movimento. La modellizzazione simbolica di questa capacità non appare in linea di principio diversa da quella “alta” sopra ricordata. L’idea è che tutti questi tipi o livelli di rappresentazioni, da quelli legati alla percezio- ne a quelli più alti della “ricognizione” (per usare un termine di Neisser), possono essere opportunamente modellizzati attraverso regole di produzione, come livello di descrizione di un sistema fisico di simboli. Un robot basato sull’architettura della sussunzione non fa eccezione. Ad esempio, il funzionamento di un modulo reattivo al livello più basso dell’architettura, che con- trolla la reazione di evitamento di ostacoli, potrebbe essere reso da un’unica regola di produzione del tipo “se c’è un ostacolo (rilevato attraverso sonar e bussola) allora fermati”.15 Questa possibilità sembra essere stata presa in considerazione dallo stesso Brooks, che però la respingeva in questi termini: “Un sistema di produzione standard in realtà è qualcosa di più [di un robot behavior-based], perché ha una base di regole dalla quale se ne seleziona una attraverso il confronto tra la precondizione di ogni regola e una certa base di dati. Le precondizioni possono contenere variabili che de- vono essere confrontate con costanti nella base di dati. I livelli [dell’architettura della sussunzione] funzionano in parallelo e non ci sono variabili né c’è bisogno di tale confronto. Piuttosto, vengono estratti aspetti del mondo, che evocano o modificano direttamente certi comportamenti a quel livello” (Brooks 1991: 155). Tuttavia, se distinguiamo il livello della realizzazione fisica da quello della sua modellizzazione, quella che Brooks chiama l’estrazione degli “aspetti del mondo” rilevanti per l’azione è descritta in modo adeguato da un opportuno sistema di regole di produzione, e tramite tale sistema un certo comportamento di una sua creatura può essere evocato o modificato nell’interazione con l’ambiente. E questo modello (a regole di produzione) delle regolarità comportamentali di diversi livelli dell’architettura della sussunzione può essere implementata in un dispositivo che, grazie all’elevato grado di parallelismo, presenta doti di adattività, robustezza e rispo- sta in tempo reale paragonabili a quelle di un dispositivo behavior-based (Burattini et al., in preparazione). In questo senso, le regole di descrizione danno una modellizza- zione adeguata del comportamento di un agente situato. Oltre alle risposte automatiche, che nel caso dell’azione riflessa o “innata” e di quella reattiva possono essere rese attraverso un’unica regola di produzione (qualcosa che corrisponda a una relazione comportamentista S→R), esistono le azioni automa- rappresentazioni, al ruolo dell’utente degli artefatti e alla natura della spiegazione cognitiva. L’articolo di Bechtel contiene una disanima efficace di questi problemi, rispetto a posizioni diverse come quella sostenuta da Clancey (1993) contro la tesi di Vera e Simon. (Sempre in Cordeschi 2002, cap. 7 si possono trovare argomenti convergenti con la tesi sostenuta da Be- chtel.) 15 In breve, le regole di produzione hanno la forma “se... allora”, o CONDIZIONE → AZIONE. La memoria a lungo termine di un sistema fisico di simboli è costituita da tali regole: gli antecendenti CONDIZIONE permettono l’accesso ai dati in memoria, codificati dai conse- guenti AZIONE. 17 Roberto Cordeschi tizzate a seguito dell’apprendimento, quando cioè le regolarità relative a un certo comportamento sono state memorizzate, o quelle che comportano una relazione “di- retta” con il mondo tramite le affordance alla Gibson.16 Un esempio sono le risposte immediate che fanno seguito a sollecitazioni improvvise o impreviste provenienti dall’ambiente Ora i teorici dell’azione situata (e, come si è visto, i nuovi robotici) insistono sul fatto che questi casi di interazione diretta con l’ambiente si svolgono in tempo reale, senza cioè che sia possibile quella presa di decisione, diciamo così, meditata che ri- chiede la manipolazione di rappresentazioni e la pianificazione dell’azione. Si pensi all’esempio di Winograd e Flores (1986) dell’automobilista che, guidando, affronta una curva a sinistra. In primo luogo, secondo i due autori, non è necessario che egli faccia continuamente riferimento a conoscenze codificate sotto forma di regole di produzione—non è necessario riconoscere una strada per accorgersi che è “percorribi- le” (la “percorribilità”, questa è la tesi, è colta nella relazione diretta agente- ambiente). In secondo luogo, la decisione è presa dall’agente, per così dire, senza pensarci (senza pensare di posizionare le mani, di contrarre i muscoli, di girare lo sterzo in modo che le ruote vadano a sinistra ecc.). Tutto ciò avviene automaticamente e immediatamente, dunque senza applicare qualcosa come una successione di regole di produzione “se... allora...”. In conclusione, la tesi è che non è possibile modellizza- re questo aspetto della presa di decisione istantanea, o in tempo reale, attraverso un dispositivo che comporta codifica-elaborazione-decodifica di simboli, dunque compu- tazioni, regole di produzione e così via. L’obiettivo della critica di Winograd e Flores è la teoria della presa di decisione nello spazio del problema, con il quale ha a che fare l’agente a razionalità limitata di Simon. Ora, se prendiamo sul serio la teoria di Simon, va detto che alla base del carat- tere limitato della razionalità dell’agente sta la complessità dell’ambiente non meno dei limiti interni dell’agente stesso (limiti di memoria, di conoscenza della situazione ecc.). Nel prendere la decisione, quest’ultimo, secondo la teoria di Simon, in generale non è in grado di considerare, come spazio delle alternative pertinenti, lo spazio di tutte le possibilità, ma solo una parte più o meno piccola di esso, e questa selezione avviene sulla base delle sue conoscenze, aspettative ed esperienze precedenti. Ora una presa di decisione istantanea, non meno di una presa di decisione meditata, è condi- zionata da questi elementi, i quali, una volta che abbiano indotto, poniamo attraverso l’apprendimento, la formazione di schemi automatici di comportamento (di risposte motorie, nell’esempio di sopra), finiscono per determinare l’esclusione immediata di certe alternative possibili (come, nell’esempio della guida, innestare la marcia indie- tro) a vantaggio di altre (come scalare marcia, frenare ecc.), e tra queste altre quelle suggerite dalla conoscenza dell’ambiente stesso (fondo strada bagnato ecc.) e dalle 16 Le affordance, nella terminologia di Gibson (1986) sono invarianti dell’ambiente che vengo- no “colte” (picked up) dall’agente “direttamente” nella sua interazione con l’ambiente stesso, e “direttamente” viene interpretato come: senza la mediazione di rappresentazioni e di computa- zioni su esse. Un esempio sono i movimenti dell’agente in un ambiente nel quale deve evitare oggetti o seguirne la sagomatura e così via: un po’ quello che fanno i robot reattivi di cui ho parlato. L’esempio del termostato è ricorrente in scienza cognitiva e in filosofia della mente dai tempi della cibernetica (si pensi a Donald MacKay, Daniel Dennett, Zenon Pylyshyn, Jerry Fodor ecc.). E’ evidente che definire sistemi fisici di simboli artefatti di questo tipo (e del tipo dei robot di Brooks, come vedremo) comporta rinunciare al requisito dell’universalità per tali sistemi (sul quale si veda Newell 1980). 18 Vecchi problemi filosofici per la nuova intelligenza artificiale aspettative pertinenti.17 Secondo le stesse parole di Simon “il solutore di problemi non percepisce mai Dinge an sich, ma solo stimoli esterni filtrati attraverso i propri pre- concetti” (Simon 1973: 199). Di norma, dunque, l’informazione considerata dall’agente non è collocata in uno spazio bene ordinato di alternative, generato dalla formulazione del problema: tale informazione è generalmente incompleta, ma è pur sempre sostenuta dalla conoscenza della situazione da parte dell’agente. La proposta è, dunque, che la modellizzazione a regole di produzione di un’azione del genere, e in generale di una affordance, è un simbolo che, via il sistema percettivo di codifica, raggiunge la memoria del sistema per soddisfare la CONDIZIONE di una regola di produzione esplicita. In questo modo, soddisfatta la CONDIZIONE, si attiva la regola, e la produzione (la decodifica) del simbolo di AZIONE avvia la risposta motoria. Da questo punto di vista, le affordance sono rappresentazioni di pattern del mondo esterno, ma con una particolarità: quella di essere codificate in un modo particolar- mente semplice. Nell’esempio di sopra, una volta che si sia imparato a guidare, la regola è qualcosa come: “se la curva è a sinistra allora gira a sinistra”. Questa regola rappresenta la situazione al livello funzionale più “alto”, secondo la terminologia dei due autori, nel quale la rappresentazione che entra in gioco è “minima”. Un termine del genere, a proposito delle rappresentazioni, lo abbiamo visto usato da Gallistel, ma per Simon e Vera il termine rimanda alla forma della regola indicata, che può essere rapidamente applicata: in questo caso, cioè, non c’è bisogno di evocare i livelli “bassi” o soggiacenti, quelli coinvolti con l’analisi dettagliata dello spazio del problema e con l’applicazione delle opportune strategie di soluzione, che comportano computazioni generalmente complesse, sotto forma di successioni di regole di produzione. Questi livelli intervengono nelle fasi dell’apprendimento (quando si impara come affrontare le curve), e possono essere evocati dall’agente quando la situazione si fa complicata (si pensi a una curva a raggio variabile, che rivela la complessità dell’interazione codi- fica percettiva-decodifica motoria). E tanto un apprendimento imperfetto quanto una carenza, per i più svariati motivi, dell’informazione percettiva rilevante possono anche ostacolare l’accesso ai livelli soggiacenti che potrebbero dare luogo alla risposta cor- retta (non tutti coloro che hanno imparato a guidare riescono ad affrontare tutte le curve con pieno successo in ogni situazione possibile). Insomma, in questa interpretazione di Simon e Vera l’interazione in tempo reale dell’agente con l’ambiente è data non dal fatto di essere non simbolica e di non poter essere modellizzata mediante regole di produzione, ma dal fatto di non dover accede- re, per dare la risposta corretta, alla complessità delle procedure di elaborazione sim- bolica dei livelli soggiacenti a quello “alto”. E’ nell’attività cognitiva ai livelli soggia- centi, allorché si elaborano piani e strategie di soluzione di problemi, che viene evi- denziata la consapevolezza dell’agente. Simon e Vera ponevano infine un problema che riguarda i limiti degli approcci reattivi, sul quale mi sono già soffermato, e che mi sembra condivisibile: “E’ tuttora dubbio se questo approccio [behavior-based] si possa estendere alla soluzione di pro- blemi più complessi. Le rappresentazioni non centralizzate e le azioni non pianificate possono funzionare bene nel caso di creature insettoidi, ma possono risultare insuffi- cienti per la soluzione di problemi più complessi. Certo, la formica di Simon non ha 17 Su questo tipo di comportamento, che può essere visto in termini di “percezione attesa”, si veda (Datteri 2002, cap. 4). 19 Roberto Cordeschi bisogno di una rappresentazione centralizzata e stabile del suo ambiente. Per tornare al nido zigzagando essa non usa una rappresentazione della collocazione di ciascun gra- nello di sabbia in relazione alla meta. [...] Ma gli organismi superiori sembrano lavo- rare su una rappresentazione del mondo più robusta, [...] una rappresentazione più complessa di quella di una formica, più stabile e tale da poter essere manipolata per astrarre nuova informazione” (Vera e Simon 1993a: 34).18 La successiva evoluzione della robotica sembra confermare questa osservazione.
Thursday, May 13, 2021
Subscribe to:
Post Comments (Atom)
No comments:
Post a Comment