INTELLIGENZA MILITARE-ARTIFICIALE
   

di Tom Athanasiou
tratto da
Bad Attitude

   
    La gente del mestiere ha raramente una preveggenza simile, anche se possiamo sperare di vedere dei cambiamenti in futuro. Frederick Hayes-Roth, ricercatore capo alla Teknolewdge, una ditta di Palo Alto che ha la reputazione di propagare il vero vangelo dell'Ia, la mette così: "Il primo segnale di spiazzamento dei professionisti umani da parte delle macchine è la standardizzazione della metodologia professionale. Questo tipo d'attività generalmente resiste alla standardizzazione e all'integrazione. Col tempo, però, emergono spesso metodi standard di efficacia adeguata." Più specificamente: "Progettazione, diagnosi, procedure di controllo e volo sono tutti compiti che paiono completamente raggiungibili dalle capacità odierne dei sistemi di conoscenza. Sono composti largamente di interpretazione da parte di sensori (con l'eccezione della progettazione), di ragionamento simbolico e di pianificazione euristica, tutti interni al campo dei sistemi di conoscenza. Gli ostacoli maggiori all'automazione di questi impieghi saranno probabilmente costituiti dalla carenza di note e strumentazioni standardizzate e, in particolare nel caso dei piloti,dalla resistenza professionale." Hayes-Roth, naturalmente, viene pagato per essere ottimista, ma prevede ugualmente un "controllo del traffico aereo completamente automatizzato" per il 1990-2000. Peccato per il "Patco".

Automatizzando l'esercito

Il 28 ottobre 1983, la Darpa (Defense advanced research projects agency) [Agenzia per i progetti di ricerca militare avanzata; N.d.T.] presenta la Strategic Computing Initiative (d'ora in poi Sci), lanciando un programma quinquennale da seicento milioni di dollari per imbrigliare l'Ia a scopi militari. Gli scopi immediati del programma sono "carri armati autonomi" (robot assassini) per l'esercito, un "pilota associato" per l'aviazione e "sistemi intelligenti di amministrazione del combattimento" per la marina. Se tutto andrà come da programma, questi strumenti saranno costruiti con la nuova tecnologia all'arseniuro di gallio che, a differenza del silicio, resiste alle radiazioni. Ottimi per condurre una guerra nucleare di lunga durata, mio caro.
E queste sono solo tre cime di un iceberg che si va espandendo. L'intelligenza meccanica, se mai funzionerà, permetterebbe ai militari di passare a sistemi autonomi e semi-autonomi, capaci di amministrare la velocità e la complessità sempre crescente della guerra "moderna". "Defense Electronics" ha recentemente citato David Kahn, direttore per le tecnologie di processo delle informazioni alla Darpa, il quale ha sostenuto che "fra cinque anni vedremo le forze armate richiedere a gran voce intelligenza artificiale."
In cima alla lista dei programmi militari destinati a beneficiare dall'Sci c'è il sistema, proposto da Reagan, di "Guerre stellari", un apparato di "difesa" di missili balistici che richiederebbe satelliti militari virtualmente autonomi altamente automatizzati, in grado di reagire con rapidità sufficiente a distruggere i missili sovietici durante la fase d'ascesa, prima del lancio delle testate multiple. Un sistema simile sarebbe equivalente a un lancio automatico in caso d'allarme; il suo uso costituirebbe atto di guerra.
E i militari sarebbero tanto stupidi da affidare a un computer il controllo? Riflettiamo su questo estratto dalla minuta di una seduta congressuale sul programma Guerre stellari, citato dal "Los Angeles Times" del 26 aprile 1984:

"Qualcuno ha detto al presidente che si trova al di fuori del processo
decisionale?" ha domandato il senatore Paul Tsongas.
"Di certo, non io." ha detto Kenworth (consigliere scientifico di
Reagan)
A quel punto, Tsongas esplode: "Forse dovremmo candidare R2-D2 [il robot
del film "Guerre Stellari"; N.d.T.] come presidente per il 1990.
Almeno sarebbe collegato tutto il tempo."
Il senatore Joseph Biden insisteva sull'argomento di possibili errori che
avrebbero potuto provocare i russi a scatenare un vero attacco. "Supponiamo che
il presidente stesso commetta un errore...," disse.
"Perché?" interrompe Cooper (capo della Darpa). "Possiamo avere la
tecnologia per non fargli commettere un errore del genere."
"Ok," dice Biden. "Mi ha convinto. Mi ha convinto che non la desidero alla
guida di questo programma."

Ma il suo rimpiazzo, se Cooper avesse perso la carica, sarebbe stato più che probabilmente un seguace della stessa religione. Credere nella perfettibilità della macchina intelligente è un articolo di fede comune nell'Ia. Non si tratta del realismo cocciuto di militari seri, costretti a mezzi estremi dalla dura realtà. Si tratta piuttosto della pericolosa fantasia di potenti sopraffatti dalle loro stesse mitologie, mitologie che crescono rigogliose dalla retorica super-arroventata della cultura dell'Ia.
Quella militare è una burocrazia come ogni altra, quindi non è sorprendente scoprire che i suoi planner di più alto livello soffrono della stessa ideologia ingegneristica di perfettibilità tecnica comune alla loro controparte civile. Allo stesso modo, possiamo attenderci resistenze nei confronti dell'automazione Ia da parte dei quadri intermedi militari. Se ne vedono già i primi segni. Gary Martins, specialista militare Ia, da un'intervista su "Defense Electronic" (gen.'83): "Macchine che sembrano minacciare l'autonomia e l'integrità dei comandanti non possono attendersi una facile accettazione; sarebbe disastroso introdurle d'ufficio. Dovremmo studiare come progettare sistemi di management militari che rafforzino, invece di minarla,lo status e la funzionalità dei propri utenti di medio livello."
Un'aspetto notevole di certe "interfacce utente": ogni volta che il sistema si riferisce alla propria base di conoscenze usa l'espressione "Mi hai insegnato che.." per avvertire l'operatore. Questo dispositivo è stato sviluppato per il sistema MYCIN, esperto in malattie infettive, per superare le resistenze da parte dei medici. Riappare inalterato in un sistema progettato per la gestione dei combattimenti tra corazzati in Europa. Un ottimo esempio di ciò che Harold Laski aveva in mente quando notò che "nella guerra moderna la fabbrica progettista è un'unità dell'esercito, e l'operaio può ritrovarsi in divisa senza neanche esserne consapevole."
Tecnologie inaffidabili e surdimensionate nel progetto, possono portare a seri problemi socio-economici se usate per i processi industriali. Ma queste tecnologie "barocche", integrate all'interno di sistemi di combattimento nucleare, risulterebbero assurdamente pericolose. Per questa ragione, i Computer professionals for social responsability [Professionisti informatici per la responsabilità sociale, N.d.T.] hanno rimarcato "i limiti d'affidabilità propri dei computer" nei loro attacchi alla Sci. Gli autori di "Strategic Computing, an assessment" sostengono che "per quanto riguarda le loro limitazioni di fondo, i sistemi d'intelligenza artificiale non sono diversi da altri sistemi informatici...La speranza che l'Ia riesca a fronteggiare l'incertezza è comprensibile, visto che non c'è dubbio sia più flessibile dei sistemi informatici tradizionali. E' comprensibile, ma è errata."
Sfortunatamente, tutti i segnali indicano che, data la sempre maggiore rapidità della guerra moderna, l'interazione tra le competizioni tecnologica e burocratica e la penetrazione dell'ideologia ingegneristica nei ranghi militari, possiamo attenderci una sempre maggior dipendenza del Pentagono dall'alta tecnologia, compresa l'intelligenza artificiale, quale "moltiplicatrice di forza e intelligenza." Il sistema di guida per missili da crociera TERCOM, per esempio, è basato direttamente sulle tecniche Ia di riconoscimento di modelli. Il risultato finale sarà un amalgama sensibilissimo, incredibilmente complesso e scarsamente testato di tecnologia informatica super pubblicizzata e arsenali termonucleari da olocausto globale. Sfortunatamente, le testate nucleari, a differenza dei sistemi all'interno dei quali saranno installate, funzioneranno sicuramente.
E l'intero programma militare di Ia è solo un sottocomparto di una spinta veramente massiccia verso l'informatica militare di tutti i tipi: uno studio del Congressional office of technology assessment ha accertato che nel 1983 il ministero della difesa ha rappresentato il 69 percento delle ricerche di base in ingegneria elettrica e il 54,8 percento della ricerca informatica. Il dominio del ministero era ancor più ampio nella ricerca applicata, per la quale finanziava il 90,5 percento di tutte le ricerche in ingegneria elettrica e l'86,7 percento di quella informatica.

Razionalizzazioni difensive

Ci sono molti liberali, anche di sinistra, nella comunità dell'Ia che si sono ribellati contro l'Sci. Perché? In parte, senz'altro per la Grande Menzogna della "difesa nazionale", ma vengono fornite anche altre ragioni:

Molti tra loro non credono che questa roba funzionerà.
Alcuni farebbero solo ricerca di base, che "sia utile anche per i civili."
Molti credono che i militari otterranno lo stesso qualasiasi cosa vogliano.
La maggioranza ha bisogno di lavorare.

La prima sembra strana per l'Ia, ma forse sono ingenuo. Consideriamo, però, la seconda. Bob Wilinsky, professore all'Università della California di Berkeley: "I soldi del ministero della difesa vengono in gusti diversi. Io ho dei fondi 6.1...pura ricerca. Arrivano fino al 6.13, che significa una commessa per bombe. Ora lo Strategic computing è listato come attività 6.2 (ricerca applicata), ma finirà che ci saranno persone nel mondo degli affari che diranno 'Ok, robot assassini, che ce ne frega,' e ci saranno altre persone nel ramo che dicono 'Ok, voglio fare una macchina Lisp che vada cento volte più veloce di quelle che abbiamo adesso. Non ne facciamo una speciale solo per i carri armati o roba del genere.' Così il lavoro tende a dividersi."
In realtà sembrerebbe più uno sforzo cooperativo. Gli scienziati liberali mettono il confine alla ricerca di base; non lavorano su carri armati, ma sono disposti ad aiutare per procurare quel che il fisico antimilitarista Bruno Vitale chiama "un ricco menu tecnologico", menu che viene immediatamente setacciato dagli uomini di ferro al Pentagono.
Gli scienziati antimilitaristi non hanno molta scelta. Possono limitarsi alla ricerca di base e anche cullarsi nell'illusione di non contribuire più alla macchina bellica. O possono aggrapparsi a quelle poche applicazioni socialmente utili: medicina assistita dall'Ia, ricerca astronautica, ecc. Qualsiasi cosa scelgano, non sfuggono alla ragnatela che lega gli scienziati ai militari. Il destino militare del programma Shuttle lo dimostra ampiamente. In un momento nel quale i militari sono arrivati a controllare così tanta parte delle risorse della società civile, l'unica maniera di sganciarsi, per un ricercatore, è abbandonare completamente il clero scientifico, e non è decisione facile.
Ma supponiamo, per amor di discussione, di non doverci preoccupare del militarismo, o della disoccupazione, o dell'automazione industriale. Saremmo liberi allora di tornare al nostro delirio tecnologico?
Sfortunatamente, c'è un altro problema che trova quasi nell'Ia la sua miglior metafora. Pensiamo alle immagini che evoca, allo sfuocarsi del confine tra macchina e umanità dal quale l'Ia deriva il suo potere evocativo. Pensiamo a noi stessi come macchine. O meglio, pensiamo alla società come macchina-fissa, rigida, programmata. Il problema è la burocrazia, la società programmata, lo stato computerizzato, "1984".
Naturalmente, non tutti sono preoccupati. La distopia di "1984" è bilanciata, nella mente della gente, dall'utopia di computer flessibili, decentrati e, ora, intelligenti. L'opinione non verificata che i PC porteranno automaticamente alla "democrazia elettronica" è così comune che è difficile attraversare la strada senza calpestarla. E la maggioranza degli scienziati informatici tendono a pensarla così, almeno in linea di principio. Bob Wilinsky, per esempio, crede che il vecchio incubo dello stato computerizzato sia radicato nella tecnologia arcaica, e che "man mano che i calcolatori divengono più intelligenti saremo in grado di avere una burocrazia più flessibile invece di una più rigida... "
"Utopici" può non essere il termine giusto per questi atteggiamenti. Gli utopisti avevano buone intenzioni ed erano generalmente impotenti; i portavoce del progresso, no. Scienziati come Wilinsky sono ben finanziati e citati spesso, e se l'Era dell'informazione ha un lato oscuro, è loro particolare responsabilità esporlo. E' attraverso loro che incontriamo queste nuove macchine, e le storie che scelgono di raccontarci coloreranno profondamento le nostre visioni del futuro. Il loro ottimismo è fin troppo conveniente; abbiamo diritto di pretendere un esame più accurato.

La società delle macchine

Immaginatevi in banca, frustrati, di fronte a una qualche regola o procedura. Una volta vi venga detto che "il computer non può farlo", probabilmente vi arrendereste. Quel che è successo è un cambiamento nel senso di chi sia responsabile per la procedura, per le decisioni, via da una persona o gruppo di persone che sono realmente responsabili in senso sociale e verso un oggetto inanimato nel quale sono state incarnate le loro decisioni. O come ha detto Emerson "le cose stanno in sella e cavalcano gli uomini."
Consideriamo adesso la burocrazia del futuro, nella quale i codici sono stati rimpiazzati da un sistema informatico integrato, uno al quale sia stato dato linguaggio. Terry Winograd, ricercatore di Ia cita da una lettera che ha ricevuto:
"Dal mio punto di vista, l'elaborazione del linguaggio naturale non è etica, per una ragione principale. Gioca sulla posizione centrale che il linguaggio detiene nel comportamento umano. Suggerisco che il profondo coinvolgimento di certe persone con l'ELIZA (un programma che imita un terapista Rogeriano) [vedi anche Levy, S. Hackers, ShaKe Edizioni, Milano 1996; N.d.T.] sia dovuto all'intensità con la quale la maggioranza delle persone reagisce al linguaggio in qualsiasi forma. Quando una persona riceve un'espressione linguistica in qualunque forma, reagisce come un cane agli odori. Siamo creature di linguaggio. Dal momento che è così, la mia sensazione è che lanciare come esca alla gente linee di caratteri, chiaramente intesi da interpretare come simboli, è un falso altrettanto grave quanto lo sarebbe il tentativo di vendermi della proprietà per la quale abbia falso titolo legale. In entrambi i casi c'è un tentativo d'incoraggiare qualcuno a credere che un qualcosa sia diverso da quel che in realtà è, e solo uno dei due nell'interazione è cosciente dell'inganno. Anzi per dirla in termini ancora più chiari: dal mio punto di vista, incoraggiare la gente a considerare righe di simboli generati da una macchina quali espressioni linguistiche, è criminale e dovrebbe essere trattato come attività criminosa."
La minaccia dello stato computerizzato viene vista normalmente quale minaccia all'individuo. Vista così, la minaccia è reale, ma resta gestibile. Ma la lettera di Winograd descrive un'immagine più profonda della minaccia. Non pensiamo alla vulnerabilità degli individui, ma invece a un passaggio definitivo del potere sociale dagli individui alle istituzioni. Il passaggio è iniziato molto tempo fa, con l'ascesa della gerarchia e della classe sociale. E' stato formalizzato con la fondazione dello stato capitalistico burocratico, e ora possiamo immaginare la sua apoteosi. La burocrazia è sempre stata vista come una società meccanica; presto la macchina potrebbe trovare la propria voce.
Siamo affascinati dall'intelligenza artificiale perché, come l'ingegneria genetica, è davvero una scienza prometeica. Come tale, rivela il lato mitico della scienza. Ed il mito, nella sua esplicitazione, rivela le atroci condizioni in cui versa l'istituzione della scienza. Mostrando svergognatamente le proprie pretese, l'intellighentsia artificiale scopre anche un'ingenuità interessata e un imbarazzante coinvolgimento col potere.
In superficie, il mito dell'Ia è basato sulla gioia della creazione, ma una lettura più approfondita la costringe ai margini. Il mito emerge finalmente quale uno di dominazione, nel quale ci svegliamo per scoprire che i nostri magnifici strumenti ci hanno costruito una "gabbia di ferro" e che siamo intrappolati.
La scienza è un'impresa difettosa. Ci ha donato immensi poteri sul mondo fisico, ma è ugualmente servile davanti al potere. Non desiderando alcun limite alla propria libertà di sognare, si ammanta di mito e ideologia, e ci consiglia di usare i suoi poteri inconsciamente. Non ci ha portato saggezza.
O forse la condizione della scienza riflette puramente la condizione dell'umanità. La chiusura mentale, l'arroganza, il servilismo di fronte al potere, sono tutte caratteristiche degli esseri umani, non delle macchine. E la scienza, dopo tutto, è solo uno strumento.
Molte persone, quando incontrano l'intelligenza artificiale, restano offese. Vedono il suo scopo come un insulto alla dignità umana, una dignità che percepiscono legata all'unicità umana. Difatti, l'intelligenza si trova in tutta la natura e non ci appartiene unicamente. Forse qualche giorno, se ci saremo ancora, scopriremo che può emergere tanto dai semiconduttori quanto dagli aminoacidi. Nel frattempo, faremmo meglio a cercare dignità da qualche altra parte. Riappropriarsi dei nostri strumenti e delle istituzioni che li formano, è un buon posto dal quale partire.