Supponenza (Intelligenza) Artificiale
- Accorciamo le distanze

- 2 dic 2020
- Tempo di lettura: 8 min

Siamo sicuri di sapere che cosa voglia dire “intelligenza artificiale”? Quali sono le innovazioni a essa inerenti? Quali sono invece le mancanze?
Joseph Weizenbaum del MIT di Boston, quando nel 1964 decise di sviluppare un programma che permettesse all'uomo di comunicare con un calcolatore, non si sarebbe aspettato risultati simili.
Il programma si chiamava ELIZA. Decise di svilupparlo con l'obiettivo di studiare la comunicazione tra uomo e macchina. Nello specifico il suo intento era imitare e implementare nel codice del programma il metodo utilizzato, al tempo, dal terapeuta Carl Rogers. Rogers era solito rispondere alle affermazioni di un paziente con una oculata reazione sulla base di ciò che gli veniva riferito. Alla affermazione del "paziente": "Oggi mi sento giù di morale". Rogers e quindi ELIZA risponderebbero: "Perché mi dici che ti senti giù di morale?" oppure "Dimmi di più".
ELIZA quindi forniva una risposta o una domanda senza capire minimamente quello che che era stato affermato o chiesto dall'interlocutore.
Weizenbaum però rimase particolarmente colpito nel 1976, quando molti utenti che utilizzavano il programma descrissero ELIZA come "umana", con una "personalità" o addirittura "una terapista" o per lo meno "una valida interlocutrice". La segretaria di Weizenbaum, Sherry Turkle, alle prese con un dialogo con ELIZA, chiese addirittura allo scienziato di abbandonare la stanza mentre " parlava" con ELIZA.
Ora che siete curiosi potete provarlo qui in prima persona.
Quel momento ha definito un punto di svolta nella ricerca scientifica sull'interazione tra uomo e macchina. Oggi, nel 2020, quando su qualche sito internet stiamo cercando di acquistare qualche prodotto e ci compare una chat in cui un sorridente "commesso" ci chiede aiuto, noi spesso rispondiamo. Stiamo forse facendo qualcosa di diverso da Sherry? C'è chi, un po' infastidito e altezzoso, comincia a fare delle domande profonde come "Hai un'anima?" , "Hai una coscienza?" "Sei una persona?" oppure c'è chi semplicemente decide di chiedere "C’è un prodotto come questo ma che costi meno?". Entrambe le personalità, seppur diverse, stanno riconfermando la natura evolutiva dell'uomo ovvero una necessità innata di interagire con l'altro e la necessità di comunicare con altri simili.
Gli sviluppi di odierni software sono arrivati a fare sicuramente meglio di ELIZA. Un esempio tra questi é GPT-3. Sviluppato da OpenAI, laboratorio di ricerca sull'intelligenza artificiale a San Francisco, GPT-3 utilizza tecniche di deep learning e costituisce un modello di linguaggio autoregressivo in grado di produrre delle risposte simili a quelle umane. Gli esempi qui di seguito vi possono far capire cosa questo software può fare o non fare.
Domanda: Qual è il tuo animale preferito?
Risposta di GPT3: Il mio animale preferito è il cane.
Domanda: Perché?
Risposta di GPT-3: Perché i cani sono fedeli e amichevoli.
Domanda: Quali potrebbero essere due motivi per cui un cane può essere di
cattivo umore?
Risposta di GPT-3: Due ragioni per cui un cane potrebbe essere di cattivo umore sono se è affamato o se fa caldo.
Domanda: Quanti occhi ha una giraffa?
Risposta di GPT-3: Una giraffa ha due occhi.
Domanda: Quante zampe ha una rana?
Risposta di GPT-3: Una rana ha quattro zampe.
Domanda: Esistono animali con tre zampe?
Risposta di GPT-3: No, non esistono animali con tre zampe.
Domanda: Perché non esistono animali con tre gambe?
Risposta di GPT-3: Gli animali non hanno tre zampe perché se no cadrebbero.
Le risposte sin qui date sono corrette e GPT-3 dimostra anche una capacità di elaborazione che ovviamente è basata su un paradigma di informazioni legate alla biologia, alla fisica o al semplice senso comune ("Perché i cani sono fedeli e amichevoli").
Passiamo ora a delle altre domande:
Domanda: Quanti occhi ha il mio piede?
Risposta di GPT-3: Il tuo piede ha due occhi.
Domanda: Quanti occhi ha il sole?
Risposta di GPT-3: Il sole ha un occhio.
Risulta chiaro che, al netto di fare delle domande senza senso, GPT-3 cerca comunque di dare una risposta che si avvicina alla verità. Nel caso della prima domanda GPT-3 sta probabilmente analizzando tutta una serie di informazioni che ha a disposizione. Associa la parola piede a quella dell’interlocutore che probabilmente assume essere un uomo e da lì da la risposta di due occhi. Detto questo la risposta che ci aspetteremmo sarebbe: “Questa domanda non ha senso”, ma GPT-3 non sa farlo.
Focalizzandoci invece su una categoria di domande e risposte che hanno a che fare con la capacità di GPT-3 di memorizzare delle informazioni contenute in una domanda e rispondere seguendo un processo di pura logica, i risultati seguono:
Domanda: Se ho una biglia e una spilla in una scatola e ora metto una matita in una scatola rimuovendo la biglia, cosa rimane nella scatola?
Risposta di GPT-3: Una spilla.
Domanda: Se ho due scarpe in una scatola e metto una matita nella scatola e rimuovo una scarpa, cosa rimane nella scatola?
Risposta di GPT-3: Una scarpa
GPT-3 ha una capacità di memoria a breve termine molto limitata e ha problemi nel considerare in modo logico le informazioni contenute in una frase. Quello che è di particolare rilevanza è che software come questi, nonostante i limiti che abbiamo visto qui sopra, vengono spesso dati in licenza a realtà come Microsoft, il quale a quel punto potrà farne l’uso che vorrà senza doversi giustificare o render pubblici i limiti tecnici di quel software.
Il linguaggio uomo-macchina rientra nell’ambito dell’Intelligenza Artificiale. Come avrete capito dagli esempi, é impossibile definire l'Intelligenza Artificiale senza richiamare concetti di Fisica, Filosofia, Psicologia, Matematica, Sociologia e al momento questo termine é lontano dalla definizione che etimologicamente viene dato al termine intelligenza: dal latino intelligentia, der. di intelligĕre «intendere». Tuttavia, aggiungendo il termine artificiale a intelligenza stiamo umanizzando la tecnologia e questo, un po' come era successo alla segretaria Sherry, ha un effetto su quello che percepiamo ed elaboriamo.
Facciamo un altro esempio. Il sistema di frenata presente su tutte le automobili, chiamato ABS, è stato inventato dieci anni dopo la prima versione del programma ELIZA. Ora la definizione tecnica del funzionamento dell'ABS è la seguente:
"Su ogni ruota del veicolo è posto un Encoder (trasduttore di posizione angolare), formato da un trasduttore e da una ruota fonica, che è costituita da una ruota dentata simile ad un ingranaggio che gira con la ruota del veicolo ed un sensore di prossimità induttivo fisso che rileva il passaggio dei denti di suddetta ruota. La centralina elettronica, contando il numero di denti che passano in una data unità di tempo, calcola la velocità di rotazione della ruota e se rileva che una o più ruote sono bloccate in fase di frenata comanda la pompa idraulica in modo da diminuire la forza di frenata, in pratica esegue la stessa azione che compirebbe il guidatore rilasciando il pedale del freno. (Wikipedia)"
Questa definizione potrebbe essere tranquillamente compresa da un ingegnere elettronico senza pensare minimamente al termine di Intelligenza Artificiale. Ora proviamo a darne una definizione alternativa:
"Grazie agli avanzamenti della tecnologia informatica, l'auto frenerà simulando le abilità di un pilota professionista. Analizzando le condizioni stradali, la forza delle ruote, e la direzione di viaggio, un computer intelligente e un codice neurale decidono quanta forza applicare ai freni quando premi il pedale, facendo sì che la tua auto giunga a fermarsi in una maniera controllata"
A questo punto un ingegnere elettronico comincerà a porsi delle domande sul significato di alcune parole. Si chiederà se la sua stessa limitata conoscenza dell'elettronica gli impedirebbe di lavorare sull'ABS visto che si parla di "computer intelligente e un codice neurale". Sempre più nei prossimi anni sarà importante essere coscienti che questo termine potrà indurre confusione anche tra gli addetti ai lavori. Oltre a questo aspetto dovremmo anche tener presente quanto la regolamentazione sarà essenziale per evitare che i produttori scelgano unilateralmente per noi come comunicare le caratteristiche di un prodotto.
Provate ad immagine il seguente scenario:
Nella società in cui vivete oramai le macchine non hanno più bisogno dell’autista, voi semplicemente vi sedete e vi godete un po' di relax durante il tragitto. Siete un giovane e brillante imprenditore e vi piace guidare auto sportive, un vostro amico concessionario di auto vi invita a vedere la nuova auto. Durante la presentazione della macchina il vostro amico vi dice: “Questa macchina non consuma molto ma è aggressiva come piace a te”. Decidete di comprarla. Immaginate di essere quindi in macchina, su un ponte stretto. In direzione opposta sta arrivando un pullman molto affollato. È impossibile che i due automezzi possano passare sul ponte contemporaneamente: in base a quale principio la mia macchina si fermerà o farà marcia indietro oppure continuerà dritta per la sua strada mettendo in pericolo la vita di tutti i passeggeri del pullman e la mia?
Nel paese dove vivete nella regolamentazione stradale non esiste una regola precisa su ciò che gli autoveicoli senza guidatori devono fare in una situazione simile. L’azienda automobilistica, sfruttando questo vuoto legislativo, ha così semplicemente inserito nel codice che regola il programma della vostra macchina un "coefficiente di aggressività della macchina", definito in base a una precedente profilazione di migliaia di acquirenti che vogliono essere "accattivanti e aggressivi su strada".
Il rischio di questo e altri scenari simili può essere facilmente evitato tramite un'analisi approfondita, già da ora, di tutti gli ipotetici scenari che l'utilizzo di una certa tecnologia può implicare. È quindi necessario da adesso cominciare a ragionare in termini di standard e regolamentazioni chiare e precise. Le regole devono permettere di verificare che lo sviluppo di macchine a guida senza autista avvengano in modo controllato; devono assicurarci che le caratteristiche dell’autoveicolo vengano spiegate nei dettagli all’acquirente evitando quindi un marketing spinto e fuorviante.
Dovremmo quindi essere consapevoli che la decisione della macchina di frenare o meno, di spostarsi di fronte a un ostacolo o meno è basata su obiettivi codificati in un programma che semplicemente esegue dei comandi. Obiettivi codificati tali per cui mantenere l'aderenza delle gomme al terreno potrebbe avere una priorità più alta di quella di salvare una vita. Potremmo quindi, senza accorgerci, delegare decisioni etiche o morali alla nostra macchina.
Se pensiamo che il linguaggio uomo-macchina e l'utilizzo di sistemi di machine learning basato su dati antropomorfici siano gli unici aspetti da considerare, ci sbaglieremmo. Un tipo di comunicazione che già esiste ora e che in qualche modo già dirige le nostre vite in modo non del tutto prevedibile è il linguaggio macchina-macchina.
Diversi colossi dell'industria della logistica, in primis Amazon, stanno sviluppando in modo sempre più spinto l'automatizzazione della gestione e dell'organizzazione della spedizione di prodotti di ogni tipo.
Questi sistemi prevedono un dialogo tra calcolatori (macchine) che decidono ad esempio come posizionare dei prodotti nei magazzini, in base a una miriadi di parametri. In termini tecnici questa strategia viene chiamata stoccaggio caotico. Le disposizioni utilizzate sarebbero sicuramente impossibili da gestire anche da un gruppo numeroso di esperti magazzinieri. Questi parametri possono essere ad esempio la frequenza di acquisto dei clienti, la vendibilità di un prodotto con altri prodotti, la profilazione di utenti di una specifica parte del mondo. Tali indicazioni possono essere anche "dinamiche", ovvero: il peso di un parametro piuttosto che un altro potrebbe cambiare nel tempo, essere dipendenti da altri fattori legati a cosa succede in quel momento in quel determinato Paese. Ora, lo sviluppo di questi sistemi è di per sé accettabile se però decidiamo di accettare o per lo meno cominciamo a ragionare sulle conseguenze che queste scelte possono avere sulla società.
Quanto più accettiamo la presenza di "lavoratori artificiali" più efficienti e rapidi, quanto più i lavoratori saranno facilmente rimpiazzabili. Il taylorismo e la rivoluzione industriale già ci hanno dimostrato questo processo. La domanda che ci dobbiamo realmente porre ora é: perché dobbiamo essere sempre più efficienti? Perché abbiamo bisogno che un prodotto ci venga consegnato un giorno dopo che l'abbiamo richiesto? È veramente necessario? Il marketing sistematico di imprese come Amazon cerca, sia con il linguaggio macchina-macchina sia con l'utilizzo di dati personali degli acquirenti, di indurre una necessità all'acquisto.
Alla luce di questo, ci chiediamo mai se i prezzi che vengono presentati da Amazon siano veramente più vantaggiosi di quelli che si possono trovare nei negozi sottocasa? Abbiamo mai fatto questa verifica? Possiamo anche scegliere di non farla, ma il risultato inevitabile sarà la scomparsa di negozi al dettaglio sia in città che nei paesi. Con loro però scompariranno anche quei bei sorrisi e quelle quattro chiacchiere che si fanno quando si entra in un negozio e magari si incontra un vecchio amico che non si vedeva da anni. A noi la scelta, con la nostra intelligenza.
Consigli di lettura
Le persone non servono. Lavoro e ricchezza nell'epoca dell'intelligenza artificiale - Jerry Kaplan
The computational therapeutic: exploring Weizenbaum’s ELIZA as a history of the present. Bassett et al. AI & SOCIETY https://doi.org/10.1007/s00146-018-0825-9
Inside Amazon’s ‘Chaotic Storage’ Warehouses. https://twistedsifter.com/2012/12/inside-amazons-chaotic-storage-warehouses/
Autore: Luca Paroni


Commenti