Automazione che passione

19/set/2010 12.34.04 Virgilio E. Conti Contatta l'autore

Questo comunicato è stato pubblicato più di 1 anno fa. Le informazioni su questa pagina potrebbero non essere attendibili.

Fonte: http://lucachittaro.nova100.ilsole24ore.com

Freni ribelli ed utenti dormienti. Le ironie dell’automazione.

A320_cockpitAumenta l’efficienza. Diminuisce i costi. Rende piu’ facile eseguire un compito. Aumenta la sicurezza. Queste sono alcune delle motivazioni piu’ frequenti con cui ci viene spiegato perche’ dobbiamo affidare ad una macchina un compito che prima era svolto dagli esseri umani.

E guardando a cosa succede quando viene introdotta un’automazione ben progettata, a prima vista sembra tutto vero. Sia nei settori che per primi hanno fatto ricorso ad elevati livelli di automazione (aerei di linea e militari, impianti industriali, centrali nucleari, sistemi d’arma,…), sia in quelli che stanno compiendo la transizione adesso (automobili, casa domotica,…), la macchina altamente automatizzata ci mette meno tempo a fare le cose, spreca meno risorse (ad esempio, combustibile, energia elettrica,…), sa riconoscere alcune situazioni anomale e prova a porvi rimedio. Gli utenti di questi sistemi possono “rilassarsi” perche’ non hanno piu’ il ruolo attivo di un tempo: non hanno piu’ la responsabilita’ di svolgere direttamente e fisicamente il lavoro,  il loro compito e’ ora di stare a guardare la macchina che svolge quel lavoro, in attesa della rara eventualita’ che qualcosa vada storto nell’automazione e si renda quindi necessario un intervento correttivo umano in “vecchio stile”.    

Ma l’Interazione Uomo-Macchina insegna a guardare oltre cio’ che si puo’ notare a prima vista e ragionare sugli effetti indiretti e su quelli a lungo termine. Sotto questo punto di vista, i decenni di esperienza accumulati in particolare nel mondo dell’aviazione, del nucleare e dell’industria chimica evidenziano come l’elevata automazione a volte sposta i costi invece che tagliarli radicalmente e, nel cercare di eliminare problemi di sicurezza noti, crea nuovi rischi. Il fenomeno puo’ assumere dei connotati quasi “ironici” (la prima persona che ha usato il termine “ironie dell’automazione” e’ stata probabilmente Lisanne Bainbridge alla fine degli anni '80). Alcuni esempi di “ironie dell’automazione” possono essere riassunti come segue:

Automatizziamo perche’ gli umani commettono troppi errori, ma cosi’ facendo introduciamo nuovi tipi di errori. Chi scrive i software che istruiscono la macchina su cosa fare e’ un informatico, che possiamo ancora annoverare fra gli esseri umani e quindi, di fronte a problemi complessi, introduce semplificazioni inappropriate ed errori. Accadono cosi’ eventi clamorosi, come un aeroplano che rifiuta i comandi di frenata su una pista d’atterraggio molto bagnata, perche’ l’aquaplaning fa credere all’automazione che il velivolo sia ancora in volo, e cosi’ va a schiantarsi a fine pista (incidente occorso ad un Airbus 320 Lufthansa sull'aeroporto di Varsavia, 2 morti, velivolo distrutto).

Automatizziamo perche’ gli umani hanno difficolta’ a svolgere compiti complessi, ma cosi’ facendo introduciamo un compito ancora piu’ complesso. Il compito dell’uomo in un sistema altamente automatizzato e’ soprattutto di “monitorare” (stare a guardare la macchina che svolge il lavoro per notare in tempo eventuali stranezze ed anomalie). Ma questo e’ un compito per cui gli esseri umani non sono molto adatti. Provate ad immaginare che la vostra auto vi porti da sola da casa vostra fino alla destinazione che le avete ordinato (e questo scenario prima o poi diventera’ realta’). Con che livello di vigilanza riuscireste a stare li’ immobili a sorvegliare la vostra auto che guida da sola per 5 ore o piu’ di fila? Quanto e’ alta la probabilita’ che iniziate a distrarvi, pensando ai fatti vostri? O che addirittura vi addormentiate, come sembra sia successo lo scorso 13 Febbraio a due piloti della compagnia aerea Go!, il cui velivolo ha continuato ad andare dritto oltrepassando l’aeroporto dove dovevano atterrare, mentre loro non rispondevano ai richiami dei controllori di volo per 25 lunghi minuti.

L’automazione dequalifica gli esseri umani proprio in quelle competenze per cui e’ ancora richiesta la loro presenza davanti al sistema automatizzato. Se l’utente che sta monitorando la macchina automatica, si accorge che qualcosa sta andando storto, deve intervenire in modo diretto, come si faceva prima dell’avvento di quell’automazione. Ma non e’ piu’ abituato a farlo, perche’ le evenienze in cui una buona automazione fallisce sono rare. E tutte le abilita’ umane (dal suonare il pianoforte a guidare un automobile) richiedono di essere praticate, per essere mantenute ad un livello di qualita’ accettabile. Una soluzione a questo problema e’ quella dei simulatori: grazie a sistemi di realta’ virtuale, si mette l’utente in grado di sperimentare periodicamente quelle rarissime emergenze, cosi’ da essere “pronto” nel caso si verifichino nella realta’. Ma non e’ cosi’ semplice. Primo, perche’ si puo’ simulare solo cio’ che e’ prevedibile, ma ad esempio l’automazione che si rifiuta di frenare di cui parlavo  sopra e’ stata una sorpresa non prevista. Secondo, per una questione di tempi e di costi. Quando arriveranno sul mercato le automobili che guidano da sole, sarete disposti ad andare 1 ora in settimana presso una scuola guida a sperimentare un paio di emergenze al simulatore?

Il post termina qui, ma non perche’ la lista di “ironie dell’automazione” sia terminata. Quelle sopra riassunte dovrebbero comunque essere sufficienti a comprendere come, nella formazione e selezione di progettisti di macchine automatiche, non ci si dovrebbe limitare alla sola competenza ingegneristica, cioe' a quanto bene i progettisti conoscono come e’ fatta una macchina. 
Sarebbe  anche importante (oserei dire che andrebbe reso obbligatorio per legge) che il progettista capisca “come funzionano” gli esseri umani che la dovranno usare.

 

Airbus e i problemi sui sensori

A380

Qualche giorno fa, Airbus ha annunciato di star considerando un nuovo sistema di sicurezza (auto emergency descent), che permetterebbe ad un aereo di linea di eseguire da solo la procedura di discesa di emergenza senza l'aiuto dei piloti, nel caso che rilevasse una depressurizzazione della cabina. Piu' precisamente, l'aereo eseguirebbe una discesa rapida alla massima velocita' operativa fino a raggiungere l'altezza di 3000 metri (o qualcosa di piu' nel caso di presenza di alte montagne), dove si livellerebbe in quanto le maschere d'ossigeno non sarebbero piu' necessarie. Prima di iniziare la manovra, il sistema eseguirebbe un conto alla rovescia in modo da permettere ai piloti di disattivarlo se il suo intervento non fosse necessario.

Un sistema del genere, se ben funzionante, avrebbe potuto forse evitare il disastro della Helios Airways, nel quale i due piloti non si resero conto della depressurizzazione del velivolo e persero conoscenza (l'aereo continuo' a volare autonomamente fino all'esaurimento del carburante e al successivo schianto in territorio greco). Ma al di la' di questo caso estremo, le depressurizzazioni sono un evento che, seppur si verifichi con una certa frequenza e con effetti non piacevoli per i timpani dei passeggeri, i piloti sanno gestire bene. E' quindi utile introdurre questo ulteriore sistema automatico?

Dato che questo tipo di domanda e' un tema centrale in Interazione Uomo-Macchina, lo discuto nel seguito in generale. Il termine "automazione" e "sistema automatico" vengono infatti di solito presentati in positivo dai media in relazione alla sicurezza, inducendo a pensare che piu' sistemi automatici aggiungiamo ad un aereo (o a qualsiasi altro contesto), piu' quello diventa sicuro, affidabile ed esente da errori umani, ma le cose non sono cosi' semplici. Introdurre un nuovo sistema automatico comporta anche rischi. Alcuni li ho gia' descritti nel pezzo sulle "ironie dell'automazione". L'aspetto che vado ora a considerare riguarda invece i dati su cui il sistema automatico basera' le proprie decisioni. E sono almeno due le domande da porsi:

  1. Il sistema tiene conto di tutte le variabili necessarie per affrontare sempre bene la situazione che e' chiamato a gestire? Se un sistema che viene proposto per gestire la situazione X non considera tutte le variabili che possono entrare in gioco, significa che non sa gestire la situazione X in generale (come gli utenti che gli si affidano tenderanno a credere), ma che sa gestire solo alcuni casi particolari e sugli altri puo' anche peggiorare la situazione.
  2. Quanto sono affidabili i sensori che misurano quelle variabili? Anche quando si riesce a tener conto di tutte le variabili in gioco, se le misurazioni dei sensori diventano inaffidabili, il sistema automatico prende decisioni non in base alla realta' ma facendo riferimento ad una rappresentazione errata del mondo (se ad esempio un sensore di velocita' comunica erroneamente valori eccessivi, un sistema automatico puo' reagire diminuendo la potenza dei motori e causando una situazione di pericolo).

Dato che il numero di decisioni affidate alle macchine in base a valori riportati da sensori e' in costante aumento, e' facile trovare casi anche clamorosi di decisioni sbagliate prese autonomamente da macchine con una visione distorta della realta'. Ad esempio, qualche mese fa e' uscito il rapporto ufficiale australiano sull'incidente avvenuto ad un Airbus 330 della compagnia Qantas: durante il viaggio a quota di crociera di 10000 metri, il velivolo ha improvvisamente ed in modo autonomo picchiato verso terra. Dopo un po' i piloti riuscivano a riportarlo alla quota originaria, ma il fenomeno si ripeteva e l'aereo picchiava di nuovo all'improvviso senza che i piloti glielo avessero comandato, costringendo al "mayday" con atteraggio di emergenza ed un bilancio di 12 feriti gravi. Il rapporto parla testualmente di un malfunzionamento ad uno dei componenti che misurano alcune variabili importanti (air data inertial reference unit, ADIRU) e le forniscono ai computer del velivolo. Traduco testualmente dal rapporto: "uno degli ADIRU ha iniziato a fornire dati erronei (picchi) su molte variabili agli altri sistemi elettronici di bordo. Alcuni dei picchi riguardanti la variabile angolo di attacco del velivolo non sono stati filtrati dai computer di controllo del volo, che hanno successivamente comandato i movimenti di picchiata".

Nonostante la notizia dell'ultim'ora con cui ho aperto mi abbia fatto parlare di Airbus, va detto che le problematiche descritte riguardano qualsiasi costruttore di velivoli (e altri sistemi basati su computer). Per par condicio, considero quindi anche Boeing e traduco dall'altrettanto recente rapporto dell'autorita' olandesi sul Boeing 737 della Turkish Airlines schiantatosi sull'aereoporto di Amsterdam-Schiphol (con un bilancio di 9 morti ed 86 feriti): "ad un'altezza di 1950 piedi il radioaltimetro di sinistra ha improvvisamente indicato un cambiamento di altitudine - passato da 1950 a 8 piedi - ed ha passato tale dato al pilota automatico. Questo cambiamento ha avuto un impatto sul sistema automatico che regola la potenza del motore. [...] In pratica, l'aereo ha risposto a questo cambiamento improvviso come se fosse ad un'altitudine di pochi metri e la potenza del motore è stata ridotta. Sembra che il sistema automatico abbia assunto di essere nelle ultime fasi del volo".

Come vedete il pattern e' lo stesso: A) un sensore si guasta, dando ai computer valori sbagliati, B) i computer prendono decisioni autonome in base a quei valori sbagliati. Ed e' un pattern con cui e' bene familiarizzare, dato che piu' automazione introduciamo piu' spesso lo vedremo.

Fonte: http://lucachittaro.nova100.ilsole24ore.com

blog comments powered by Disqus
Comunicati.net è un servizio offerto da Factotum Srl