Interviste

Di algoritmi, intelligenza artificiale e rassegnazione umana: intervista a Mario Pireddu

“Quando facciamo qualcosa online, lasciamo sempre una traccia“. Ogni giorno “atterriamo” su notizie, pagine web, profili social guidati da in grado di analizzare le tante tracce da noi lasciate attraverso le quali non solo diciamo chi siamo ma soprattutto cosa ci piace. Tutto è quindi regolato dagli Mario Pireddu,   Professore Associato presso l’Università della Tuscia e autore del libro Algoritmi, ha risposto a qualche domanda, anche provocatoria, in merito.

In modo ricorrente (è successo in particolare con i politici) si dà la “colpa” agli algoritmi. Ma è davvero così? Possiamo attribuire colpe (ma anche meriti) agli algoritmi senza considerare le persone?

Gli algoritmi – almeno per ora – rispondono a chi li crea. Nascono con scopi e obiettivi precisi, e vengono utilizzati in tal senso. Molte volte incorporano persino pregiudizi e bias di chi li ha creati e di chi li utilizza. Purtroppo il discorso pubblico sugli algoritmi è molto impreciso e caratterizzato da scarsa conoscenza dell’argomento, come spesso capita con i politici (e con molti giornalisti che si improvvisano esperti senza aver dedicato tempo e studio ai temi su cui si esprimono con grande sicurezza).

Diciamo quindi che il discorso su “meriti” e “colpe” va interpretato alla luce di questa premessa. Ora, cosa ci dice la realtà? La realtà ci dice che il traffico Internet generato dai bot supera già da tempo quello generato da umani, che un algoritmo creato dai ricercatori dello Stanford Machine Learning Group supera già oggi i medici umani nell’accuratezza delle diagnosi di polmonite, e che il programma AlphaGo Zero ha raggiunto livelli impensabili per qualsiasi umano (e persino per il predecessore Alpha Go, battuto 100 a 0) imparando da solo a giocare all’antico gioco cinese di strategia Go.

Siamo davanti a software che imparano e lo fanno in fretta, ma quanti politici e giornalisti sanno realmente qualcosa di machine learning? Quanti riescono a intuire le implicazioni profonde di queste innovazioni per la società, l’economia, la cultura, la giustizia sociale etc.? Se crediamo che la gestione accorta del cambiamento e il governo responsabile delle trasformazioni possano esistere unicamente in presenza di classi dirigenti informate, dobbiamo prendere atto che la situazione non è delle migliori. Non solo negli Stati Uniti di Trump, ma anche nella nostra vecchia Europa.

Come scrivo nel mio libretto Algoritmi, ci sono software che giocano in borsa per conto dei rispettivi proprietari, programmi che imparano a dipingere e a creare opere nuove, software che studiano per conto degli scienziati le enormi masse di dati che vengono accumulate su fenomeni atmosferici e cambiamenti climatici, e l’elenco è ormai infinito. Lo scenario è di una complessità difficile da comprendere nella sua totalità e ancor più difficile da gestire, e non saranno le paure o le facili risposte a garantire soluzioni efficaci ai nuovi problemi e alle nuove sfide. Alcuni commentatori credono che gli algoritmi, data la loro natura matematica, siano software funzionali e in qualche modo oggettivi. Eppure sappiamo che di oggettivo in questi casi c’è ben poco, così come accade quasi sempre quando si parla di dati. I dati da soli non dicono molto, se non si spiega come sono stati raccolti e indicizzati. Le metodologie di ricerca producono i dati stessi, dunque è necessario conoscerle per poter leggere correttamente i dati. Una cosa è annunciare che “il numero di lavoratori in Italia è aumentato”, un’altra è dire la stessa cosa esplicitando al contempo che “è considerato occupato chi nella settimana di riferimento dell’indagine ha lavorato almeno un’ora”. Lo stesso discorso vale per gli algoritmi e i software: se un algoritmo dedicato alla selezione del personale tende a escludere le persone afroamericane per favorire i bianchi, possiamo realisticamente non considerare l’ideologia incorporata nel codice (e dunque nella mente degli sviluppatori del software)?

Come è cambiato e come cambieremo con l’impiego dell’intelligenza artificiale? Come saremo fra 30 anni?

Parlerei più di software e intelligenze artificiali, al plurale: ne esistono e ne stanno nascendo di specifiche, dedicate ad ambiti settoriali ben definiti. Va anche detto che non sempre siamo davanti a vere e proprie “intelligenze”, e che non tutti i software e gli algoritmi si traducono necessariamente in intelligenze artificiali. C’è persino chi preferisce usare la dizione “intelligenze dell’artificiale” per marcare una distinzione tra organico e quel che per ora è ancora prevalentemente inorganico.

In ogni caso, con l’innegabile sviluppo delle intelligenze artificiali è probabile che nei prossimi decenni avremo un rapporto ancora più “intimo” e normalizzato con i software. Già oggi software e algoritmi ci assistono in vario modo nella vita di tutti i giorni: ci consigliano quali libri comprare e quali serie tv vedere, ci suggeriscono nuovi artisti da scoprire e ascoltare in streaming, e anche le persone con cui potremmo diventare amici o quelle con le quali potremmo iniziare una relazione. Non solo: i software per il monitoraggio e la cura della salute stanno diventando sempre più importanti nella vita di molte persone – qualcuno potrebbe dire persino in modo ossessivo – anche attraverso la diffusione delle tecnologie wearable, a partire dai bracciali (fitness tracker, life-logging etc.) e dagli smart watch.

Sta accadendo quel che in parte è già accaduto durante il XX secolo, ma con una portata ora esponenziale: l’automazione gestisce sempre più operazioni che prima erano svolte da umani, e operazioni che prima non erano svolte per niente o non erano possibili. Quel che è accaduto nelle fabbriche, negli uffici e nelle nostre case per decenni continua ora seguendo una evoluzione decisamente più rapida. Il monitoraggio costante e quotidiano di passi, distanze percorse, velocità, calorie consumate e battito cardiaco – con annessa archiviazione online in serie storiche – era qualcosa che prima semplicemente non esisteva. Così come non esistevano il social networking e l’instant messaging, e la possibilità di controllare e recuperare i contenuti delle nostre discussioni tramite archiviazione in database sempre raggiungibili. Ci stiamo gradualmente abituando a parlare con software che portiamo sempre con noi come Siri o Allo, e con gli home assistant come Google Home e Amazon Echo tramite i quali facciamo ricerche, inviamo messaggi, controlliamo la tv e gli impianti audio e termostatici della casa, etc. Abbiamo treni senza pilota e ci stiamo abituando all’idea di auto a guida automatizzata. È facile e per certi versi affascinante evocare scenari apocalittici à la Matrix o Terminator, ma la realtà è molto più prosaica e non sempre necessariamente così cupa. Vogliamo realmente rifiutare sistemi di intelligenze artificiali in grado di ridurre il numero complessivo di incidenti stradali (che, ricordiamolo, in Italia è tra i più alti d’Europa)? Siamo sicuri di voler dire no a software in grado di studiare e analizzare milioni di casi clinici e patologici per poter arrivare a diagnosi e cure che riducano sensibilmente il margine di errore? Smetteremo di pensare che “umano è sempre meglio” se avremo ulteriori evidenze che non sempre è così?

Naturalmente, con la vita – di ognuno di noi, della natura, delle cose – che si trasforma sempre più in dati, i problemi per la privacy e soprattutto per il controllo di questi dati non sono pochi già ora. Quel che è sicuro è che non si torna indietro, e chi usa la scusa del rifiuto sprezzante della contemporaneità per non dover affrontare la complessità di quel che accade sta in realtà facendo la cosa peggiore che si possa fare. Un cambiamento di questa portata è gestibile soltanto con maggiore consapevolezza, con più studio e più attenzione a quel che accade. Si possono chiedere tutele specifiche e norme efficaci solo se si sa di cosa si sta parlando, e cittadini disinformati non potranno che esprimere classi dirigenti poco preparate e scarsamente competenti.

Quando si parla di piattaforme, come Facebook o Google, nelle persone si avverte una specie di rassegnazione. Ma come potremo preservare la nostra indipendenza dagli algoritmi?

Non potremo essere indipendenti dagli algoritmi. Detta così sembra un’affermazione perentoria e brutale, ma questa è già la realtà. È banale dirlo, ma noi non siamo indipendenti dagli algoritmi come non lo siamo da Internet o dall’elettricità. E se non siamo dei neoluddisti, non ci lamentiamo della dipendenza dall’elettricità perché la riteniamo ormai parte integrante delle nostre vite. Senza elettricità non avremmo cibo conservato a lungo e in buone condizioni, non avremmo vestiti puliti e non riusciremmo neanche a vedere un film. Senza Internet non potremmo inviare email, scambiare gratuitamente messaggi istantanei di gruppo, prenotare online visite mediche e viaggi, controllare l’arrivo dell’autobus a una determinata fermata, pagare le bollette da casa o studiare in corsi e-learning, etc. I servizi di rete, anche quando non sembra, si reggono sempre più su algoritmi, e ciò significa che siamo già di fatto dipendenti da questi software. Il problema non è quindi tanto quello dell’indipendenza dagli algoritmi, ma quello della qualità degli algoritmi e delle politiche relative alla loro implementazione e alla loro regolazione.

Nelle persone non vedo soltanto rassegnazione, perché ciò presupporrebbe almeno in parte una consapevolezza che in realtà non è così diffusa. Il livello generale dei discorsi su questi temi è invece spesso caratterizzato da banalizzazioni e semplificazioni, dall’uso disinvolto e spesso tendenzioso dei dati, e da una polarizzazione che non favorisce affatto la comprensione dei fenomeni. È vero da un lato che la tendenza all’oligopolio spaventa e ci fa sentire impotenti davanti a colossi come Facebook o Google, ma è anche vero che gran parte di questo senso di impotenza deriva da un fatalismo che spesso produce la realtà stessa di cui ci si lamenta. Mi spiego con un esempio: la gestione dei dati dei cittadini negli Stati Uniti e in Europa non è la stessa, e se i cittadini europei godono di qualche tutela in più è perché c’è una gestione differente di questi processi. Da dove viene questa diversità? Da culture di riferimento non del tutto sovrapponibili, dalla tradizione europea e dalla storia statunitense che hanno costruito le istituzioni attraverso le quali governiamo il presente e i mutamenti.

Google traccia i miei spostamenti? Bene, deve essere più chiaro e evidente che può farlo solo se io lo desidero. E devo essere in grado di poter decidere non soltanto in base alle forzature mascherate da semplificazioni che normalmente ci propongono le aziende. Ciò che ci viene presentato come scorciatoia per fare qualcosa meglio e più rapidamente non sempre è neutrale e senza conseguenze. Devo essere quindi in grado di capire realmente le implicazioni di un “Accetto i termini e le condizioni” che oggi è qualcosa che viene fatto con troppa leggerezza. E di capire che se vogliamo possiamo far modificare quei termini e quelle condizioni di utilizzo a questa o quella azienda, perché è già successo e perché abbiamo gli strumenti.

Ora, se noi riteniamo che sia legittimo fare impresa utilizzando i nostri dati per scopi commerciali, è anche legittimo e auspicabile far conoscere meglio a tutti il funzionamento e i meccanismi del sistema tecnologico-economico-politico-culturale dentro il quale viviamo. Lo stesso discorso vale per l’utilizzo governativo dei nostri dati. Questo perché solo così, con una maggiore consapevolezza di tutti, possiamo continuare a costruire politiche e norme che possano conciliare la libertà di impresa o di manovre politiche con la libertà dei cittadini. Oggi questo rapporto, comunque la si pensi, è sbilanciato sul primo dei due poli, ma non è detto – e le differenze di gestione tra paesi lo dimostrano – che debba necessariamente continuare così. E dato che la politica, anche in democrazia, soffre di ripercussioni dovute a pressioni economiche e condizionamenti non sempre trasparenti, l’unica soluzione è quella di rendere più consapevoli i cittadini in merito ai propri diritti e alle proprie scelte. Da questo punto di vista il progressivo definanziamento di scuola e università in molti Paesi, compresa l’Italia, non fa ben sperare, ma questo è solo un motivo in più per continuare a lavorare per una formazione migliore e per una società fatta di cittadini più informati.

Sonia Montegiove

Sonia Montegiove

Responsabile editoriale di Tech Economy.
E’ analista programmatore e formatrice. È giornalista per passione ed è entrata a far parte della redazione di Girl Geek Life , convinta che le donne possano essere avvicinate alle nuove tecnologie scrivendo in modo chiaro e selezionando le notizie nel modo giusto.

Facebook Twitter Skype 

Clicca per commentare

Commenti e reazioni su:

Loading Facebook Comments ...

Lascia una replica

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

No Trackbacks.

Inizio
Share This