Focus

5+1 riflessioni su Uomini, Macchine e Regole

[musica di sottofondo consigliata per la lettura del pezzo: Sailing Philadelphia, ovvero la storia della linea Mason-Dixon]

 

Nell’incessante evoluzione della nostra società, dove le tecnologie animano gli oggetti e danno vita a nuovi soggetti, il diritto è chiamato a dare soluzioni e non può lasciare spazio ad altre regole, come quelle dettate dall’informatica o dai grandi player delle piattaforme IT”.  Così, durante il convegno annuale del Circolo Giuristi Telematici, ha introdotto il tema Uomini, Macchine e Regole Fernanda Faini, presidente uscente che ha passato “le consegne”, dopo quattro anni di mandato, a Giorgio Battaglini.

Autorevoli gli esperti chiamati a discutere e riflettere insieme su temi delicati quali l’, il , la raccolta e l’uso di dati, l’equilibrio fra la tutela dell’uomo da una tecnologia sempre più permeante nelle vite di ciascuno e la necessità di non definire regole che vadano a limitare l’innovazione e il progresso. Esperti che, un po’ come gli astronomi Charles Mason e Jeremiah Dixon, a fine Settecento, sono chiamati a tracciare una linea di confine per risolvere controversie e tracciare il limite tra schiavitù e libertà.

In una Venezia soleggiata che poco ricordava quella futuristica, piena di robot, descritta nel libro “Le avventure di Numero Primo”, diversi sono stati gli spunti di riflessione emersi da che poco ricordano i “bot-lawyer” del libro.

E’ ancora attuale parlare di pluralismo?

Antonio Nicita, commissario AgCom, parlando dei tanti trade-off con i quali ci confrontiamo, quali siamo chiamati a dare risposta, e che si pongono ogni volta che si parla di libertà di espressione e formazione della libertà di scelta, ha posto una domanda: la profilazione che avviene sui social network e che disegna un mondo differente per ciascuno di noi sulla base dei dati raccolti e del profilo disegnato rappresenta un problema o è la naturale evoluzione di un sistema di informazione? A fronte della grande libertà di ciascuno di scegliere tra le tante fonti di informazione e di costruire in modo autonomo una propria “dieta informativa”, perché è ancora necessario parlare di pluralismo? “Il perché è legato al fatto che il modello su cui si è costruito il pluralismo è basato su un assunto sbagliato, che considera le persone razionali, capaci di scegliere il prodotto migliore come giudici onesti, neutrali, neutri, in grado di ascoltare tesi contrapposte e scegliere in modo oggettivo. Ma questo non è vero perché siamo limitati, influenzati da ciò che altri dicono, conformisti, molto sicuri di noi stessi, pronti a ragionare  secondo stereotipi e pregiudizi”. Gli algoritmi rispondono a criteri di efficienza: vedrai ciò che ti aspetti di vedere. E questo non aiuta il pluralismo. Cambiando il modo di informarsi (o non informarsi) delle persone necessariamente dovrà cambiare il modo di tutelare le persone.

La raccolta dei dati costituisce un pericolo?

La raccolta dei dati finalizzata a profilazione può diventare una gabbia all’interno della quale ci chiudiamo, precludendoci una parte delle informazioni“. Così Monica Palmirani, docente di informatica giuridica presso il Dipartimento di Scienze Giuridiche dell’Università di Bologna, ha messo il rischio rispetto non tanto alla raccolta dei dati quanto alla loro finalità di utilizzo. Sono già realtà le situazioni in cui, attraverso l’intelligenza artificiale e quindi i dati raccolti, si arriva a decisioni che escludono persone, creando in questo modo disparità di trattamento ingiustificate. Ma per evitare le potenziali, forti, insostenibili discriminazioni dell’AI c’è bisogno di far percepire alle persone la necessità di rilanciare l’interesse al come i dati sono utilizzati e lo si può fare partendo con il “fare cultura nelle scuole”. Consapevolezza del ciò che sta accadendo e ciò che accadrà finalizzata a generare interesse e dibattito delle persone intorno a temi importanti come quello della centralità del dato.

Quanto conta e come cambia il concetto di trasparenza nell’AI?

La pubblicazione da parte di AgID del primo libro bianco su Intelligenza Artificiale porta a pensare che questa possa rappresentare una sfida importante anche per la Pubblica Amministrazione. “La PA dovrebbe guardare lontano e cogliere le opportunità dell’AI, anche se la situazione attuale in molti casi vede le Amministrazioni inadempienti anche rispetto a cose che si sarebbero dovute fare negli anni Novanta“. In questo modo introduce l’argomento della possibile relazione tra Intelligenza Artificiale e settore pubblico Paolo Coppola, presidente nella passata legislatura della commissione parlamentare sulla digitalizzazione della PA. “Ci sarà una forte accelerazione che modificherà non solo le organizzazioni ma anche il modo di lavorare” e il problema più importante starà nella “mancata trasparenza delle modalità di funzionamento degli algoritmi”. Non potrà esserci trasparenza amministrativa se alcune decisioni saranno prese da macchine che agiscono secondo modalità difficili da comprendere.

Piattaforme al posto di professionisti?

Il proliferare di alcune piattaforme on line che forniscono consigli di tipo professionale comporta una serie di rischi emergenti da monitorare. Carla Secchieri, avvocato membro del Consiglio Nazionale Forense, nel suo discorso, partendo dal caso di piattaforme di avvocati, mette in evidenza rischi generici validi anche per altre professioni: “la sicurezza delle piattaforme, la tutela della riservatezza dei dati cliente, la possibilità di verificare l’identità della persona che chiede consulenza, la tutela della reputazione del professionista, il luogo di conservazione dei dati che in piattaforma si condividono, i possibili data breach” e molto altro ancora. Regole saranno necessarie per tutelare professionisti e clienti ed evitare che questi strumenti nuovi come questi vengano usati con superficialità.

Come si comportano gli individui in gruppo?

Quando parliamo del cambiamento che la Rete ha portato si dovrebbero tenere a mente gli esperimenti sui condizionamenti sulla psicologia delle masse delle nuove tecnologie, partendo da quelli di Milgram del 1961 e di Zimbardo del 1971. Così Fulvio Sarzana, professore di Diritto delle imprese, del lavoro e delle tecnologie di Università Internazionale Telematica Uninettuno, ha affrontato l’argomento Uomini, macchine e regole e sottolineato quanto gli individui si comportino in modo completamente diverso rispetto a quanto noi pensiamo si possano comportare di fronte alla libertà della rete. “Alla rete si stanno applicando fenomeni di massa che in passato non erano ipotizzabili“. Fenomeni di cui non si può più non tenere conto nel momento in cui si pensano nuove norme. “Se scriviamo norme centralizzate – ha detto Sarzana – attraverso le quali rischiamo di orientare le masse, creiamo una società basata su una legge indotta da un pensiero centrale. Quando scriviamo norme sulle tecnologie dovremmo basarci su principi decentralizzati, tipici della blockchain“.

Niente fiducia assoluta?

Non possiamo avere fiducia assoluta negli algoritmi di AI” ha concluso Sarzana portando l’esempio della Germania, data per vincitrice del mondiale da una macchina e uscita al primo turno nella realtà. Fiducia che è filo conduttore della favola fantascientifica di Numero Primo e che rappresenta un elemento indispensabile per la crescita e l’innovazione (ma non solo).

Tutto quello che voleva era solo fidarsi” si dirà in riferimento al papà di Numero Primo, ingannato da una donna di cui si innamora e che si rivela essere una macchina. Tutto quello che vorremmo e di cui c’è bisogno è il potersi fidare, cosa possibile solo una volta riconquistata la consapevolezza necessaria a comprendere i fenomeni che stanno cambiando le nostre vite.

Sonia Montegiove

Sonia Montegiove

Responsabile editoriale di Tech Economy.
E’ analista programmatore e formatrice. È giornalista per passione ed è entrata a far parte della redazione di Girl Geek Life , convinta che le donne possano essere avvicinate alle nuove tecnologie scrivendo in modo chiaro e selezionando le notizie nel modo giusto.

Facebook Twitter Skype 

Facebook Comments

Click to comment

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

To Top
Share This