Diritto al digitale

Quale etica per l’IoT e l’intelligenza artificiale?

IoT

La crescita dell’Internet of Things () e delle tecnologie dell’ (AI) solleva interessanti quesiti sull’opportunità che agiscano in modo etico. All’IoT Solutions World Summit lo scorso mese, uno dei più grandi eventi del mondo su Internet of Things, ho avuto il piacere di essere parte di un panel sul tema Ethical uses of data, insieme con Edy Liongosari di Accenture, Prith Banerjee di Schneider Electric, Derek O’Halloran del World Economic Forum, Sven Schrecker di Intel e David Blaszkowsky del Financial Semantica Collaborativo.

Questi i principali spunti emersi dal dibattito:

Gli individui si preoccuperanno della loro privacy

In pochi anni quasi nulla sarà di nostra proprietà. La nostra auto, la nostra casa e tutto ciò che usiamo durante il corso della giornata diventerà un semplice servizio. In questo contesto, l’unico bene che rimarrà di proprietà degli individui sarà la propria “identità digitale”.

Di conseguenza, è ragionevole aspettarsi che gli individui daranno sempre maggiore rilevanza alla tutela della loro privacy. Al fine di evitare, però, che la conformità con la normativa privacy divenga un costo insostenibile per le imprese, le aziende dovranno “educare” i propri clienti. Questo per garantire che la conformità con la normativa privacy divenga un vantaggio competitivo, piuttosto che un costoso svantaggio. Ed è interessante che questo stia accadendo solo dopo l’approvazione del nuovo Regolamento privacy europeo che porterà ad un cambiamento nell’approccio al rispetto della privacy, anche a causa delle sanzioni applicabili.

Il semplice rispetto degli obblighi normativi non sarà più sufficiente per IoT e AI

In un precedente articolo, avevo invocato una standardizzazione delle misure di sicurezza da attuare nel campo delle tecnologie dell’Internet of Things e di AI, così come in qualsiasi altra tecnologia, al fine di creare un più elevato livello di certezza che è necessario per stimolare gli investimenti.

Sono ancora un forte sostenitore degli standard di sicurezza per le nuove tecnologie. Tuttavia, come era già emerso durante il dibattito del DLA Piper European Tech Summit, la crescita delle tecnologie dell’internet of Things richiede la creazione di un rapporto di fiducia tra il fornitore e i suoi clienti.

Nessun software può essere sicuro al 100%, ma la capacità di dimostrare la diligenza della società di aver eseguito tutto ciò che era necessario per adempiere agli obblighi vigenti, insieme con la capacità di reagire prontamente ad un data breach, sono assolutamente cruciali per acquisire clienti ed evitare di perderli rapidamente in caso di problemi.

La certificazione di conformità diventerà un “must-have, soprattutto una volta che le nuove sanzioni previste dal Regolamento europeo sul trattamento dei dati personali diventeranno applicabili. Ma questa è solo una soluzione volta ad evitare eventuali sanzioni, mentre non sarà sufficiente a garantire che i clienti realmente si fidino di una società.

Le macchine devono agire in modo etico, non solo razionale

Nel corso del dibattito, c’è stata una lunga discussione riguardante sistemi di intelligenza artificiale, come quelli delle self-driving car e se questi debbano essere educati ad avere anche un comportamento etico. L’esempio più comunemente usato è quello di una self-driving car che sta colpendo un autobus con dei ragazzini e non si sposta fuori della carreggiata, in quanto giunge alla conclusione che statisticamente il miglior comportamento da adottare debba essere quello di rimanere sulla strada.

In questo scenario, il proprietario del veicolo potrebbe agire contro il produttore dell’auto per richiedere il risarcimento dei danni? Questo rischio è rilevante specialmente nel caso in cui il produttore del veicolo non sia in grado di dimostrare adeguatamente perché quel comportamento specifico sia stato ritenuto più opportuno dal sistema di AI. E. Come ho già avuto modo di discutere, sistemi di intelligenza artificiale potrebbero essere così complessi da rendere impossibile la ricostruzione del ragionamento seguito dalla macchina.

Questa situazione rischia di mettere i produttori di sistemi di intelligenza artificiale in una posizione piuttosto debole in un eventuale contenzioso.

L’alternativa sarebbe progettare sistemi di intelligenza artificiale in modo che siano in grado di tracciare e giustificare la loro condotta (e ciò è molto importante soprattutto dopo l’entrata in vigore del Regolamento europeo sul trattamento dei dati personali); comunicare preventivamente ai clienti in modo trasparente che il sistema di AI è stato progettato in modo da garantire anche comportamenti etici (ciò richiederebbe di definire quello che è etico, non solo nelle condizioni generali, ma anche nelle impostazioni a disposizione dei clienti, senza definizioni troppo complesse); “evangelizzare” i clienti sulla necessità di garantire comportamenti etici, stabilendo anche un comitato etico interno alla società.

Non c’è dubbio che ci sarà ancora interesse per questo argomento. L’etica e le sue diverse interpretazioni potrebbero portare a infinite controversie.

Giulio Coraggio

Giulio Coraggio

Avvocato in Italia ed Inghilterra specializzato in diritto delle nuove tecnologie, privacy, giochi e diritto commerciale, lavora nel dipartimento di Proprietà Intellettuale e Tecnologie dello studio legale internazionale DLA Piper. Riconosciuto da alcune delle più importanti directory legali internazionali è spesso relatore a conferenze e webinar sulle nuove tecnologie e i giochi. Ha il grande privilegio di lavorare nel settore delle tecnologie che sono la sua passione (insieme al Napoli…) e trasmette questa passione ai propri clienti immedesimandosi nel loro business.

Facebook Twitter LinkedIn Google+ 

Clicca per commentare

Commenti e reazioni su:

Loading Facebook Comments ...

Lascia una replica

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

No Trackbacks.

Inizio
Share This