L’etica digitale all’epoca della post-verità

Ho partecipato di recente al Community Summit – svoltosi all’interno del più ampio Paris Open Source Summit – punto d’incontro europeo delle comunità globali che quest’anno aveva come tema “la creazione di valore di mercato con i valori etici dell’”.

Quando mi è stato chiesto un intervento ho subito pensato a due cose: la prima, ad un titolo ad effetto per attrarre la giusta attenzione; la seconda, più seriamente, a dare uno scossone, ben sapendo che questi meeting sono spesso autoreferenziali, luoghi dove si celebrano le quattro libertà fondamentali del software (l’esecuzione, lo studio, la modifica e la redistribuzione), dove si conferma l’importanza del software libero ed aperto e si promuovono le proprie attività (tutto questo, va onestamente precisato, in contrasto con le linee guida date agli oratori, che chiedono tutt’altro contenuto). Insomma, c’è gran bisogno di uno sguardo in avanti e qui ho tentato l’azzardo, ben sapendo che l’argomento “”, di cui forse anche troppo si parla in tutti gli ambiti della comunicazione, non è ancora particolarmente presente alle conferenze sull’open source.

Il necessario richiamo all’etica

L’etica digitale all’epoca della post-verità è un argomento che suona interessante. In un’epoca in cui stiamo sperimentando una profonda crisi di valori, io credo sia necessario affermare una volta di più i principi etici di base e in questo le comunità open source hanno una storia ed una credibilità che consente loro di giocare un ruolo importante. Il perché lo vedremo più avanti, ora entriamo decisamente nel contesto.

Nel 2016 gli Oxford Dictionaries hanno elevato il termine post-verità a parola internazionale dell’anno. La post-verità viene definita come termine relativo a “circostanze in cui i fatti oggettivi sono meno influenti nel formare l’opinione pubblica del ricorso alle emozioni ed convincimenti personali”. In estrema sintesi possiamo affermare che le persone danno più importanza ai propri sentimenti che ai fatti. In questo contesto rientra anche l’abuso delle parole nel linguaggio pubblico, il fenomeno delle fake-news, di cui non ritengo necessario fornire esempi perché tutti sappiamo di cosa stiamo parlando, e del deep-fake, la tecnica che combina e sovrappone immagini e video reali ad altre immagini e video altrettanto reali, utilizzati come sorgente per sostituirne i protagonisti o modificarne i contenuti, diffusi già con buoni livelli di qualità in ambito politico o per divulgare notizie false talvolta a sfondo sessuale. Il fatto che questi strumenti vengano utilizzati sempre più frequentemente da persone ed organizzazioni spregiudicate e che questo venga quasi “accettato” da buona parte della popolazione rende ancora più evidente un fenomeno dei nostri giorni: diversi principi e valori, come la verità, il senso del limite, la collaborazione, la fiducia, sono in agonia. In qualche modo, sembra che un vasto pubblico si stia dimenticando dell’importanza dei valori etici alla base della convivenza civile.

Eppure, in modo quasi sorprendente, nell’ambito delle tecnologie l’etica digitale è considerato un emergente. Alcuni accadimenti ce lo segnalano e per renderlo evidente ne segnalo due.

Gartner, una delle società di ricerca più autorevoli nell’ambito delle tecnologie dell’informazione, ha inserito l’etica digitale e la privacy fra i 10 trend tecnologici per il 2019; il MIT ha annunciato che spenderà un miliardo di dollari su programmi relativi all’etica nel campo dell’intelligenza artificiale.

La particolarità dell’intelligenza artificale

Rendere l’intelligenza artificiale operativa è assolutamente necessario e, comunque, inevitabile. Qui, però, siamo in un ambito del tutto particolare: l’esercizio dell’etica digitale abilita la fiducia nei suoi risultati aumentandone l’efficienza. Lo si può dimostrare in modo indiretto: cosa accadrebbe se questo non avvenisse? In assenza di un approccio etico si metterebbero a rischio i diritti individuali ed i valori sociali e si potrebbe giungere ad un rifiuto dell’innovazione basata sull’intelligenza artificiale, con il rischio di perdere molte opportunità che essa ci può consentire di cogliere.

L’intelligenza artificiale è fatta di software ed è alimentata dai dati. Proprio per questo risente delle sfide tipiche della data governance, temi che includono il consenso, la proprietà e la privacy. Ma in più, l’intelligenza artificiale informa un’azione del tutto particolare che grazie alle caratteristiche di autonomia ed auto-apprendimento pone sfide etiche del tutto specifiche. Anche per spiegare questo fenomeno sono sufficienti un paio di esempi.

Tutti conoscono il caso Cambridge Analytica, che concerne il rispetto dell’auto-determinazione umana. In questo caso i temi in questione riguardano la proprietà dei dati ed il loro uso. Oggi i dati tipicamente commerciali (sul comportamento, le abitudini, gli spostamenti) sono nelle mani di poche grandi aziende tecnologiche che agiscono in un regime di un monopolio di fatto. I dati istituzionali (ad esempio, sulle tasse, la salute, la proprietà) li posseggono le amministrazioni statali. Ma qual è il vero problema? La proprietà privata o pubblica o il controllo che è doveroso esercitare sul loro uso? La risposta sta forse nel mezzo, perché entrambe le questioni devono essere affrontate. Si può affermare che in una situazione ideale le aziende fanno il loro e raccolgono i dati commerciali, ma li forniscono direttamente allo stato quando questi sono necessari a fini sociali o per esigenze di ricerca. Perché questo accada è necessario che venga esercitata una qualche forma di controllo. Controllo che a livello statale ha un nome preciso: si chiama democrazia, che per essere tale deve basarsi su politiche solide, funzionanti e lungimiranti.

Teniamo a mente la parola democrazia

Vediamo il secondo esempio: il caso COMPAS, un’applicazione dell’intelligenza artificiale che si è rivelata discriminante nei confronti di afro-americani ed ispanici in ambito giudiziario. Un breve riassunto per chi non ne avesse ancora sentito parlare: nel 2016 un uomo di colore è stato condannato a sei anni per il reato di resistenza a pubblico ufficiale – sentenza particolarmente dura per questo tipo di reato – perché, come ha affermato il giudice, egli presentava un elevato rischio di recidiva. Questo rischio elevato era desunto dal risultato dell’applicazione di un algoritmo, utilizzato dal sistema giudiziario del Wisconsin, USA, per stabilire la propensione di un individuo a commettere un crimine, algoritmo la cui operatività intrinseca è tenuta segreta grazie al richiamo del rispetto della proprietà intellettuale. Un caso classico di opacità ed uso controverso degli algoritmi.

Proprio qui sta la questione: cosa si intende per opacità degli algoritmi? Questa si può definire come l’effetto di un algoritmo costruito in modo tale che non sia facile ottenere informazioni sul modo in cui produce i suoi risultati. Un sistema algoritmico può essere mantenuto opaco in modo deliberato, ma ciò può anche non essere intenzionale a causa della necessità di conoscenze tecniche approfondite necessarie per ottenere informazioni sul suo funzionamento, o per la non coincidenza delle modalità utilizzate dagli umani e dagli algoritmi per interpretare le stesse informazioni di input. Per cercare di risolvere questo problema l’iniziativa AI4People, promossa dalla Commissione Europea, ha introdotto un nuovo principio etico denominato esplicabilità. Questo incorpora sia il concetto di intellegibilità (come funziona l’algoritmo), sia di responsabilità (chi è responsabile del suo funzionamento, il che include anche la comprensibilità del risultato).

Teniamo ora a mente la parola esplicabilità.

La sfida cruciale

Al giorno d’oggi dobbiamo affrontare un problema ancora più grande. Abbiamo bisogno di un mondo che sia sostenibile in modo diversi: per sconfiggere il cambiamento climatico, per mitigare le disuguaglianze economiche e sociali e per ridurre il digital divide che aumenterà ad una velocità mai conosciuta prima. Questa sfida può essere affrontata solo abbandonando l’attuale approccio antropocentrico e iniziando a prendersi cura non soltanto di chi ci sta intorno, ma dell’intero universo visto come un unico sistema dove la natura, gli esseri umani e la tecnologia coesistono. Questo approccio deve essere al cuore del nostro pensiero.

L’ultima parola da tenere a mente è sostenibilità.

Il ruolo delle comunità open source

Nel mondo iper-tecnologico c’è bisogno di filosofia ed etica come non mai. Oggi noi trascorriamo gran parte del nostro tempo in Internet. Questo non è uno strumento di marketing, ma il luogo dove la società si sviluppa in molte direzioni, molto rapidamente e senza regole. E’ il più grande stato che sia mai esistito, senza confini, dove possiamo entrare ed uscire in ogni momento. Proprio questa consapevolezza ci aiuta a traguardare l’obiettivo: piuttosto che concentrarci sulla prossima sfida tecnologica, dobbiamo porre la nostra attenzione sul governo dell’evoluzione digitale, oggi in mano alle grandi aziende. La logica da applicare non può più essere quella del profitto e della cultura imprenditoriale: l’unico modo per ribaltare le regole è quello di effettuare le giuste scelte sociali adottando “buone politiche”. Questo vuol dire esplicitare i principi alla base dell’etica digitale in modo da fronteggiare l’influenza – del tutto invisibile – che la trasformazione digitale sta esercitando sul comportamento umano.

Da lungo tempo l’etica ha a che fare con il software. Molti hacker hanno contributo alla crescita di Internet; le loro azioni erano guidate dall’etica hacker. Grazie ai loro sforzi noi oggi abbiamo il software libero e l’open source: una storia ben nota. All’inizio il movimento di software libero ed open source ha posto l’attenzione sulla libertà. Successivamente – e progressivamente – l’enfasi si è spostata anche sulla responsabilizzazione (in inglese il termine empowerment ci concede un’accezione più ampia). E’ stato un modo per contribuire alla crescita del genere umano e della democrazia.

Prima ho sottolineato la necessità di controllo, anche se inserita in un contesto democratico. Io non vedo contraddizione tra libertà e governo dei sistemi, anche se quest’ultimo include, appunto, qualche forma di controllo.

Si sente dire spesso che nel mondo delle tecnologie dell’informazione l’open source ha vinto. Sarà anche vero, ma questo non è accaduto a ragione dei suoi principi etici di base, ma perché ha dimostrato al mondo del business che la cooperazione produce risultati migliori di quelli ottenuti dai singoli individui o dalle singole aziende. Un approccio che va sotto il nome di coopetition: la capacità di governare contemporaneamente sia i rischi, sia le opportunità.

L’identità delle comunità open source è data dall’esperienza operativa dimostrata nell’esercitare valori etici come la fiducia, la trasparenza, la responsabilità e l’integrità. A questo possiamo aggiungere la capacità dimostrata nel gestire azioni distribuite (gli inglesi la chiamano governance) che derivano dalle interazioni di diversi attori, che operano in luoghi diversi, con differenti motivazioni ed interessi. Attori che comprendono agenti non umani come hardware e software, ma anche programmatori, progettisti, utenti, organizzazioni e i cittadini. E’ questo lo stesso ambito in cui agisce la trasformazione digitale, rendendo la comprensione dell’ in cui viviamo sempre più complicata.

Riprendiamo ora le tre parole che prima ho chiesto di tenere a mente: democrazia, esplicabilità e sostenibilità. Tre principi etici che saranno cruciali in un futuro che sarà modellato da una co-evoluzione digitale e sostenibile di esseri umani, natura e tecnologia. Proprio per le attitudini dimostrate nel tempo le comunità open source possono mantenere un ruolo importante ed attivo in questa trasformazione, non limitandosi solo alla salvaguardia della libertà del software (e della libertà in generale), ma anche sostenendo operativamente lo svilupparsi di nuovi principi etici.

Questa si trasformerà anche in opportunità, come accaduto nel passato recente, perché consentirà di creare nuovo valore di mercato. E non solo perché tale approccio permetterà alle comunità di rimanere sulla frontiera dell’innovazione, ma perché le aziende di successo avranno bisogno di questa esperienza. Il successo economico non deriverà più solo dalla capacità di sviluppare capacità nuove ed uniche, ma anche da quella di saper integrare principi provenienti da diversi contesti, tra i quali la sostenibilità e la consapevolezza umana, unita all’evidenza di aver saputo adottare un approccio etico. E’ un cambiamento lento ed inarrestabile che già si inizia a cogliere sia nel mondo dell’imprenditoria innovativa, sia nella domanda dei consumatori.

Questo può incoraggiare le comunità open source ad andare oltre lo sviluppo di software tradizionale e a non rivolgersi solo alle usuali attività di salvaguardia e promozione – che restano essenziali – ma di abbracciare la trasformazione che sta dando nuova forma al mondo digitale. Le comunità open source hanno la conoscenza e la competenza per implementare le migliori strategie utili a far diventare la rivoluzione digitale una forza rivolta al bene e per liberare un potenziale indirizzato a far prosperare l’umanità nel rispetto dei diritti umani. Io non credo che tale impegno potrà essere sufficiente, perché le attività e i punti di vista in gioco sono molti e operano su una realtà molto complessa, ma sicuramente questo potrà contribuire a far sì che il software agisca per il bene dell’umanità.

Facebook Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here