5 regole per un’Intelligenza Artificiale etica

5 regole per un’Intelligenza Artificiale etica

«Quando parliamo di etica dell’intelligenza artificiale ci stiamo concentrando su una serie di temi che riguardano il futuro dell’umanità»

Prendo in prestito il pensiero di Luciano Floridi, direttore del Digital Ethics Lab e professore ordinario di filosofia ed etica dell’informazione all’Università di Oxford, per inquadrare l’importanza della relazione tra etica e AI.

Un tema dibattuto ma che ha bisogno di essere affrontato senza pregiudizi e false convinzioni. Partiamo dallo sfatare il mito che l’etica sia una prerogativa dell’Intelligenza Artificiale. Infatti, se consideriamo la soluzione tecnologica in quanto tale non possiamo trattarla come un essere senziente: l’AI non ha nemmeno la volontà di essere etica. Queste decisioni di natura morale sono infatti da attribuirsi all’uomo che progetta innovazioni intelligenti e decide come metterle al servizio della collettività.

Non a caso gli algoritmi intelligenti si basano sul Machine Learning. Il modus operandi della macchina si basa sull’apprendimento. È imparando dai dati, elaborandoli, che comprende la realtà e ne prevede i fenomeni, proprio come i bambini che imparano dalle informazioni e dagli esempi che vengono forniti loro.

Per avere un AI etica servono, quindi, uomini etici. Uomini cioè che forniscano alla macchina dati senza pregiudizi, inclusivi e ugualmente rappresentativi di tutte le comunità. La sfida non è banale, e il dibattito sulle modalità “operative” è in corso. Unione Europea, governi nazionali, tutti parlano di algor-etica sia a livello istituzionale che filosofico e giuridico, a riprova che non è solo un problema applicativo anzi, come dice Floridi, riguarda davvero “il futuro dell’Umanità”.

Etica e innovazione: un’opportunità per la crescita.

Mai come in questo momento la tecnologia è l’abilitatore dello sviluppo per qualsiasi organizzazione. Grazie all’innovazione tecnologica le imprese possono veder crescere i risultati in modo più sostenibile rispetto al passato e far fronte alla crisi pandemica. Bisogna però avere il coraggio di cambiare approccio. Senza una profonda riflessione sull’etica, la tecnologia può rappresentare per cittadini e aziende un problema invece che un’opportunità. Come ho avuto modo di scrivere altre volte, gli algoritmi possono replicare pregiudizi e visioni del mondo eccessivamente ristrette, imparare logiche autodistruttive, non utili per la crescita armonica delle comunità. Per questo diversità, inclusione, sostenibilità e etica sono diventate parole ambite dalle organizzazioni e premiate dalla finanza. Parole che caratterizzano chi ha una visione proiettata al futuro delle realtà più sicure e resilienti, oltre che le più apprezzate dai consumatori (due su tre - dati Nielsen - sono disposti a pagare un prezzo più alto per prodotti e servizi di aziende che si impegnano a produrre impatti sociali positivi).

Il vademecum per un’AI etica.

Onestamente sono persuaso che non esistono strade diverse da questa per rimanere oggi competitivi sul mercato. Ma come deve organizzarsi oggi un’impresa che vuole implementare una soluzione di AI etica?

Come dicevamo, il dibattito è ancora aperto ma Capgemini ha realizzato un vademecum con linee guida concrete per aiutare le aziende a implementare soluzioni intelligenti ed etiche allo stesso tempo. In sintesi:

•              A cominciare dalla fase di progettazione, occorre delimitare l’impatto che la soluzione AI mira a realizzare. Definire, quindi, uno scopo chiaramente definito per massimizzare il beneficio umano e dell’ambiente e renderlo misurabile.

•              Prendersi cura dei dati su cui la soluzione tecnologica si sviluppa. Per essere equa, infatti, l’intelligenza artificiale dovrà essere basata su dati affidabili, preventivamente sottoposti a un processo di verifica e pulizia al fine di epurare i pregiudizi che potrebbero generare comportamenti non equi. Come? Massimizzando la diversity nei team di sviluppo. Proprio la diversità, di genere, età, origine geografica, titolo di studio e così via minimizza il rischio di non equità.

•              I risultati generati da una soluzione di AI dovranno poi essere compresi da uomini. Occorre quindi dotarsi di strumenti IT adeguati alla tracciatura degli algoritmi e alla loro costante verifica, affinché meccanismi di autoapprendimento non la allontanino dagli obiettivi definiti in fase di progettazione

•              La soluzione di AI deve essere trasparente anche per i clienti esterni. Non solo, le persone devono essere informate preventivamente del servizio che ricevono in modo da fare scelte più informate. La trasparenza alimenta la fiducia, sempre.

•              La soluzione di AI deve infine essere robusta e sicura e garantire la sicurezza. Rispettare la privacy e proteggere i dati è un presupposto non negoziabile.

Questi consigli sono il frutto di un’analisi di oltre 800 organizzazioni e 2.900 consumatori (Trust me, I’m AI di Capgemini) da cui è emerso che mentre i clienti si fidano sempre di più delle interazioni abilitate dall'IA, i progressi delle organizzazioni nelle dimensioni etiche sono deludenti. Una situazione che, minando la relazione di fiducia tra azienda e stakeholder, va assolutamente colmata. Ancora più rischiosa in questo periodo in cui la dipendenza dall'intelligenza artificiale è sempre più alta. Oggi più che mai dobbiamo tradurre i limiti in opportunità nuove. L'intelligenza artificiale deve aiutarci a ridurre le interazioni fisiche, far fronte alle difficoltà e prevedere i futuri sviluppi, ma dobbiamo poterci fidare della sua eticità senza se e senza ma.

 

Per visualizzare o aggiungere un commento, accedi