Intelligenza artificiale etica: mantenere l'umanità
Ma c'è anche un rovescio della medaglia. Il potere dirompente dell'IA sta sollevando una serie di questioni etiche, legali e morali, tra cui preoccupazioni sulla privacy, pregiudizi razziali e di altro tipo, potenziale distruzione di posti di lavoro e discordia sociale. Per non parlare delle preoccupazioni sull'affidabilità, la sicurezza e la responsabilità dei sistemi di IA. Il coro di voci ammonitrici che chiedono una regolamentazione internazionale di molte tecnologie di IA avanzate si sta facendo sempre più forte.
Sebbene vi siano opinioni divergenti sul grado di rischio, gli esperti concordano sul fatto che il ritmo del progresso dell'IA continuerà in modo esponenziale, molto più velocemente di quanto si pensi. Ma se l'IA verrà sviluppata correttamente, i suoi benefici saranno enormi. Ora è il momento di unirsi al dibattito globale sull'IA, per garantire che questa nuova e potente tecnologia venga utilizzata a beneficio di tutti. Iniziamo a parlarne!
Inquadrare il dibattito
Le tecnologie di intelligenza artificiale oggi in uso sollevano interrogativi fondamentali che vanno ben oltre le consuete problematiche di sicurezza dei prodotti. Le voci ammonitrici provengono dalle principali aziende tecnologiche mondiali, da scienziati, ricercatori e imprenditori, nonché da gruppi di controllo e oppositori della tecnologia.
Sebbene sia vero che la rivoluzione causata dall'innovazione tecnologica non sia una novità, questa "quarta rivoluzione industriale" sta avvenendo molto più velocemente di quanto chiunque si aspettasse, dando origine ad argomentazioni sia utopiche che distopiche secondo cui l'intelligenza artificiale spingerà l'umanità verso nuove vette o ci trasformerà in schiavi dopo la rivoluzione dei robot.
I progressi che hanno fatto notizia nei sistemi di intelligenza artificiale basati sull'apprendimento profondo, utilizzati nelle auto semi-autonome, nelle tecnologie di riconoscimento facciale e nei chatbot, e che hanno padroneggiato l'antico gioco cinese del Go, non sono solo entusiasmanti progressi tecnologici, ma sono anche chiari indicatori del fatto che l'intelligenza artificiale sta avanzando a un ritmo sempre più rapido.
La responsabilità è una cosa umana
La velocità e l'entità del cambiamento nel mondo dell'intelligenza artificiale, unite ai suoi numerosi rischi e alle "incognite note", stanno accelerando ulteriormente il dibattito etico. Alcuni dei principali inventori e investitori mondiali nel campo dell'intelligenza artificiale stanno addirittura chiedendo la regolamentazione e il divieto di progetti come le armi autonome.
Mentre i "robot killer" conquistano le prime pagine dei giornali, ci sono molti altri aspetti che destano preoccupazione. La privacy è uno di questi. La crescente capacità dei sistemi intelligenti di monitorare non solo ogni nostra mossa online, ma anche di seguirci nel mondo reale tramite la tecnologia di riconoscimento facciale, in assenza di una legislazione che regoli questa attività intrusiva, sta iniziando a sollevare qualche campanello d'allarme.
A luglio, il presidente di Microsoft, Brad Smith, ha pubblicato una lettera sul suo sito web esortando il Congresso degli Stati Uniti a emanare leggi per regolamentare e limitare l'uso delle tecnologie di riconoscimento facciale. Come afferma Smith: "Sembra particolarmente importante perseguire una regolamentazione governativa ponderata della tecnologia di riconoscimento facciale, date le sue ampie ramificazioni sociali e il potenziale di abuso".“
Smith continua elencando una serie di preoccupazioni, tra cui la possibilità che le forze dell'ordine possano prendere decisioni su chi tracciare, detenere e perseguire sulla base di sistemi difettosi o parziali; come i governi potrebbero usare la tecnologia per soffocare la libertà di parola e il dissenso; e come i rivenditori e altre aziende potrebbero letteralmente tracciare ogni nostra mossa e condividere queste informazioni con altri sistemi di intelligenza artificiale, il tutto senza la nostra conoscenza o il nostro consenso.
Molte aziende stanno infatti comprendendo la necessità di affrontare i rischi dell'intelligenza artificiale, unendosi a scienziati, tecnologi, esperti di etica, esperti legali, esperti di politiche pubbliche e difensori dei diritti umani nel porre domande difficili su come mantenere le tecnologie di prossima generazione etiche e incentrate sull'uomo.
I leader del branco
“La tecnologia non è neutrale rispetto ai valori e i tecnologi devono assumersi la responsabilità dell'impatto etico e sociale del loro lavoro.”
Questa citazione, presente sul sito web di DeepMind, proviene dal team dietro ad alcuni dei più sorprendenti progressi nell'apprendimento automatico utilizzando reti neurali artificiali. È un sentimento condiviso da numerosi scienziati, accademici e leader aziendali di alto profilo. Bill Gates, Elon Musk e il compianto Stephen Hawking hanno tutti chiesto un'azione internazionale concertata per regolamentare le tecnologie di intelligenza artificiale in modi decisamente pro-umani. Tutti riconoscono l'imperativo di salvaguardare i diritti individuali e garantire che la transizione verso un futuro basato sull'intelligenza artificiale proceda senza intoppi.
Questi leader di pensiero non si limitano a parlare. Stanno partecipando attivamente a una serie di istituti, think tank e ONG che stanno approfondendo le questioni etiche e sociali sollevate dall'intelligenza artificiale per trovare soluzioni pratiche.
L'elenco di tali organizzazioni è ampio e di alto livello. Partnership on AI è un consorzio del settore tecnologico che riunisce i principali sviluppatori di intelligenza artificiale, tra cui Amazon, Facebook, Google e la sua controllata DeepMind, Microsoft, Apple e IBM. La loro missione è stabilire le migliori pratiche per sistemi di intelligenza artificiale etici e informare il pubblico sull'intelligenza artificiale e sul suo impatto.
Il Future of Life Institute, co-fondato da Elon Musk e dal compianto Stephen Hawking, si concentra sui rischi esistenziali per l'umanità posti dall'intelligenza artificiale. AI Now, un istituto di ricerca con sede presso la New York University, si concentra su quattro aree chiave: pregiudizi e inclusione, lavoro e automazione, diritti e libertà, sicurezza e infrastrutture civili. DeepMind Ethics & Society, un'unità separata di DeepMind, pionieri dell'intelligenza artificiale, finanzia ricerche esterne su aree di rischio dell'intelligenza artificiale come privacy, trasparenza ed equità, impatto economico, governance e responsabilità, gestione del rischio, moralità e valori.
L'intelligenza artificiale è un fenomeno globale con implicazioni globali, quindi è una buona notizia che sia al centro dell'attenzione anche delle principali organizzazioni internazionali e multinazionali. Il World Economic Forum, ad esempio, è tra i gruppi globali che contribuiscono a guidare il dibattito sui rischi dell'intelligenza artificiale e sta prestando la propria voce alle richieste di una regolamentazione internazionale dell'intelligenza artificiale presso le Nazioni Unite.
L'IEEE Standards Association, che sviluppa standard globali in un'ampia gamma di settori, è anche una delle voci principali che chiedono una regolamentazione dell'IA a livello globale. Nel 2017 ha fondato l'IEEE Global Initiative on Ethics and Autonomous Systems and Intelligent Systems, la cui missione dichiarata merita di essere citata per intero: "Garantire che ogni stakeholder coinvolto nella progettazione e nello sviluppo di sistemi autonomi e intelligenti sia istruito, formato e autorizzato a dare priorità alle considerazioni etiche in modo che queste tecnologie siano sviluppate a beneficio dell'umanità". Pubblica inoltre un rapporto annuale, "Ethically Aligned Design", che potrebbe essere il trattato globale definitivo sulle questioni relative all'IA e all'etica.
Europa: leader di pensiero nell'intelligenza artificiale
Sebbene l'Europa nel suo complesso sia rimasta un po' indietro rispetto a Nord America, Giappone e Cina nello sviluppo di una strategia di intelligenza artificiale, la situazione è destinata a cambiare presto.
Ad aprile di quest'anno, un gruppo di importanti scienziati europei ha pubblicato una lettera aperta chiedendo la creazione di ELLIS, il Laboratorio Europeo per l'Apprendimento e i Sistemi Intelligenti. Questo istituto di ricerca finanziato dall'UE avrebbe laboratori in diversi Stati membri e guiderebbe non solo la ricerca all'avanguardia sull'IA, ma anche il dibattito su come garantire che l'IA rimanga etica.
La Francia ha recentemente presentato la propria strategia di intelligenza artificiale, incentrata sull'etica, e ELLIS si baserà su questo approccio, rafforzandolo ulteriormente. Ci sono tutte le ragioni per credere che ELLIS inizierà a prendere forma nel prossimo futuro e uno dei suoi obiettivi dichiarati è anche quello di arginare la rapida fuga di talenti europei verso gli Stati Uniti e l'Asia.
Si prevede che il primo passo verso ELLIS sarà la collaborazione in materia di intelligenza artificiale tra Francia e Germania, a cui si aggiungeranno in seguito altri membri dell'UE. Si prevede che ogni laboratorio locale costituirà una struttura da 100 milioni di euro con un budget annuale di circa 30 milioni di euro. Una volta avviato, ELLIS dovrebbe rappresentare un importante polo di attrazione per gli investimenti privati nelle tecnologie di intelligenza artificiale.
Unisciti alla conversazione
Le aziende di tutti i settori stanno abbracciando l'intelligenza artificiale per le giuste ragioni. Per molte aziende, l'implementazione intelligente dell'intelligenza artificiale è fondamentale per garantire la competitività in questo panorama in rapida evoluzione. L'intelligenza artificiale e altre tecnologie avanzate hanno già iniziato a rivoluzionare il mondo del lavoro in diversi settori, e siamo solo agli albori di questo profondo cambiamento tecnologico.
Un recente studio di McKinsey prevede che il valore aggiunto totale dell'IA per l'economia globale in 19 settori e nove funzioni aziendali nel prossimo decennio sarà compreso tra 3,5 e 5,8 trilioni di dollari all'anno. Una recente ricerca di PwC supporta questa prospettiva e prevede che l'IA potrebbe aumentare il PIL globale fino a 141 TP7T entro il 2030, il che aggiungerebbe ulteriori 15,7 trilioni di dollari all'economia mondiale.
Le aziende che si preparano e comprendono l'IA otterranno vantaggi significativi rispetto a quelle che non lo fanno. Le questioni di responsabilità legale e la mancanza di trasparenza nei processi decisionali dei sistemi di IA sono cruciali da considerare per le aziende prima di implementare investimenti nell'IA. La mancanza di precedenti in questo ambito rafforza la necessità per le aziende di dotarsi di un solido regolamento in materia di IA e di garantire la conformità alle nuove normative nazionali e internazionali che quasi certamente saranno in arrivo.
Esistono anche limitazioni più banali all'IA, ovvero il fatto che è ancora piuttosto limitata rispetto alla stragrande maggioranza delle attività lavorative attualmente svolte dagli esseri umani. Solo le attività che possono trarre vantaggio dalla tecnologia disponibile e implementata su larga scala devono essere prese sul serio, poiché altrimenti i costi per implementare l'IA ne superano i benefici, in particolare se si considerano aspetti come i costi di licenziamento e riqualificazione dei dipendenti. A seconda del settore, l'IA potrebbe anche avere un impatto imprevisto e negativo sul brand e sul business di un'azienda. È meglio valutare attentamente (e riflettere) prima di fare il grande passo.
L'intelligenza artificiale è un argomento molto vasto. È facile perdersi tra le sue numerose promesse euforiche e i numerosi scenari distopici e dilemmi esistenziali che presenta. Ma una cosa è chiara: i progressi dell'intelligenza artificiale in atto oggi ci stanno già sfidando a ripensare alcune delle nostre premesse fondamentali su argomenti come la natura del lavoro, gli obiettivi della società e il significato dell'essere umano.
Se crediamo agli esperti, questi cambiamenti stanno arrivando rapidamente. Non c'è mai stato un momento migliore per imparare a conoscere l'intelligenza artificiale.
Che tipo di mondo nuovo e coraggioso?
Le concezioni cinematografiche più diffuse di un mondo popolato da sistemi di intelligenza artificiale futuristici tendono a paesaggi distopici. La più grande visione utopica dell'intelligenza artificiale, pur essendo benigna nei confronti dell'umanità, ha forti dimensioni etiche e spingerà l'umanità più avanti nel suo percorso evolutivo.
Sebbene entrambe le versioni siano certamente controverse, la buona notizia è che il futuro è nelle nostre mani. Il mondo si è svegliato e ha scoperto l'intelligenza artificiale, e tutto ciò che serve è la giusta prospettiva, combinata con decisioni intelligenti oggi. Una partnership uomo-macchina è possibile. Il mondo di Star Trek è un esempio del tipo di futuro basato sull'intelligenza artificiale a cui dovremmo aspirare; sebbene quello reso popolare da "Terminator" sia possibile, richiede che le persone ora ne determinino il risultato.