Implicazioni dell’IA responsabile per l’industria e la società: una riflessione e una direzione
L’intelligenza prenderà il controllo del mondo, o più praticamente l’intelligenza artificiale (AI) diventerà presto così comune nelle nostre vite quotidiane da non accorgercene nemmeno, dalla scelta del miglior percorso per evitare il traffico o se si dovrebbe o meno sottoporsi a una procedura medica, può fare la differenza tra far assistere o meno ad un debutto teatrale o sportivo di un membro della famiglia, o ancora se si hanno ancora le tonsille. Dobbiamo fidarci che l’AI possa prendere decisioni al nostro posto, dobbiamo accertarci che sia affidabile, abbia le abilità dichiarate e non sia soggetta a pregiudizi. Per essere a proprio agio con l’AI nelle nostre vite, dobbiamo essere in grado di fidarci che possa prendere queste decisioni per noi. Politici, organizzazioni e ricercatori sono spaventati da questa perdita di autonomia decisionale e stanno chiedendo legislazione e gruppi di esperti che chiedono un’AI responsabile, inclusiva e affidabile. Tuttavia, il problema non è solo di avere ricercatori di AI responsabili, inclusivi e affidabili, ma anche che i dati utilizzati dall’AI possono essere errati, contaminati da pregiudizi o contenere punti di vista obsoleti. Quindi, l’AI deve essere in grado di spiegare le sue decisioni in modo che possa essere compresa e trasparente. Il nome generale per tale AI è “explainable AI” o “xai”, che ci dà un’AI comprensibile, trasparente e affidabile. Tuttavia, l’efficacia dell’AI spesso viene associata alla complessità, il che riduce la spiegabilità. Dobbiamo quindi decidere quanto di performance siamo disposti a sacrificare per la spiegabilità, poiché ogni AI creata ha diversi livelli di spiegabilità e performance. Ci sono due diverse vie per la creazione di AI comprensibili: l’AI viene prima e l’esplicazione viene dopo oppure l’esplicazione e l’AI sono entrambi inclusi nel sistema.L’AI deve essere in grado di spiegare le sue decisioni, quindi invece di essere spaventati dall’AI o di aspettare un’approvazione governativa che potrebbe non essere possibile, dovremmo far sì che l’AI spieghi da sola. Ciò ci darà un’AI che può essere compresa, è trasparente ed è affidabile. Il nome generale di un’AI del genere è AI esplicabile, abbreviato in XAI.
L’AI esplicabile ha anche implicazioni etiche. Ad esempio, se un’AI decide di rifiutare una richiesta di lavoro o di prestito, deve essere in grado di spiegare le ragioni dietro questa decisione in modo che sia possibile determinare se ci sia stato un pregiudizio. Allo stesso modo, se un’AI prende una decisione che ha conseguenze negative per gli individui o per la società nel suo complesso, deve essere possibile esaminare il ragionamento che ha portato a quella decisione.
L’esplicabilità è particolarmente importante per le organizzazioni che utilizzano l’AI nei loro processi decisionali. In alcuni settori, come la sanità, l’AI può essere utilizzata per aiutare i medici a prendere decisioni più accurate e veloci. Tuttavia, i medici devono essere in grado di comprendere il ragionamento dell’AI e di spiegare le decisioni ai pazienti e ai loro familiari. In questo modo, l’AI può essere utilizzata come strumento per supportare le decisioni umane, piuttosto che sostituirle.
In generale, l’AI esplicabile può aiutare a costruire la fiducia delle persone nell’AI e nel suo utilizzo nella vita quotidiana. Se l’AI è in grado di spiegare le sue decisioni in modo chiaro e trasparente, le persone saranno più propense ad accettare e utilizzare l’AI nei loro processi decisionali.
Infine, è importante notare che l’AI esplicabile non è una soluzione perfetta per tutti i problemi relativi all’AI. Ci saranno sempre situazioni in cui l’AI non è in grado di spiegare le sue decisioni o in cui l’esplicabilità è in conflitto con l’efficacia. Tuttavia, l’AI esplicabile può fornire un importante punto di partenza per sviluppare AI responsabili, affidabili e inclusivi che possiamo utilizzare per migliorare la nostra vita quotidiana.