10/04/2020

Intelligenza Artificiale. L’europarlamentare Basso (Lega): «Pone molti interrogativi etici, bisogna stare all’erta»

Nei giorni scorsi si è riunita la commissione IMCO del Parlamento Europeo, che si occupa di mercato interno e tutela dei consumatori. È stato chiesto, da parte di un’altra commissione, la CULT, un parere per quanto riguarda la tematica dell’IA (intelligenza artificiale), in particolare nei settori dell’educazione, della cultura e dell’audio-visivo.

Una discussione che ha prodotto non pochi dubbi, soprattutto etici, proprio per quanto riguarda l’intelligenza artificiale. Altre questioni all’ordine del giorno, infatti, sono state rimandate per dare priorità ai temi medici, sanitari ed economici per contrastare il nuovo Coronavirus, ma questo tema, invece, è stato ritenuto come ugualmente prioritario. Inoltre l’europarlamentare della Lega Alessandra Basso, facente parte della commissione IMCO, ha sollevato non pochi dubbi su un altro aspetto legato all’IA e contenuto del progetto di parere della commissione: ovvero una sorta di clausola aperta che, secondo la Basso, sarebbe stata inserite per essere "utilizzata da chi vuole aprire la porta alla cosiddetta teoria gender o ad analoghe ideologie”. Il passaggio chiave, al punto due del progetto, recita testualmente: “è opportuno rivedere le serie di dati utilizzate per addestrare i sistemi di IA onde evitare di rafforzare gli stereotipi di genere e altre distorsioni”.

Pro Vita & Famiglia ha intervistato l’onorevole Basso sulla questione.

 

Recentemente alla commissione IMCO del Parlamento Europeo, è stato chiesto un parere sul tema dell’intelligenza artificiale nell’educazione, nella cultura e nel settore audio-visivo. Ci vuole spiegare brevemente di cosa si tratta?

«L’intelligenza artificiale è uno degli argomenti più rilevanti, anche in termini quantitativi, tra quelli affrontati dal Parlamento e dalle sue molteplici commissioni. In questo ambito, si affronta il tema dell’introduzione dell’IA in diversi settori, non solo quello della cultura in senso stretto, ma anche, per esempio, in ambito medico. Ha quindi vastissime applicazioni in molti campi e, per questo, ovviamente, ha delle implicazioni di tipo etico».

Una tematica come l’intelligenza artificiale, soprattutto in ambiti simili, pone molte questioni etiche. Ce n’è qualcuna in particolare che è stata o sarà trattata e che lei reputa importante?

«Dal punto di vista etico ci sono molti punti da trattare e di cui discutere. Tanto per fare un esempio, l’intelligenza artificiale viene utilizzata nella ricerca di personale, attraverso l’inserimento, lo studio e la valutazione di dati. Questo può portare la stessa IA a dare giudizi positivi o meno in base ad alcune caratteristiche, come per esempio la bellezza fisica, che finiscono per essere discriminatori. Ci sono dunque implicazioni di carattere etico, ma anche professionale e sanitario. Laddove l’IA viene usata in ambito medico, per esempio, al fine di analizzare i dati e le informazioni relative a un paziente, è importante evitare il rischio di trascurare il rapporto medico-paziente. Questo discorso vale anche per altri ambiti, come quello educativo, dove deve continuare a essere prevalente il rapporto umano studente-insegnante e bisogna evitare di demandare tutto alla sola tecnologia. L’elemento umano deve rimanere preminente».

Come lei stessa ha riportato, in un punto del progetto appare una clausola aperta che mira ad “addestrare i sistemi di IA onde evitare di rafforzare gli stereotipi di genere e altre distorsioni”. Lei crede che questa possa essere una porta per aprire alla teoria gender anche nell’intelligenza artificiale?

«Assolutamente sì, motivo per cui ho denunciato questa cosa, sono intervenuta e ho presentato più di un emendamento su questo testo. Logicamente è corretto affermare che si devono evitare tutte le discriminazioni, ma, non solo nel caso di specie, questo inserimento della teoria gender viene fatto molto spesso. Tanto per fare un esempio, si parlava in passato di una questione inerente alle dogane e si faceva riferimento alla parità di genere. Anche in quell’occasione ci fu il tentativo di introdurre una clausola simile sulla teoria gender, con la scusa di combattere, giustamente, le discriminazioni».

Un’ultima – forse strana – peculiarità del progetto in discussione è che non si è fermato, come invece altri argomenti, per via dell’emergenza Coronavirus. La commissione quindi dà a questo progetto la stessa importanza di tematiche urgenti e inderogabili come quelle sanitarie ed economiche visto il momento che stiamo attraversando. Come mai secondo lei?

«Sinceramente non ho una risposta definitiva e corretta a questo. Come detto prima, l’intelligenza artificiale ha moltissime applicazioni. Mi viene da pensare, e me lo auguro, che la discussione non sia stata bloccata per esigenze mediche e sanitarie legate proprio al Coronavirus, quindi per la peculiarità dell’IA di sfruttare dati medici. Era stato chiesto di rinviare anche questa discussione, ma hanno ritenuto opportuno continuare. C’è da dire, però, che l’applicazione medica e sanitaria dell’intelligenza artificiale non era proprio il fulcro di questa discussione, che appunto riguardava i settori culturali, dell’educazione e audio-visivi. Obiettivamente, quindi, non vedevo, su questo argomento, tutta questa urgenza di trattazione».

Questo articolo e tutte le attività di Pro Vita & Famiglia Onlus sono possibili solo grazie all'aiuto di chi ha a cuore la Vita, la Famiglia e la sana Educazione dei giovani. Per favore sostieni la nostra missione: fai ora una donazione a Pro Vita & Famiglia Onlus tramite Carta o Paypal oppure con bonifico bancario o bollettino postale. Aiutaci anche con il tuo 5 per mille: nella dichiarazione dei redditi firma e scrivi il codice fiscale 94040860226.