skip to Main Content

Intelligenza artificiale, l’Ocse elenca i princìpi etici da rispettare

(Via Cyber Affairs)

I principi sull’intelligenza artificiale stilati dell’Ocse trattano di come questa tecnologia possa essere sviluppata e implementata sulla base del rispetto dei diritti umani e dei valori condivisi dai Paesi che ne fanno parte, che si riconoscono nella democrazia e nell’economia di mercato. In particolare, questi principi – dai quali hanno tratto ispirazione le linee guida per l’impiego responsabile dell’Ia concordate in Giappone dai ministri del Commercio delle 20 maggiori economie del globo (G20) – sono stati adottati il 22 maggio, attraverso una raccomandazione del Consiglio dell’organizzazione, e sono stati sottoscritti dai governi dei Paesi membri. Oltre a questi, altri Paesi, tra i quali Argentina, Brasile, Colombia, Costa Rica, Perù e Romania, hanno già aderito ai principi elencati, e presto dovrebbe farlo anche il Giappone.

I PRINCIPI
I principi dell’Ocse definiscono degli standard pratici e flessibili che si adattano tuttavia al settore, che è sempre in evoluzione e dunque necessita di un’attenzione particolare. Alcuni di questi sono la privacy, la gestione dei rischi per la sicurezza digitale e la condotta aziendale responsabile. La raccomandazione inviata dal Consiglio e poi adottata alla fine di maggio, identifica cinque principi basati sui valori che promuovono una gestione responsabile dell’Ia. Il primo è il fatto che l’utilizzo dell’Intelligenza artificiale deve rappresentare un vantaggio per le persone e il pianeta, con l’obiettivo comune di una crescita inclusiva e di uno sviluppo sostenibile. I sistemi di intelligenza artificiale, è scritto tra i principi, dovrebbero essere inoltre progettati in modo da rispettare lo stato di diritto, i diritti umani, i valori democratici e la diversità. Il terzo principio si concentra sulla trasparenza e la divulgazione responsabile intorno ai sistemi di intelligenza artificiale. I sistemi Ia, prosegue il quarto punto, dovrebbero poter funzionare in modo robusto e sicuro per tutto il loro ciclo di vita, mentre l’ultimo criterio riguarda il modo in cui organizzazioni e individui che sviluppano i sistemi di Ia dovrebbero essere ritenuti responsabili per tutti i principi precedenti.

IL RUOLO DEI GOVERNI
Coerentemente con questi principi basati sul valore, l’Ocse ha fornito anche cinque raccomandazioni per i governi: al primo posto, chiede a quest’ultimi di facilitare gli investimenti pubblici e privati nella ricerca e nello sviluppo per stimolare l’innovazione e di promuovere ecosistemi accessibili con infrastrutture digitali, tecnologie e meccanismi per condividere dati e conoscenze. Sempre ai governi l’Ocse chiede che sia garantito un ambiente politico che possa aprire la strada alla diffusione di sistemi di intelligenza artificiale affidabile, di responsabilizzare le persone che dispongono di competenze per l’intelligenza artificiale, nel senso di sostenerne le attività e di promuovere una transizione equa, e, infine, di cooperare al meglio sia tra settori che tra Paesi per progredire in una gestione responsabile dell’Intelligenza artificiale.

CHE COSA ACCADRÀ
Le raccomandazioni, create da un gruppo di esperti di Ia, tra cui rappresentanti di governo, dirigenti e accademici, non sono giuridicamente vincolanti, ma costituiscono le basi per una nuova normativa internazionale. Di particolare importanza è, inoltre, il dibattito sullo sviluppo di metriche per misurare la ricerca, lo sviluppo e la distribuzione di intelligenza artificiale. Quest’ultimo sarà importante per capire i progressi delle relazioni tra Intelligenza artificiale e società, e sarà sviluppato anche grazie all’aiuto di un osservatorio che avrà come obiettivo quello di studiare politiche e pratiche su una tematica di così ampia rilevanza nel prossimo futuro.

Fonte: Cyber Affairs

Back To Top