4 minuti di lettura (773 parole)

Il gruppo sulla privacy invita il governo degli Stati Uniti ad adottare linee guida universali in materia di intelligenza artificiale per proteggere la sicurezza, la sicurezza e le libertà civili

GettyImages-954231504
Dopo mesi di lavoro, sono state proposte una serie di linee guida volte a proteggere l'umanità da una serie di minacce poste dall'intelligenza artificiale.

Ora, un gruppo sulla privacy vuole che anche il governo degli Stati Uniti li adotti.

La serie di 12 linee guida universali rivelate durante una riunione a Bruxelles la scorsa settimana sono progettate per "informare e migliorare la progettazione e l'utilizzo dell'IA" massimizzando i benefici riducendo i rischi. L'intelligenza artificiale è stata per anni un termine generico per il processo decisionale basato sulle macchine, ma con il miglioramento della tecnologia e l'adozione più ampia, i risultati basati sull'intelligenza artificiale stanno avendo un effetto maggiore sulla vita umana - dall'aumento del credito, dell'occupazione e anche alla condanna penale.

Ma spesso queste decisioni sono prese con algoritmi proprietari e chiusi, rendendo quasi impossibile sapere se le decisioni sono giuste o giustificate.

Queste linee guida, secondo l'Electronic Privacy Information Center (EPIC), sono progettate per essere integrate in AI per garantire la protezione dei diritti umani. Ciò include il diritto a conoscere i fattori, la logica e le tecniche utilizzate per l'esito di una decisione; un obbligo di equità che rimuove il processo decisionale discriminatorio; e l'obbligo di proteggere i sistemi dalle minacce alla cibersicurezza. I principi includono anche un divieto di punteggio unitario - per impedire ai governi di usare l'intelligenza artificiale per assegnare punteggi ai propri cittadini e residenti - un sottile colpo al controverso sistema di credito sociale cinese.

Ora, l'EPIC vuole portare questi principi in America, dove sono in sviluppo molte delle tecnologie IA di prossima generazione.

In una lettera alla National Science Foundation, l'EPIC ha invitato l'agenzia governativa poco conosciuta ad adottare gli orientamenti universali, alcuni mesi dopo aver aperto le sue porte a proposte su una politica nazionale di AI.

"Investendo in sistemi di intelligenza artificiale che si sforzano di soddisfare i principi [universali], NSF può promuovere lo sviluppo di sistemi precisi, trasparenti e responsabili sin dall'inizio", ha scritto Marc Rotenberg, presidente e direttore esecutivo di EPIC. "I sistemi di intelligenza artificiale sviluppati, implementati e mantenuti possono e dovrebbero costare più dei sistemi che non lo sono, e quindi meritano investimenti e ricerca".

L'EPIC ha detto che i 12 principi si adattano perfettamente alle sette strategie già definite dagli Stati Uniti fino ad oggi, rendendo più facile la loro adozione.

Più di 200 esperti e 50 organizzazioni hanno aderito alle linee guida, tra cui la Federal of American Scientists e il Government Accountability Project.

Con la richiesta di informazioni del governo ora chiusa, è probabile che ci siano molte più settimane - se non mesi - prima che il governo decida quali saranno i suoi prossimi passi, se ce ne saranno. Non è tanto la decisione del NSF, ma probabilmente l'Office of Science and Technology Policy della Casa Bianca.

Un portavoce della Casa Bianca non ha risposto a una richiesta di commento.

Puoi leggere l'intera serie di linee guida di seguito.

Diritto alla trasparenza. Tutti gli individui hanno il diritto di conoscere le basi di una decisione AI che li riguarda. Ciò include l'accesso ai fattori, alla logica e alle tecniche che hanno prodotto il risultato.

Diritto alla determinazione umana. Tutti gli individui hanno il diritto ad una determinazione finale fatta da una persona.

Obbligo di identificazione. L'istituzione responsabile di un sistema di intelligenza artificiale deve essere resa nota al pubblico.

Obbligo di equità. Le istituzioni devono garantire che i sistemi di intelligenza artificiale non riflettano pregiudizi sleali o decisioni discriminatorie non consentite.

Obbligo di valutazione e responsabilità. Un sistema di intelligenza artificiale dovrebbe essere schierato solo dopo un'adeguata valutazione del suo scopo e degli obiettivi, dei suoi benefici e dei suoi rischi. Le istituzioni devono essere responsabili delle decisioni prese da un sistema di intelligenza artificiale.

Accuratezza, affidabilità e obblighi di validità. Le istituzioni devono garantire l'accuratezza, l'affidabilità e la validità delle decisioni.

Obbligo di qualità dei dati. Le istituzioni devono stabilire la provenienza dei dati e assicurare qualità e rilevanza per l'immissione dei dati negli algoritmi.

Obbligo di sicurezza pubblica. Le istituzioni devono valutare i rischi per la sicurezza pubblica derivanti dallo spiegamento di sistemi di intelligenza artificiale che dirigono o controllano i dispositivi fisici e implementano i controlli di sicurezza.

Obbligo di sicurezza informatica. Le istituzioni devono proteggere i sistemi di intelligenza artificiale contro le minacce alla cibersicurezza.

Divieto di profilazione segreta. Nessuna istituzione deve stabilire o mantenere un sistema segreto di profilazione.

Divieto di punteggio unitario. Nessun governo nazionale deve stabilire o mantenere un punteggio di interesse generale sui suoi cittadini o residenti.

Obbligo di risoluzione. Un'istituzione che ha stabilito un sistema di intelligenza artificiale ha l'obbligo di terminare il sistema se il controllo umano del sistema non è più possibile. 

loading...
The Walking Dead 9x04: la recensione di 'The Oblig...
Google Discover inizia a sostituire l'iconica case...
 
loading...

Sections

Prodotti

Partner

Consigliati

Azienda

Seguici Sui Social

X

Impero Web Copyright Abilitato

Non è ammessa nessuna copia i contenuti sono protetti da diritti d'autore.