Le leggi della Robotica & La strategia europea

  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Isac Asimov

Nel 2018 la Commissione europea, con una procedura di selezione aperta, aveva nominato 52 esperti di intelligenza artificiale.

  AI HLEG

AIHigh-Level Expert Group on Artificial Intelligence si tratta di un  gruppo di esperti di alto profilo composto da rappresentanti del mondo accademico, della società civile e dell'industria.
L’obiettivo è quello di supportare l’implementazione della strategia europea sull'intelligenza artificiale. Includendo l'elaborazione di raccomandazioni su questioni etiche, legali e sociali legate all’intelligenza artificiale, e le sfide socio-economiche.
La Commissione europea è ora alla fase successiva di questo approccio a una strategia comune e condivisa, e ha avviato una fase pilota maggiormente proiettata alla implementazione concreta, questa servirà a garantire che sia possibile applicare nella pratica gli orientamenti etici per lo sviluppo e l'utilizzo dell'intelligenza artificiale.
Nel procedere in questa fase, la Commissione invita industria, istituti di ricerca e autorità pubbliche a testare una lista di controllo, la lista è stata messa a punto dal gruppo di esperti a integrazione degli orientamenti.

L’iniziativa rientra nella strategia per l’intelligenza artificiale che la Commissione ha presentato nell'aprile 2018. Tra gli obiettivi, c’è quello di aumentare gli investimenti pubblici e privati portandoli ad almeno 20 miliardi di euro l'anno nei prossimi dieci anni. Nonché mettere a disposizione più datipromuovere il talento e garantire la fiducia.

La strategia europea

Secondo la Commissione, molti settori trarranno beneficio dall'intelligenza artificiale. Ad esempio l'assistenza sanitaria, il consumo energetico, la sicurezza delle automobili, l'agricoltura, i cambiamenti climatici e la gestione dei rischi finanziari, e può aiutare a rilevare le frodi e minacce alla cibersecurity, e consentire alle forze dell'ordine di lottare più efficacemente contro la criminalità.

    Ma solleva interrogativi giuridici ed etici.

merkelUn robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno. 

R. Daneel Olivaw 

L’approccio della Commissione è articolato in tre fasi. Il primo è la definizione dei requisiti fondamentali per un’intelligenza affidabile. A questo segue l’avvio di una fase pilota su larga scala per raccogliere le osservazioni delle parti interessate. Infine, c’è l’impegno volto al raggiungimento di un consenso internazionale per un’intelligenza artificiale antropocentrica.

Questi sono i sette requisiti fondamentali individuati nel lavoro svolto finora dalla commissione.

  1. Azione e sorveglianza umane: i sistemi di intelligenza artificiale dovrebbero promuovere lo sviluppo di società eque sostenendo l'azione umana e i diritti fondamentali e non dovrebbero ridurre, limitare o sviare l'autonomia dell'uomo.
  2. Robustezza e sicurezza: per un'intelligenza artificiale di cui ci si possa fidare è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di intelligenza artificiale.
  3. Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e nel contempo i dati che li riguardano non dovranno essere utilizzati per danneggiarli o discriminarli.
  4. Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di intelligenza artificiale.
  5. Diversità, non discriminazione ed equità: i sistemi di intelligenza artificiale dovrebbero tenere in considerazione l'intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.
  6. Benessere sociale e ambientale: i sistemi di intelligenza artificiale dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica.
  7. Responsabilità intesa anche come accountability: dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l'accountability dei sistemi di intelligenza artificiale e dei loro risultati.

La Commissione avvierà in estate una fase pilota con la partecipazione di un'ampia gamma di parti interessate. Imprese, amministrazioni e organizzazioni pubbliche possono iscriversi già da subito all'Alleanza europea per l'IA. Le organizzazioni registrate riceveranno una notifica quando inizierà la fase pilota.

Mai riuscito a rispondere compiutamente alle uniche importanti domande della vita: “quanto costa?”, “quanto ci guadagno?”. Quindi “so e non so perché lo faccio …” ma lo devo fare perché sono curioso.

0
2
0
s2smodern
  Il tuo attuale accesso non ti consente di visualizzare i commenti in questa sezione
© Berlin89 2018 - 2019
Testata giornalistica registrata
al Tribunale civile di Venezia.
Autorizzazione n.8 in data 30/08/218

Direttore Responsabile Vincenzo Maddaloni
Responsabile Trattamento Dati Paolo Molina

csb89

Accedi
x
x
x

cover Massima Depero copy