Le leggi della Robotica & La strategia europea
-
Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
-
Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
-
Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.
Isac Asimov
Nel 2018 la Commissione europea, con una procedura di selezione aperta, aveva nominato 52 esperti di intelligenza artificiale.
AI HLEG
L’iniziativa rientra nella strategia per l’intelligenza artificiale che la Commissione ha presentato nell'aprile 2018. Tra gli obiettivi, c’è quello di aumentare gli investimenti pubblici e privati portandoli ad almeno 20 miliardi di euro l'anno nei prossimi dieci anni. Nonché mettere a disposizione più dati, promuovere il talento e garantire la fiducia.
La strategia europea
Secondo la Commissione, molti settori trarranno beneficio dall'intelligenza artificiale. Ad esempio l'assistenza sanitaria, il consumo energetico, la sicurezza delle automobili, l'agricoltura, i cambiamenti climatici e la gestione dei rischi finanziari, e può aiutare a rilevare le frodi e minacce alla cibersecurity, e consentire alle forze dell'ordine di lottare più efficacemente contro la criminalità.
Ma solleva interrogativi giuridici ed etici.
Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno.
R. Daneel Olivaw
L’approccio della Commissione è articolato in tre fasi. Il primo è la definizione dei requisiti fondamentali per un’intelligenza affidabile. A questo segue l’avvio di una fase pilota su larga scala per raccogliere le osservazioni delle parti interessate. Infine, c’è l’impegno volto al raggiungimento di un consenso internazionale per un’intelligenza artificiale antropocentrica.
Questi sono i sette requisiti fondamentali individuati nel lavoro svolto finora dalla commissione.
- Azione e sorveglianza umane: i sistemi di intelligenza artificiale dovrebbero promuovere lo sviluppo di società eque sostenendo l'azione umana e i diritti fondamentali e non dovrebbero ridurre, limitare o sviare l'autonomia dell'uomo.
- Robustezza e sicurezza: per un'intelligenza artificiale di cui ci si possa fidare è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di intelligenza artificiale.
- Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e nel contempo i dati che li riguardano non dovranno essere utilizzati per danneggiarli o discriminarli.
- Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di intelligenza artificiale.
- Diversità, non discriminazione ed equità: i sistemi di intelligenza artificiale dovrebbero tenere in considerazione l'intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.
- Benessere sociale e ambientale: i sistemi di intelligenza artificiale dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica.
- Responsabilità intesa anche come accountability: dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l'accountability dei sistemi di intelligenza artificiale e dei loro risultati.
La Commissione avvierà in estate una fase pilota con la partecipazione di un'ampia gamma di parti interessate. Imprese, amministrazioni e organizzazioni pubbliche possono iscriversi già da subito all'Alleanza europea per l'IA. Le organizzazioni registrate riceveranno una notifica quando inizierà la fase pilota.