I Principi di Asilomar sono parte di un documento firmato nel 2017 in un convegno di 800 esperti mondiali di Intelligenza Artificiale promosso dal Future of Live Institute. È un vademecum diviso in 23 punti per affrontare le problematiche etiche, sociali, culturali e militari riguardanti questa tecnologia. In seguito è stato sottoscritto da altre migliaia di scienziati.

 

  1. L’obiettivo della ricerca dev’essere creare un’intelligenza della quale poter trarre beneficio.
  2. I finanziamenti alla ricerca devono comprendere questioni spinose in materia di informatica, economia, legge, etica e studi economici.
  3. Ci dev’essere uno scambio costruttivo e sano tra politica e ricerca.
  4. La cultura della ricerca deve avere alla base i principi di cooperazione, fiducia e trasparenza.
  5. Durante lo sviluppo di sistemi IA bisogna evitare scorciatoie a discapito della sicurezza.
  6. I sistemi IA devono essere sicuri e protetti per tutto il loro ciclo vitale.
  7. Nel caso in cui un’IA causasse un danno, ci dev’essere trasparenza sulle cause.
  8. In caso di coinvolgimento di un sistema decisionale robotico in materia di giustizia, quest’ultimo deve sempre fornire spiegazioni soddisfacenti e verificabili.
  9. Progettisti e costruttori dei sistemi IA sono responsabili delle implicazioni morali non solo del loro uso ma anche delle azioni che essi compiono.
  10. Gli scopi e i comportamenti dei sistemi IA autonomi devono essere allineati ai valori umani.
  11. I sistemi IA devono essere compatibili con la dignità umana, i diritti, le libertà e la diversità culturale.
  12. Ogni persona ha diritto di accedere, gestire e controllare i propri dati, anche quando usati dai sistemi IA.
  13. L’applicazione dell’IA ai dati personali non deve limitare irragionevolmente l’idea di libertà delle persone.
  14. Più persone possibile devono beneficiare delle tecnologie IA.
  15. La prosperità economica creata dall’IA dev’essere condivisa per dare beneficio a tutta l’umanità.
  16. Gli uomini devono poter scegliere se e come delegare le decisioni ai sistemi di IA.
  17. Il potere conferito all’IA dovrà rispettare e migliorare, e non sovvertire, i processi sociali e civili.
  18. Evitare corse agli armamenti di strumenti IA.
  19. Dobbiamo evitare di fare supposizioni sui limiti delle future capacità dell’IA.
  20. Bisogna pianificare e gestire l’IA avanzata con cura e risorse commisurate.
  21. I rischi connessi all’IA devono essere oggetto di pianificazione e mitigazione degli sforzi.
  22. I sistemi IA progettati per automigliorarsi o autoreplicarsi devono essere oggetto di misure di sicurezza e di controllo severe.
  23. L’IA dev’essere sviluppata al servizio di ideali etici ampiamente condivisi e a beneficio di tutta l’umanità, anziché di un solo Paese od organizzazione.
shutterstock 1011660094