Titolo

Fascicoli

2018

2017

2016

2015

2014

2013

2012

2011

Annate arretrate

Rivista Italiana di Medicina Legale e del Diritto in campo sanitario

Rivista: Rivista Italiana di Medicina Legale (e del Diritto in campo sanitario)
Anno: 2019
Fascicolo: n. 1
Editore: Giuffrè Francis Lefebvre
ISSN: 1124-3376
Autori: Scalzini Silvia
Titolo: ALCUNE QUESTIONI A PROPOSITO DI ALGORITMI, DATI, ETICA E RICERCA
Pagine: pp. 171-178
Keywords: algoritmi, dati, etica, ricerca

Attraverso l’analisi di alcune questioni sorte in relazione alla gestione dei dati nell’ambito della ricerca e dello sviluppo di sistemi “autonomi” e di intelligenza artificiale, il contributo affronta il tema delle sfide etiche e giuridiche poste da tale paradigma tecnologico, specialmente nell’ambito sanitario.

ALCUNE QUESTIONI A PROPOSITO DI ALGORITMI, DATI, ETICA E RICERCA


1) L’articolo prende le mosse, sviluppa ed integra alcune riflessioni svolte in occasione della tavola rotonda “Se a curare è il robot: problemi etici e di deontologia professionale” del convegno “La medicina fra robotica e diritto. Esperienze e prospettive a confronto” tenutosi a Pisa, il 23 novembre 2018, presso l’ Area Ricerca C.N.R., Via G. Moruzzi. La relazione dell’intervento, che discute in particolare il tema di una possibile deresponsabilizzazione del medico, sarà pubblicata nei relativi atti del convegno.Cfr., da ultimo, la definizione elaborata dall’ High- Level Expert Group on Artificial intelligence (AI) della Commissione europea secondo cui “AI refers to systems designed by humans that, given a complex goal, act in the physical or digital world by perceiving their environment, interpreting the collected structured or unstructured data, reasoning on the knowledge derived from this data and deciding the best action(s) to take (according to pre-defined parameters) to achieve the given goal. AI systems can also be designed to learn to adapt their behaviour by analysing how the environment is affected by their previous actions.As a scientific discipline, AI includes several approaches and techniques, such as machine learning (of which deep learning and reinforcement learning are specific examples), machine reasoning (which includes planning, scheduling, knowledge representation and reasoning, search, and optimization), and robotics (which includes control, perception, sensors and actuators, as well as the integration of all other techniques into cyber-physical systems)”. Si veda, in particolare il documento “A definition of AI: Main capabilities and scientific disciplines” (a cura dell’High-Level Expert Group on Artificial Intelligence), pubblicato il 18 dicembre 2018 e disponibie al seguente indirizo https://ec.europa.eu/digital-single-market/en/news/definition-artificial-intelligence-main-capabilities-and-scientific-disciplines (visionato il 25 febbraio 2019). Sull’importanza del problema definitorio si è soffermato, in particolare, G. Olivieri, nella sua introduzione tenuta al Convegno “Artificial Intelligence and Regulation”, presso la Luiss Guido Carli, 2 marzo 2018. In tema cfr. anche R. Leenes, E. Palmerini, B.-J. Koops, A . Bertolini, P. Salvini, F. Lucivero (2017) Regulatory challenges of robotics: some guidelines for addressing legal and ethical issues, Law, Innovation and Technology, 9:1, 1-44
2) Cfr. per alcuni esempi di applicazione di tali tecnologie P. Bertolazzi, Intelligenza Artificiale, Machine Learninge Big Data: Concetti Di Base E Applicazioni nelle Bioscienze, in The Future of Science and Ethics, n. 2/2017, pp. 90-100, p. 95 ss
3) Cfr. in tema il capitolo “The evolution of health care in a data-rich environment” della pubblicazione dell’OECD (2015), Data driven innovation: Big Data for Growth and Well Being, OECD (2015), Data-Driven Innovation: Big Data for Growth and Well-Being, OECD Publishing, Paris.http://dx.doi.org/10.1787/9789264229358-en, p. 331 ss.
4) Per una aggiornata ricostruzione dei vari interventi cfr., da ultimo, Sarzana di S. Ippolito F. - Nicotra M.,Diritto della Blockchain, Intelligenza Artificiale e IOT, IPSOA, 2018, 18 ss. La Cina, che mira ad essere leader mondiale per l’intelligenza artificiale entro il 2030, ha adottato un « Piano di sviluppo dell’intelligenza artificiale di prossima generazione », mentre Donald Trump ha firmato un ordine esecutivo per promuovere gli investimenti federali in R&D sull’intelligenza artificiale, la cd “American AI Initiative”, cfr. https://www.ilsole24ore.com/art/mondo/2019-02-12/trump-firma-decreto-sviluppare-l-intelligenza-artificiale-made-usa-080645.shtml?uuid=ABZgw7SB (visionato il 26 febbraio 2019).
5) Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)).
6) Communication From The Commission To The European Parliament, The European Council, The Council, The European Economic And Social Committee And The Committee Of The Regions, COM(2018) 237 final, Artificial Intelligence for Europe
7) Cfr. il Comunicato Stampa della Commissione europea del 7 dicembre 2018, Gli Stati membri e la Commissione collaborano per rafforzare l’intelligenza artificiale "made in Europe", http://europa.eu/rapid/press-release_IP-18-6689_it.htm (visionato il 20 febbraio 2019).In Italia, ad esempio, il Ministero dello Sviluppo Economico ha nominato una Commissione di Esperti per elaborare una strategia per l’IA https://www.mise.gov.it/index.php/it/per-i-media/notizie/it/198-notizie-stampa/2038600-mise-esperti-per-l-intelligenza-artificiale (visionato il 20 febbraio 2019).
8) Il rapporto ha seguito il rapporto sull’intelligenza artificiale pubblicato nel 2016 dalla Camera dei Comuni.
9) Commission Nationale informatique et Libertés (CNIL), Comment permettre à l’homme de garder la main? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, pubblicato nel dicembre 2017  https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf
10) European Group on Ethics in Science and New Technologies, Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems, 9 marzo 2018, https://ec.europa.eu/research/ege/pdf/ege_ai_statement_2018.pdf.
11) High-Level Expert Group on Artificial Intelligence, Ethics Guidelines for Trustworthy AI, 8 aprile 2019, https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai.
12) The Japanese Society for Artificial Intelligence Ethical Guidelines, http://ai-elsi.org/archives/514
13) http://nuffieldbioethics.org/project/briefing-notes/artificial-intelligence-ai-healthcare-research (visionato il 25 febbraio 2019). Il Nuffield Council on Bioethics, fondato nel 1991 nel Regno Unito, è un ente indipendente che valuta ed approfondisce le questioni etiche nate dai recenti avanzamenti nella ricerca biologica e medica per rispondere alle preoccupazioni pubbliche, o anche anticiparle.
14) Comitato Nazionale per la Bioetica e Comitato Nazionale per la Biosicurezza, le Biotecnologe e le Scienze della Vita, Sviluppi della Robotica e della Roboetica, 17 luglio 2017, http://presidenza.governo.it/biotecnologie/documenti/Robotica-misto%20CNB-CNBBSV-17lug17-IT.pdf (visionato il 15 febbraio 2019).
15) Sviluppi della Robotica e della Roboetica, p. 3 ss.. Tra gli altri documenti che si sono occupati del tema si veda, inoltre, il Report on big data and health dell’International Bioethics Commettee dell’UNESCO, SHS/YES/IBC-24/17/3 REV.2 Paris, 15 settembre 2017.
16) Il concetto di “autonomia” in relazione allo sviluppo di robot e sistemi di IA, e le sovrapposizioni e differenze con il concetto di “automazione” sono ben spiegati da G. Comandé, Responsabilità ed accountability nell’era dell’Intelligenza Artificiale, in Giurisprudenza e autorità indipendenti nell’epoca del diritto liquido. Studi in onore di Roberto Pardolesi, a cura di F. Di Ciommo e O. Troiano, La Tribuna, Piacenza, 2018, pp. 1001-1015, p. 1003 secondo cui “basti dire che l’autonomia dipende dai margini di libertà che l’intelligenza artificiale ha nelle sue scelte. Questi gradi di libertà sono spesso guidati dalle informazioni che possono raccogliere e elaborare nei loro processi decisionali automatizzati; allo stesso modo di ciò che fanno gli esseri umani, ma a un livello molto più ampio e ad una maggiore velocità di calcolo”.
17) European Group on Ethics in Science and New Technologies, Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems, cit., p. 17. Traduzione a cura dell’autrice. Già la Risoluzione del PE del febbraio 2017, inoltre, conteneva come allegati un “Codice Etico per gli ingegneri robotici” che prevede una serie di principi a cui gli ingegneri dovrebbero ispirarsi nel corso della propria attività ed un codice etico per i comitati di etica della ricerca e specifiche licenze per progettisti e per utenti.
18) Nel documento essi sono raggruppati nelle seguenti categorie: Respect for human dignity, Freedom of the individual, Respect for democracy, justice and the rule of law, Equality, non-discrimination and solidarity including the rights of persons at risk of exclusion, Citizens’ rights.
19) Respect for Human Autonomy, Prevention of Harm, Fairness, Explicability.
20) Nella lista, non esaustiva, sono elencati: Accountability; Data Governance; Design for all; Governance of AI Autonomy (Human oversight); Non-Discrimination; Respect for (& Enhancement of) Human Autonomy; Respect for Privacy; Robustness; Safety; Transparency
21) L’immagine di cerchi concentrici, per l’opinione di chi scrive, meglio si addice a descrivere la relazione tra diritti fondamentali, principi etici, valori e requisiti per la IA affidabile. L’AI HLEG nel far ciò ha adottato lo stesso metodo della Convenzione di Oviedo, Convention for the Protection of Human Rights and Dignity of the Human Being with regard to the Application of Biology and Medicine.
22) Sebbene tale finalità fosse maggiormente marcata nella prima bozza del documento.
23) A seguito della consultazione pubblica, ad esempio, l’AI HLEG ha ricevuto più di 500 commenti che dovrà discutere per presentare alla Commissione europea la versione finale delle linee guida ad aprile 2019.
24) Cfr.M. Taddei-L. Floridi, How AI can be a force for good, in Science, 24 Aug 2018: Vol. 361, Issue 6404, pp. 751-752, DOI: 10.1126/science.aat5991
25) Il cd concetto di translational ethics, cfr. ancora M. Taddei- L. Floridi, How AI can be a force for good, in Science, cit., 752.
26) Cfr. per i limiti dell’attuale inquadramento giuridico CNIL, Comment permettre à l’homme de garder la main? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, cit., p. 46
27) “Per integrità nella ricerca si intende l’insieme dei principi e dei valori etici, dei doveri deontologici e degli standard professionali sui quali si fonda una condotta responsabile e corretta da parte di chi svolge, finanzia o valuta la ricerca scientifica nonché da parte delle istituzioni che la promuovono e la realizzano”. Cfr. per tale definizione le Linee guida per l’integrità nella ricerca, elaborate nell’ambito delle attività della Commissione per l’Etica della Ricerca e la Bioetica del Consiglio Nazionale delle Ricerche (CNR) e pubblicate integralmente in The Future of Science and Ethics nell’ambito dell’articolo di C. Caporale, D. Fanelli (2016), « L’integrità nella ricerca, una questione di standard », in The Future of Science and Ethics, 1, 154-167. In tema si vedano anche le Research Integrity Guidelines dell’Ospedale San Raffaele http://research.hsr.it/en/research-integrity/overview.html (visionato il 25 febbraio 2019).
28) J. Metcalf, E. Keller, D. Boyd (2016), Perspectives on Big Data, Ethics, and Society, White Paper of the Council for Big data, Ethics and Society, p. 6, disponibile all’indirizzo http://bdes.datasociety.net/ (visionato il 4 febbraio 2019)
29) Riflette sul ruolo dell’etica nella scienza F.D. Busnelli, Verso un nuovo concetto di salute?, negli Atti del Workshop organizzato da Fnomceo, “La medicina potenziativa: intersezioni e questioni”, Roma, 16 marzo 2017, disponibili all’indirizzo https://portale.fnomceo.it/wp-content/uploads/2017/11/La_Professione_1-2017._Medicina_potenziativa_Roma.pdf, 49 ss., p. 53
30) Per “allenamento della macchina”, specialmente nel machine learning, si intende la selezione dei dati, la costruzione di dataset e la fissazione dei parametri di ricerca da parte dello sviluppatore per l’apprendimento automatico da parte degli algoritmi.
31) Per altro verso è anche vero che i sistemi di intelligenza artificiale potrebbero, invero, in certi casi eliminare il rischio di errori o bias, rendendo alcuni processi logici più oggettivi. Per una discussione del tema cfr. anche F. Rossi, Unbiased AI, live presentation, https://www.research.ibm.com/5-in-5/ai-and-bias/.
32) Ed il problema può essere accentuato nel cd machine learning in quanto “Machine learning technologies can be particularly opaque because of the way they continuously tweak their own parameters and rules as they learn”. Cfr. Nuffield Council on Bioethics, “AI in Healthcare and Research”, p. 4.
33) Gli esempi sono tratti dal rapporto del CNIL, Comment permettre à l’homme de garder la main? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, cit., p. 31 ss.
34) In un caso il sistema ha assimilato una coppia afro-americana ad una coppia di gorilla.
35) Cfr.A. Datta, A., M. C. Tschantz, A. Datta, Automated experiments on ad privacy settings. Proceedings on Privacy Enhancing Technologies, 2015(1), 92–112.
36) Il rapporto della Federal Trade Commission statunitense (2016) Big data: A tool for inclusion or exclusion? Understanding the issues (https://www.ftc.gov/system/files/documents/reports/big-data-tool-inclusion-or-exclusion-understanding-issues/160106big-data-rpt.pdf, visionato il 25 febbraio 2019) ha evidenziato che gli algoritmi basati sui big data set potrebbero “reproduce existing patterns of discrimination, inherit the prejudice of prior decision-makers, or simply reflect the widespread biases that persist in society”.
37) Cfr. Nuffield Council on Bioethics, “AI in Healthcare and Research”, che a sua volta richiama il rapport della British Academy and Royal Society (2017) Data management and use: governance in the 21st century, https://royalsociety.org/-/media/policy/projects/data-governance/data-management-governance.pdf
38) Cfr. per questo esempio A. Howard, J. Borenstein, The Ugly Truth About Ourselves and Our Robot Creations: The Problem of Bias and Social Inequity, Sci Eng Ethics (2018) 24: 1521. https://doi.org/10.1007/s11948-017-9975-2 i quali fanno l’esempio della scelta del sistema di IA se dare priorità ad un giovane o ad un anziano in una situazione di triage (essendo diversa l’aspettativa di vita dei due soggetti).
39) Alcuni pregiudizi potrebbero, tuttavia, essere così inconsci, impliciti da essere difficili da identificare nel modo di funzionare degli algoritmi. Altri potrebbero scaturire automaticamente da meccanismi di machine learning e non essere dovuti a “vizi” di origine nella scelta dei dataset.
40) Tale raccomandazione si ritrova anche nell’ High-Level Expert Group on Artificial Intelligence, Draft Ethics Guidelines for Trustworthy AI, p. 22.
41) La risposta a tale domanda dipende dalla finalità della ricerca e dal tipo di risultato o decisione voluta. Tuttavia, anche la programmazione degli algoritmi volta al recepimento di norme legislative o standards mostra alcuni limiti, come evidenzia G. Comandé, Responsabilità ed accountability nell’era dell’Intelligenza Artificiale, cit., p. 1005. In tema cfr. anche R. Courtland, The bias detectives: the researchers striving to make algorithms fair. As machine learning infiltrates society, scientists are trying to help ward off injustice, in Nature, Vol. 558, Fasc. 7710, 357 – 360, pubblicato online a giugno 2018, https://www.nature.com/articles/d41586-018-05469-3.
42) Cfr. High-Level Expert Group on Artificial Intelligence, Draft Ethics Guidelines for Trustworthy AI, p. p. 18
43) Cfr. Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati, GDPR) per l’ordinamento italiano, Decreto legislativo 30 giugno 2003, n. 196, da ultimo novellato con il D.Lgs. 101/2018.
44) Cfr. in particolare gli artt. 15 e 22 GDPR. In dottrina si veda F. Pizzetti (a cura di), Intelligenza artificiale, protezione dei dati personali e regolazione, Giappichelli, Torino, 2018, p. 179, il quale sottolinea i problemi interpretativi ed applicativi relativi ai doveri informativi inerenti le macchine robotiche, le modalità con cui gli interessati potranno “ottenere la limitazione dei trattamenti (art. 18) o opporsi ad essi (art. 21)”.
45) Eventualità pondererata anche dallo stesso legislatore che ha previsto l’emanazione di codici di condotta settoriali.
46) Il rischio di tale fenomeno è richiamato da EGE, Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems, cit., p. 14 “Regulatory patchworks may give rise to ‘ethics shopping’ resulting in the relocation of AI development and use to regions with lower ethical standards”.
1) L’articolo prende le mosse, sviluppa ed integra alcune riflessioni svolte in occasione della tavola rotonda “Se a curare è il robot: problemi etici e di deontologia professionale” del convegno “La medicina fra robotica e diritto. Esperienze e prospettive a confronto” tenutosi a Pisa, il 23 novembre 2018, presso l’ Area Ricerca C.N.R., Via G. Moruzzi. La relazione dell’intervento, che discute in particolare il tema di una possibile deresponsabilizzazione del medico, sarà pubblicata nei relativi atti del convegno.Cfr., da ultimo, la definizione elaborata dall’ High- Level Expert Group on Artificial intelligence (AI) della Commissione europea secondo cui “AI refers to systems designed by humans that, given a complex goal, act in the physical or digital world by perceiving their environment, interpreting the collected structured or unstructured data, reasoning on the knowledge derived from this data and deciding the best action(s) to take (according to pre-defined parameters) to achieve the given goal. AI systems can also be designed to learn to adapt their behaviour by analysing how the environment is affected by their previous actions.As a scientific discipline, AI includes several approaches and techniques, such as machine learning (of which deep learning and reinforcement learning are specific examples), machine reasoning (which includes planning, scheduling, knowledge representation and reasoning, search, and optimization), and robotics (which includes control, perception, sensors and actuators, as well as the integration of all other techniques into cyber-physical systems)”. Si veda, in particolare il documento “A definition of AI: Main capabilities and scientific disciplines” (a cura dell’High-Level Expert Group on Artificial Intelligence), pubblicato il 18 dicembre 2018 e disponibie al seguente indirizo https://ec.europa.eu/digital-single-market/en/news/definition-artificial-intelligence-main-capabilities-and-scientific-disciplines (visionato il 25 febbraio 2019). Sull’importanza del problema definitorio si è soffermato, in particolare, G. Olivieri, nella sua introduzione tenuta al Convegno “Artificial Intelligence and Regulation”, presso la Luiss Guido Carli, 2 marzo 2018. In tema cfr. anche R. Leenes, E. Palmerini, B.-J. Koops, A . Bertolini, P. Salvini, F. Lucivero (2017) Regulatory challenges of robotics: some guidelines for addressing legal and ethical issues, Law, Innovation and Technology, 9:1, 1-44
2) Cfr. per alcuni esempi di applicazione di tali tecnologie P. Bertolazzi, Intelligenza Artificiale, Machine Learninge Big Data: Concetti Di Base E Applicazioni nelle Bioscienze, in The Future of Science and Ethics, n. 2/2017, pp. 90-100, p. 95 ss
3) Cfr. in tema il capitolo “The evolution of health care in a data-rich environment” della pubblicazione dell’OECD (2015), Data driven innovation: Big Data for Growth and Well Being, OECD (2015), Data-Driven Innovation: Big Data for Growth and Well-Being, OECD Publishing, Paris.http://dx.doi.org/10.1787/9789264229358-en, p. 331 ss.
4) Per una aggiornata ricostruzione dei vari interventi cfr., da ultimo, Sarzana di S. Ippolito F. - Nicotra M.,Diritto della Blockchain, Intelligenza Artificiale e IOT, IPSOA, 2018, 18 ss. La Cina, che mira ad essere leader mondiale per l’intelligenza artificiale entro il 2030, ha adottato un « Piano di sviluppo dell’intelligenza artificiale di prossima generazione », mentre Donald Trump ha firmato un ordine esecutivo per promuovere gli investimenti federali in R&D sull’intelligenza artificiale, la cd “American AI Initiative”, cfr. https://www.ilsole24ore.com/art/mondo/2019-02-12/trump-firma-decreto-sviluppare-l-intelligenza-artificiale-made-usa-080645.shtml?uuid=ABZgw7SB (visionato il 26 febbraio 2019).
5) Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)).
6) Communication From The Commission To The European Parliament, The European Council, The Council, The European Economic And Social Committee And The Committee Of The Regions, COM(2018) 237 final, Artificial Intelligence for Europe
7) Cfr. il Comunicato Stampa della Commissione europea del 7 dicembre 2018, Gli Stati membri e la Commissione collaborano per rafforzare l’intelligenza artificiale "made in Europe", http://europa.eu/rapid/press-release_IP-18-6689_it.htm (visionato il 20 febbraio 2019).In Italia, ad esempio, il Ministero dello Sviluppo Economico ha nominato una Commissione di Esperti per elaborare una strategia per l’IA https://www.mise.gov.it/index.php/it/per-i-media/notizie/it/198-notizie-stampa/2038600-mise-esperti-per-l-intelligenza-artificiale (visionato il 20 febbraio 2019).
8) Il rapporto ha seguito il rapporto sull’intelligenza artificiale pubblicato nel 2016 dalla Camera dei Comuni.
9) Commission Nationale informatique et Libertés (CNIL), Comment permettre à l’homme de garder la main? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, pubblicato nel dicembre 2017  https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf
10) European Group on Ethics in Science and New Technologies, Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems, 9 marzo 2018, https://ec.europa.eu/research/ege/pdf/ege_ai_statement_2018.pdf.
11) High-Level Expert Group on Artificial Intelligence, Ethics Guidelines for Trustworthy AI, 8 aprile 2019, https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai.
12) The Japanese Society for Artificial Intelligence Ethical Guidelines, http://ai-elsi.org/archives/514
13) http://nuffieldbioethics.org/project/briefing-notes/artificial-intelligence-ai-healthcare-research (visionato il 25 febbraio 2019). Il Nuffield Council on Bioethics, fondato nel 1991 nel Regno Unito, è un ente indipendente che valuta ed approfondisce le questioni etiche nate dai recenti avanzamenti nella ricerca biologica e medica per rispondere alle preoccupazioni pubbliche, o anche anticiparle.
14) Comitato Nazionale per la Bioetica e Comitato Nazionale per la Biosicurezza, le Biotecnologe e le Scienze della Vita, Sviluppi della Robotica e della Roboetica, 17 luglio 2017, http://presidenza.governo.it/biotecnologie/documenti/Robotica-misto%20CNB-CNBBSV-17lug17-IT.pdf (visionato il 15 febbraio 2019).
15) Sviluppi della Robotica e della Roboetica, p. 3 ss.. Tra gli altri documenti che si sono occupati del tema si veda, inoltre, il Report on big data and health dell’International Bioethics Commettee dell’UNESCO, SHS/YES/IBC-24/17/3 REV.2 Paris, 15 settembre 2017.
16) Il concetto di “autonomia” in relazione allo sviluppo di robot e sistemi di IA, e le sovrapposizioni e differenze con il concetto di “automazione” sono ben spiegati da G. Comandé, Responsabilità ed accountability nell’era dell’Intelligenza Artificiale, in Giurisprudenza e autorità indipendenti nell’epoca del diritto liquido. Studi in onore di Roberto Pardolesi, a cura di F. Di Ciommo e O. Troiano, La Tribuna, Piacenza, 2018, pp. 1001-1015, p. 1003 secondo cui “basti dire che l’autonomia dipende dai margini di libertà che l’intelligenza artificiale ha nelle sue scelte. Questi gradi di libertà sono spesso guidati dalle informazioni che possono raccogliere e elaborare nei loro processi decisionali automatizzati; allo stesso modo di ciò che fanno gli esseri umani, ma a un livello molto più ampio e ad una maggiore velocità di calcolo”.
17) European Group on Ethics in Science and New Technologies, Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems, cit., p. 17. Traduzione a cura dell’autrice. Già la Risoluzione del PE del febbraio 2017, inoltre, conteneva come allegati un “Codice Etico per gli ingegneri robotici” che prevede una serie di principi a cui gli ingegneri dovrebbero ispirarsi nel corso della propria attività ed un codice etico per i comitati di etica della ricerca e specifiche licenze per progettisti e per utenti.
18) Nel documento essi sono raggruppati nelle seguenti categorie: Respect for human dignity, Freedom of the individual, Respect for democracy, justice and the rule of law, Equality, non-discrimination and solidarity including the rights of persons at risk of exclusion, Citizens’ rights.
19) Respect for Human Autonomy, Prevention of Harm, Fairness, Explicability.
20) Nella lista, non esaustiva, sono elencati: Accountability; Data Governance; Design for all; Governance of AI Autonomy (Human oversight); Non-Discrimination; Respect for (& Enhancement of) Human Autonomy; Respect for Privacy; Robustness; Safety; Transparency
21) L’immagine di cerchi concentrici, per l’opinione di chi scrive, meglio si addice a descrivere la relazione tra diritti fondamentali, principi etici, valori e requisiti per la IA affidabile. L’AI HLEG nel far ciò ha adottato lo stesso metodo della Convenzione di Oviedo, Convention for the Protection of Human Rights and Dignity of the Human Being with regard to the Application of Biology and Medicine.
22) Sebbene tale finalità fosse maggiormente marcata nella prima bozza del documento.
23) A seguito della consultazione pubblica, ad esempio, l’AI HLEG ha ricevuto più di 500 commenti che dovrà discutere per presentare alla Commissione europea la versione finale delle linee guida ad aprile 2019.
24) Cfr.M. Taddei-L. Floridi, How AI can be a force for good, in Science, 24 Aug 2018: Vol. 361, Issue 6404, pp. 751-752, DOI: 10.1126/science.aat5991
25) Il cd concetto di translational ethics, cfr. ancora M. Taddei- L. Floridi, How AI can be a force for good, in Science, cit., 752.
26) Cfr. per i limiti dell’attuale inquadramento giuridico CNIL, Comment permettre à l’homme de garder la main? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, cit., p. 46
27) “Per integrità nella ricerca si intende l’insieme dei principi e dei valori etici, dei doveri deontologici e degli standard professionali sui quali si fonda una condotta responsabile e corretta da parte di chi svolge, finanzia o valuta la ricerca scientifica nonché da parte delle istituzioni che la promuovono e la realizzano”. Cfr. per tale definizione le Linee guida per l’integrità nella ricerca, elaborate nell’ambito delle attività della Commissione per l’Etica della Ricerca e la Bioetica del Consiglio Nazionale delle Ricerche (CNR) e pubblicate integralmente in The Future of Science and Ethics nell’ambito dell’articolo di C. Caporale, D. Fanelli (2016), « L’integrità nella ricerca, una questione di standard », in The Future of Science and Ethics, 1, 154-167. In tema si vedano anche le Research Integrity Guidelines dell’Ospedale San Raffaele http://research.hsr.it/en/research-integrity/overview.html (visionato il 25 febbraio 2019).
28) J. Metcalf, E. Keller, D. Boyd (2016), Perspectives on Big Data, Ethics, and Society, White Paper of the Council for Big data, Ethics and Society, p. 6, disponibile all’indirizzo http://bdes.datasociety.net/ (visionato il 4 febbraio 2019)
29) Riflette sul ruolo dell’etica nella scienza F.D. Busnelli, Verso un nuovo concetto di salute?, negli Atti del Workshop organizzato da Fnomceo, “La medicina potenziativa: intersezioni e questioni”, Roma, 16 marzo 2017, disponibili all’indirizzo https://portale.fnomceo.it/wp-content/uploads/2017/11/La_Professione_1-2017._Medicina_potenziativa_Roma.pdf, 49 ss., p. 53
30) Per “allenamento della macchina”, specialmente nel machine learning, si intende la selezione dei dati, la costruzione di dataset e la fissazione dei parametri di ricerca da parte dello sviluppatore per l’apprendimento automatico da parte degli algoritmi.
31) Per altro verso è anche vero che i sistemi di intelligenza artificiale potrebbero, invero, in certi casi eliminare il rischio di errori o bias, rendendo alcuni processi logici più oggettivi. Per una discussione del tema cfr. anche F. Rossi, Unbiased AI, live presentation, https://www.research.ibm.com/5-in-5/ai-and-bias/.
32) Ed il problema può essere accentuato nel cd machine learning in quanto “Machine learning technologies can be particularly opaque because of the way they continuously tweak their own parameters and rules as they learn”. Cfr. Nuffield Council on Bioethics, “AI in Healthcare and Research”, p. 4.
33) Gli esempi sono tratti dal rapporto del CNIL, Comment permettre à l’homme de garder la main? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, cit., p. 31 ss.
34) In un caso il sistema ha assimilato una coppia afro-americana ad una coppia di gorilla.
35) Cfr.A. Datta, A., M. C. Tschantz, A. Datta, Automated experiments on ad privacy settings. Proceedings on Privacy Enhancing Technologies, 2015(1), 92–112.
36) Il rapporto della Federal Trade Commission statunitense (2016) Big data: A tool for inclusion or exclusion? Understanding the issues (https://www.ftc.gov/system/files/documents/reports/big-data-tool-inclusion-or-exclusion-understanding-issues/160106big-data-rpt.pdf, visionato il 25 febbraio 2019) ha evidenziato che gli algoritmi basati sui big data set potrebbero “reproduce existing patterns of discrimination, inherit the prejudice of prior decision-makers, or simply reflect the widespread biases that persist in society”.
37) Cfr. Nuffield Council on Bioethics, “AI in Healthcare and Research”, che a sua volta richiama il rapport della British Academy and Royal Society (2017) Data management and use: governance in the 21st century, https://royalsociety.org/-/media/policy/projects/data-governance/data-management-governance.pdf
38) Cfr. per questo esempio A. Howard, J. Borenstein, The Ugly Truth About Ourselves and Our Robot Creations: The Problem of Bias and Social Inequity, Sci Eng Ethics (2018) 24: 1521. https://doi.org/10.1007/s11948-017-9975-2 i quali fanno l’esempio della scelta del sistema di IA se dare priorità ad un giovane o ad un anziano in una situazione di triage (essendo diversa l’aspettativa di vita dei due soggetti).
39) Alcuni pregiudizi potrebbero, tuttavia, essere così inconsci, impliciti da essere difficili da identificare nel modo di funzionare degli algoritmi. Altri potrebbero scaturire automaticamente da meccanismi di machine learning e non essere dovuti a “vizi” di origine nella scelta dei dataset.
40) Tale raccomandazione si ritrova anche nell’ High-Level Expert Group on Artificial Intelligence, Draft Ethics Guidelines for Trustworthy AI, p. 22.
41) La risposta a tale domanda dipende dalla finalità della ricerca e dal tipo di risultato o decisione voluta. Tuttavia, anche la programmazione degli algoritmi volta al recepimento di norme legislative o standards mostra alcuni limiti, come evidenzia G. Comandé, Responsabilità ed accountability nell’era dell’Intelligenza Artificiale, cit., p. 1005. In tema cfr. anche R. Courtland, The bias detectives: the researchers striving to make algorithms fair. As machine learning infiltrates society, scientists are trying to help ward off injustice, in Nature, Vol. 558, Fasc. 7710, 357 – 360, pubblicato online a giugno 2018, https://www.nature.com/articles/d41586-018-05469-3.
42) Cfr. High-Level Expert Group on Artificial Intelligence, Draft Ethics Guidelines for Trustworthy AI, p. p. 18
43) Cfr. Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati, GDPR) per l’ordinamento italiano, Decreto legislativo 30 giugno 2003, n. 196, da ultimo novellato con il D.Lgs. 101/2018.
44) Cfr. in particolare gli artt. 15 e 22 GDPR. In dottrina si veda F. Pizzetti (a cura di), Intelligenza artificiale, protezione dei dati personali e regolazione, Giappichelli, Torino, 2018, p. 179, il quale sottolinea i problemi interpretativi ed applicativi relativi ai doveri informativi inerenti le macchine robotiche, le modalità con cui gli interessati potranno “ottenere la limitazione dei trattamenti (art. 18) o opporsi ad essi (art. 21)”.
45) Eventualità pondererata anche dallo stesso legislatore che ha previsto l’emanazione di codici di condotta settoriali.
46) Il rischio di tale fenomeno è richiamato da EGE, Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems, cit., p. 14 “Regulatory patchworks may give rise to ‘ethics shopping’ resulting in the relocation of AI development and use to regions with lower ethical standards”.
please wait

Caricamento in corso...