Dovremmo mantenere le macchine a standard più elevati di quelli degli esseri umani?
Questo mese un interessante gruppo di varie discipline si è riunito per discutere i pregiudizi dell’IA alla conferenza virtuale CyberSec e AI Connected di Avast. All’evento hanno partecipato i principali accademici e professionisti della tecnologia di tutto il mondo per esaminare le questioni critiche relative all’intelligenza artificiale per la privacy e la sicurezza informatica.
L’evento è stato moderato dal venture capitalist Samir Kumar, che è l’amministratore delegato del fondo di venture capital interno di Microsoft M12 e comprendeva:
Noel Sharkey, professore in pensione presso l’Università di Sheffield (Regno Unito) che è attivamente coinvolto in varie iniziative di IA,
Celeste Fralick, Chief Data Scientist di McAfee e ricercatrice di intelligenza artificiale,
Sandra Wachter, professore associato presso l’Università di Oxford (Regno Unito) e studioso di diritto, e
Rajarshi Gupta, vicepresidente di Avast e responsabile delle aree di attività AI e Network Security.
Il gruppo ha esplorato prima la natura del bias dell’IA, che può essere definito in vari modi. Prima di tutto, ha detto Sharkey, è “l’ ingiustizia algoritmica”, dove ci sono evidenti violazioni della dignità umana. Ha offerto esempi che vanno da una maggiore sicurezza aeroportuale, che presumibilmente seleziona persone a caso per ulteriori controlli, alla polizia predittiva.
Parte del problema per l’IA è che il bias non è un parametro così semplice. In effetti, secondo Fralick, ci sono due principali categorie di pregiudizi: sociale e tecnologico,”E i due si nutrono a vicenda per creare il contesto tra i costumi sociali comunemente accettati”, ha detto durante la presentazione. “E anche questi costumi si evolvono nel tempo. “Parte della valutazione di questi costumi ha a che fare con il contesto legale, che Wachter ha ricordato alla giuria. “Guarda i progressi dell’azione affermativa negli Stati Uniti”, ha detto. “Ora che abbiamo una maggiore equità nelle scuole di medicina, ad esempio, non ne abbiamo più bisogno”. Wachter ha affermato che “I pregiudizi tecnologici sono più facili da correggere, come l’utilizzo di una raccolta più diversificata di volti durante l’addestramento di modelli di riconoscimento facciale. A volte, dobbiamo ridurre le nostre aspettative quando si tratta di valutare la tecnologia. “
Naturalmente, parte del problema con la definizione del bias sta nel separare la correlazione dalla causalità, aspetto sollevato più volte durante la discussione.
Un altro problema è la diversità del team che crea algoritmi di IA. Fralick ha detto “se non assumi persone diverse, ottieni quello per cui paghi”. Ma la diversità non è solo per genere o razza, ma anche per diversi ambiti e background professionali. Wachter ha detto: “In qualità di avvocato, penso in un quadro giuridico, ma non posso fornire consulenza tecnica. C’è bisogno di analisi attraverso background diversi. Possiamo usare la stessa parola in modi molto diversi e dobbiamo creare un linguaggio comune per collaborare efficacemente”.
Una parte separata della comprensione dei pregiudizi dell’IA è il confronto degli standard etici impliciti nell’output dell’IA. Kumar ha chiesto se dovessimo mantenere le macchine a standard più elevati rispetto agli umani. Sharkey ha affermato che “le macchine non prendono decisioni migliori degli umani, è più importante l’impatto che queste decisioni hanno su di me personalmente”. Wachter ritiene che gli algoritmi siano stati ritenuti conformi a standard inferiori rispetto agli umani. Ma c’è un altro problema: “gli algoritmi possono mascherare comportamenti razzisti e sessisti e possono escludere determinati gruppi senza alcun effetto evidente. Potrebbe accadere involontariamente e di conseguenza essere molto più pericoloso”. Dato il suo background giuridico, suggerisce che questo è un ambito in cui potremmo applicare nuove normative in grado di testare queste conseguenze indesiderate.
Un’ultima nota ha a che fare con l’ interpretazione dei risultati della modellazione AI . “Dobbiamo essere in grado di spiegare questi risultati”, ha detto Gupta. “Ma i modelli sono migliorati molto più velocemente della qualità delle spiegazioni, soprattutto per i modelli di deep learning”. Altri membri del gruppo hanno convenuto e hanno affermato che è necessario definire chiaramente i set di formazione e test per fornire il contesto più appropriato.




Lascia un commento