• Home
  • Chi siamo
  • Il nostro sito web
Future Time Security blog
Menu
  • Home
  • Chi siamo
  • Il nostro sito web
Home  /  Senza categoria  /  Affrontare i pregiudizi negli algoritmi di intelligenza artificiale

Affrontare i pregiudizi negli algoritmi di intelligenza artificiale

Dovremmo mantenere le macchine a standard più elevati di quelli degli esseri umani?

Questo mese un interessante gruppo di varie discipline si è riunito per discutere i pregiudizi dell’IA alla conferenza virtuale CyberSec e AI Connected di Avast. All’evento hanno partecipato i principali accademici e professionisti della tecnologia di tutto il mondo per esaminare le questioni critiche relative all’intelligenza artificiale per la privacy e la sicurezza informatica.

L’evento è stato moderato dal venture capitalist Samir Kumar, che è l’amministratore delegato del fondo di venture capital interno di Microsoft M12 e comprendeva:

Noel Sharkey, professore in pensione presso l’Università di Sheffield (Regno Unito) che è attivamente coinvolto in varie iniziative di IA,

Celeste Fralick, Chief Data Scientist di McAfee e ricercatrice di intelligenza artificiale,

Sandra Wachter, professore associato presso l’Università di Oxford (Regno Unito) e studioso di diritto, e

Rajarshi Gupta, vicepresidente di Avast e responsabile delle aree di attività AI e Network Security.

Il gruppo ha esplorato prima la natura del bias dell’IA, che può essere definito in vari modi. Prima di tutto, ha detto Sharkey, è “l’ ingiustizia algoritmica”, dove ci sono evidenti violazioni della dignità umana. Ha offerto esempi che vanno da una maggiore sicurezza aeroportuale, che presumibilmente seleziona persone a caso per ulteriori controlli, alla polizia predittiva.

Parte del problema per l’IA è che il bias non è un parametro così semplice. In effetti, secondo Fralick, ci sono due principali categorie di pregiudizi: sociale e tecnologico,”E i due si nutrono a vicenda per creare il contesto tra i costumi sociali comunemente accettati”, ha detto durante la presentazione. “E anche questi costumi si evolvono nel tempo. “Parte della valutazione di questi costumi ha a che fare con il contesto legale, che Wachter ha ricordato alla giuria. “Guarda i progressi dell’azione affermativa negli Stati Uniti”, ha detto. “Ora che abbiamo una maggiore equità nelle scuole di medicina, ad esempio, non ne abbiamo più bisogno”. Wachter ha affermato che “I pregiudizi tecnologici sono più facili da correggere, come l’utilizzo di una raccolta più diversificata di volti durante l’addestramento di modelli di riconoscimento facciale. A volte, dobbiamo ridurre le nostre aspettative quando si tratta di valutare la tecnologia. “

Naturalmente, parte del problema con la definizione del bias sta nel separare la correlazione dalla causalità, aspetto sollevato più volte durante la discussione.

Un altro problema è la diversità del team che crea algoritmi di IA. Fralick ha detto “se non assumi persone diverse, ottieni quello per cui paghi”. Ma la diversità non è solo per genere o razza, ma anche per diversi ambiti e background professionali. Wachter ha detto: “In qualità di avvocato, penso in un quadro giuridico, ma non posso fornire consulenza tecnica. C’è bisogno di analisi attraverso background diversi. Possiamo usare la stessa parola in modi molto diversi e dobbiamo creare un linguaggio comune per collaborare efficacemente”.

Una parte separata della comprensione dei pregiudizi dell’IA è il confronto degli standard etici impliciti nell’output dell’IA. Kumar ha chiesto se dovessimo mantenere le macchine a standard più elevati rispetto agli umani. Sharkey ha affermato che “le macchine non prendono decisioni migliori degli umani, è più importante l’impatto che queste decisioni hanno su di me personalmente”. Wachter ritiene che gli algoritmi siano stati ritenuti conformi a standard inferiori rispetto agli umani. Ma c’è un altro problema: “gli algoritmi possono mascherare comportamenti razzisti e sessisti e possono escludere determinati gruppi senza alcun effetto evidente. Potrebbe accadere involontariamente e di conseguenza essere molto più pericoloso”. Dato il suo background giuridico, suggerisce che questo è un ambito in cui potremmo applicare nuove normative in grado di testare queste conseguenze indesiderate.

Un’ultima nota ha a che fare con l’ interpretazione dei risultati della modellazione AI . “Dobbiamo essere in grado di spiegare questi risultati”, ha detto Gupta. “Ma i modelli sono migliorati molto più velocemente della qualità delle spiegazioni, soprattutto per i modelli di deep learning”. Altri membri del gruppo hanno convenuto e hanno affermato che è necessario definire chiaramente i set di formazione e test per fornire il contesto più appropriato.

Condividi su
Condividi su Facebook
Condividi su Twitter
 Articolo precedente Best practice di sicurezza informatica per le piccole e medie imprese
Articolo successivo   La funzione “Richiedi una somma di denaro” di PayPal può facilmente prestarsi ad una frode

Articoli Simili

  • Sicurezza Informatica: Come la tecnologia CDR può proteggere concretamente

    Dicembre 18, 2020
  • Odix: Il punto sulle Smart City

    Dicembre 17, 2020
  • Intelligenza Artificiale e Cybercrime: non solo Deep Fake

    Dicembre 9, 2020

Lascia un commento Annulla risposta

Cerca

Social Media

  • Connect on LinkedIn

Articoli Recenti

  • True CDR: la prossima generazione di strumenti per la prevenzione dei malware Dicembre 30, 2020
  • Tecnologia Odix Dicembre 28, 2020
  • Le estensioni di terze parti per Facebook, Instagram e altri hanno infettato milioni di profili Dicembre 23, 2020
  • Il tuo software sandbox è stato violato? Dicembre 22, 2020

Commenti recenti

  • Avast: fake Malwarebytes utilizzato per distribuire CoinMiner - LineaEDP su Falsi file di installazione di Malwarebytes che distribuiscono coinminer
  • Avast: fake Malwarebytes utilizzato per distribuire CoinMiner su Falsi file di installazione di Malwarebytes che distribuiscono coinminer
  • Scoperte su Google Play Store 47 app malevole scaricate 15 milioni di volte – Secondamano l'originale su Avast scopre 47 app malevole su Google Play Store, scaricate 15 milioni di volte
  • Lara su Quando l’amore diventa un incubo: le truffe su siti di dating online
  • Cyber warfare: tecniche, obiettivi e strategie dietro gli attacchi “state-sponsored” | Agenda Digitale su BackSwap l’innovativo Trojan bancario che introduce nuove tecniche per svuotare i conti delle vittime

Archivi

Categorie

  • Comunicazioni
  • Malware
  • Senza categoria
  • Sicurezza
  • Sicurezza Informatica
  • Suggerimenti tecnici
  • True CDR: la prossima generazione di strumenti per la prevenzione dei malware

  • Tecnologia Odix

  • Le estensioni di terze parti per Facebook, Instagram e altri hanno infettato milioni di profili

  • Il tuo software sandbox è stato violato?

  • Riprendere la propria privacy da Instagram

© 2001 - 2020 - Tutti i diritti riservati. I marchi usati nel sito sono registrati da Future Time S.r.l. Tutti gli altri nomi e marchi sono registrati dalle rispettive aziende. Future Time S.r.l. © 2001-2020. P.IVA 06677001007
Questo sito usa i cookie, anche di terze parti, per offrirti una navigazione in linea con le tue preferenze. Per maggiori informazioni puoi accedere alla nostra cookie policy, dove potrai negare il consenso ai cookie, seguendo l'apposito link. Se continui la navigazione sul sito acconsenti all'uso dei cookie.
Ok, accetto Cookie policy
Privacy & Cookies Policy

Privacy Overview

This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessario
Sempre attivato

Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.

Non necessario

Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.