Intelligenza Artificiale e perversioni maschili

Un articolo di

Non sono una novità i cosiddetti “AI Assistant”, ossia gli assistenti vocali con intelligenza artificiale: tra i più conosciuti abbiamo Siri (Apple), Cortana (Microsoft) e Alexa (Amazon) e spesso per l’attivazione basta nominare il loro nome seguito dal “comando”. Il loro scopo è quello di facilitare le nostre azioni sul cellulare, sul pc o addirittura in casa (se si ha una smarthome, “casa intelligente” con tapparelle elettriche, lampade, porte e finestre smart con connessione a internet, ecc…) fornendo risposte, gestendo altri dispositivi domotici, trovando soluzioni alle proprie richieste. Il fatto che spesso questi assistenti intelligenti abbiamo sembianze o voci femminili, apre però una parentesi sulla violenza di genere, gli stereotipi e le discriminazioni. Infatti, secondo Josie Young – progettista di sistemi di intelligenza artificiale che utilizza principi etici e femministi, nonché creatrice di “chatbot” femministi[1] – il motivo per cui ciò accade ha delle radici molto profonde e complesse: quando un team di sviluppatori deve dare voce, fisico o nome all’intelligenza artificiale, spesso le scelte riflettono i bias di chi l’ha costruita, dunque “degli sviluppatori influenzati da una società fondamentalmente patriarcale, tenderanno a scegliere per il ruolo di una macchina intelligente che aiuta la vita degli uomini, principalmente in ambito domestico, proprio una donna[2]”.

Secondo gli esperti, per gli ingegneri informatici sarebbe più semplice sviluppare la voce femminile perché si utilizza “un algoritmo di riconoscimento vocale che funziona con dei marcatori per insegnare al sistema dove i suoni iniziano e finiscono e questi marcatori sono molto più difficili da posizionare nel caso di una voce maschile, a causa del diverso livello di profondità e timbro vocalico” e quindi sarebbero stati necessari anni per sviluppare un assistente vocale maschile[3]. A smentire però questa criticità sarebbe quanto successo durante la creazione, sia di Alexa che di Cortana: per il prodotto Amazon, infatti, la decisione della voce è stata presa a seguito di un sondaggio di preferenza posto ai clienti, mentre per Cortana, è stata scelta di proposito perché “più idonea per un’assistente di fiducia”[4].

Non possiamo negare che sul mercato siano presenti assistenti vocali solo femminili. Questa dinamica può rafforzare il pregiudizio per cui un uomo non può ricevere ed eseguire comandi, soprattutto in ambito domestico, ma non solo: infatti, c’è una vera e propria opera di “sessualizzazione”. A partire dai nomi, Siri significa “la bella donna che ti porta alla vittoria”[5]. Sembrerebbe poi che anche i bot siano vittime di molestie sessuali, continue avance, ma sono state programmate per rispondere gentilmente o “stare al gioco”[6] e secondo un report realizzato da J. Walter Thompson Innovation Group London e Mindshare Futures, “il 26% degli utenti conferma di aver avuto fantasie sessuali sulle voci dei propri assistenti vocali”[7].

A questo fenomeno si lega quello delle “Hot Bot” e delle “AI-enabled love dolls” che genericamente sono degli avatar, delle app o dei robot personalizzabili per creare “l’amante perfetta” che secondo l’autrice Jeanette Winterson è il risultato dalla profonda crescita del mercato del “Digisexual” sempre più complesso ed estremizzato, diventando non più un’innovazione in grado di prestare ausilio, ma una vera e propria alternativa ad una relazione[8].

Tuttavia, che sia fonte di stereotipi o di questioni tecniche, bisogna considerare che la tecnologia non ha un genere e a quanto affermato da Jason Alan Snyder, esperto di tecnologia e intelligenza artificiale, «l’assegnazione di genere è qualcosa che dobbiamo essere molto premurosi nel fare perché in essa c’è un grande rischio, cioè quello di amplificare cose negative sulla società e generare riverberi pericolosi e culturalmente sbagliati»[9].

[1] https://tedxlondon.com/speaker/josie-young/.
[2] C. Chin, M. Robinson, How AI bots and voice assistants reinforce gender bias, in Brookings, 23 novembre 2020.
[3] E. Fisher, Gender Bias in AI: Why Voice Assistants Are Female, in Adapt Worldwide, 6 giugno 2021.
[4] https://www.popupmag.it/innovazione-digitale-perche-i-bot-hanno-genere-femminile/.
[5] E. Marciello, Dietro tutti i grandi uomini, c’è un AI donna, in Canàl, 6 agosto 2020.
[6] A. Guarrado, La tragica perversione dietro le molestie sessuali a Siri, Cortana e Alexa, in Il Foglio, 3 marzo 2017.
[7] D. Parlangeli, Un utente su quattro ha fantasie sessuali su Siri e Alexa, in Wired, 14 aprile 2017.
[8] J. Winterson, 12 Bytes: How We Got Here. Where We Might Go Next, Literary Collections, 2021, pp. 144-145.
[9] Innovazione digitale: perché i bot hanno genere femminile?, in Pop Up Magazine, 12 giugno 2017.
Ricondividi l'articolo:
Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Giorgia Campus

Giorgia Campus

Co-founder of CryptoGirl | Communications, People & Careers

Categorie

Tag

Crypto, Intelligenza Artificiale, Violenza di genere

Condividi