Da assistenti vocali stereotipi genere – Software e App


(ANSA) – ROMA, 22 MAG – Le voci femminili preimpostate per
gli assistenti vocali – Siri di Apple, Alexa di Amazon e Cortana
di Microsoft, ma anche Google Assistente nella versione
originale in lingua inglese – rafforzano gli stereotipi di
genere. A dirlo è una ricerca pubblicata dall’Unesco, secondo
cui le risposte spesso sottomesse o civettuole che vengono date
dagli assistenti vocali anche a domande inopportune, volgari o
allusive restituiscono l’immagine di una donna servile e
remissiva.
   
Lo studio si intitola “I’d blush if I could”, “Arrossirei se
solo potessi”, che è la risposta fornita fino a qualche tempo fa
da Siri a chi la insultava dandole della poco di buono.
   
Attualmente, invece, l’assistente replica: “Non so proprio cosa
rispondere”.
   
A sviluppare questi sistemi di intelligenza artificiale sono
team composti prevalentemente da uomini (tra i ricercatori in
AI, le donne sono solo il 12%), si osserva nell’indagine. I
ricercatori evidenziano le potenziali implicazioni negative a
lungo termine soprattutto nei bambini, che cresceranno
interfacciandosi con gli assistenti vocali.
   
“Macchine obbedienti e cortesi che fingono di essere donne
stanno entrando nelle nostre case, auto e uffici”, ha osservato
Saniye Gulser Corat, direttrice per l’Uguaglianza di genere
all’Unesco. “La sottomissione che è inculcata in loro influenza
il modo in cui le persone parlano alle voci femminili, e modella
il modo in cui le rispondono alle richieste e si
esprimono”.(ANSA).
   

RIPRODUZIONE RISERVATA © Copyright ANSA