‘Siri werkt vrouwonvriendelijke vooroordelen in de hand’
Foto: AFP

Artificial Intelligence-speakers zoals Siri van Apple of Alexa van Amazon, die veelal gebruikmaken van een vrouwelijke stem, bevestigen schadelijke gendervooroordelen. Dat stelt een studie van de Verenigde Naties waarover de Britse zender BBC dinsdag bericht.

Volgens een studie van VN-organisatie Unesco worden vrouwelijke helpers bij technologische toepassingen, zoals Siri bij de iPhone, voorgesteld als ‘gedienstig en steeds bereid om te behagen’, wat het vooroordeel van de ‘onderdanige’ vrouw bevestigt.

De onderzoekers vinden het vooral verontrustend dat de hulpstemmen vaak ‘ontwijkende, flauwe en verontschuldigende’ reacties geven op beledigingen.

Het rapport van de Unesco roept de technologiebedrijven op om deze assistent-speakers niet standaard de stem van een vrouw te geven, maar te kiezen voor een meer neutrale digitale stem.

Vorig jaar gingen wereldwijd naar schatting zo’n 100 miljoen van deze intelligente speakers over de toonbank. Volgens het onderzoeksbureau Gartner zouden sommige mensen tegen 2020 meer gesprekken voeren met hun assistent dan met hun eigen partner.