Sekalaiset

Naisten ääni-avustajat vahvistavat haitallisia sukupuolistereotypioita, sanoo YK

Naisten ääni-avustajat vahvistavat haitallisia sukupuolistereotypioita, sanoo YK

Ääniohjattu avustustekniikka, kuten Siri ja Alexa, on yleensä ohjelmoitu naisääneksi. Mutta nyt YK on vaatinut suuria teknologiayrityksiä muuttamaan sitä.

Raportissa nimeltä "Haluan punastua, jos voisin: Sukupuolten jakautuminen digitaalisissa taidoissa koulutuksen avulla"Yhdistyneet Kansakunnat pyytävät Googlen, Amazonin, Applen ja Microsoftin kaltaisia ​​yrityksiä lopettamaan digitaalisten avustajien tekeminen oletusarvoisesti naisiksi.

LIITTYVÄT: ALEXA, CORTANA, SIRI? Kuinka valita älykäs ääniavustaja älykkääseen kotiin

Heidän mukaansa tämä vahvistaa haitallisia stereotypioita naisista alistuviksi ja tarjoaa mahdollisuuden sanalliseen hyväksikäyttöön ilman seurauksia.

Raportissa suositellaan, että äänet ovat sukupuolettomia - jotain, mitä Google on yrittänyt tehdä merkitsemällä äänensä oranssiksi ja punaiseksi miehen tai naisen sijaan.

Naiset tarvitsevat paremmat mahdollisuudet saada teknisiä taitoja

Raportissa todetaan myös, että naisilla on 25 prosenttia vähemmän todennäköisiä digitaalisia perustaitoja kuin miehillä, ja vaaditaan, että voimakkaat teknologiayritykset puuttuisivat tähän jakoon. Sinun ei tarvitse mennä pitkälle Internetiin löytääksesi esimerkin ihmisistä, jotka väärinkäyttävät ääniohjattua avustajaa, kuten Siriä.

Vaikka väärinkäyttö on ongelmallista, niin myös vastaukset, joihin järjestelmät on suunniteltu vastaamaan.

Yhdessä vaiheessa Sirin kutsuminen lutkaksi olisi saanut vastauksen "Punastaisin, jos voisin". Vaikka uskotaan, että vastausta on nyt muutettu.

Alla olevan raportin taulukossa on esitetty vastaukset useisiin loukkaaviin nimiin, joita neljä suurinta ääniavustajaa ohjaavat.

Nyt on muutoksen aika

Tulokset puhuvat puolestaan, että on tehtävä suuria muutoksia. Tämä on täsmälleen oikea aika asettaa vaatimuksia yrityksille, jotka vastaavat näistä laitteista, kun ne juurtuvat yhä enemmän elämäämme.

Amazon on jopa tiettävästi luonut laitteen, joka pystyy ymmärtämään mielialaasi. Puheentunnistuksen avulla pukeutuva rannelaite voi oppia, kuinka äänesi muuttuu erilaisissa emotionaalisissa olosuhteissa, ja antaa neuvoja sosiaalisten tilanteiden käsittelemiseksi.

Tekoälyn algoritmit ovat jo osoittaneet rodullisia ja sukupuolisia puolueita, mutta meidän on muistettava, että nämä järjestelmät eivät ole syntyneet neutraaleina. Nämä ennakkoluulot johtuvat niiden kehitystavasta ja tietojoukoista, joita ne syötetään.

STEM-reitit aikaisin

Kuten monet ovat huomauttaneet, että paras tapa käsitellä tätä puolueellisuutta on saada rotuun ja sukupuoleen perustuvat ryhmät työskentelemään projektien parissa. Tämän saavuttamiseksi ihmisille, joilla on erilainen tausta ja kokemus, on annettava selkeä pääsy ja polut STEM-uran kautta.

#Sukupuoliset stereotypiat pitävät tytöt poissa #STEM-tutkinnoista. Opetussuunnitelmiin, oppikirjoihin ja tiedotusvälineisiin koodatut viestit voivat vahvistaa jo pitkään jatkuneita sukupuolisuhteita. # WomenInScience
➡ https://t.co/D9dr3e3okIpic.twitter.com/KPmFYjQnC4

- YK: n koulutusraportti (@GEMReport) 11. helmikuuta 2019 г.


Katso video: ГАРРИ ПОТТЕР ЗА 5 МИНУТ (Marraskuu 2021).