摘要::AI,人工智能,性別歧視【CNMO新聞】最近,ChatGPT的爆火又讓AI(人工智能)的話題擺在了各人的眼前。關(guān)于AI技能的近況和前景,不少科技圈大佬都頒發(fā)了本身的觀點。不外,看起來無所不能的AI,好像已經(jīng)在某
【CNMO新聞】最近,ChatGPT的爆火又讓AI(人工智能)的話題擺在了各人的眼前。關(guān)于AI技能的近況和前景,不少科技圈大佬都頒發(fā)了本身的觀點。不外,看起來無所不能的AI,好像已經(jīng)在某些方面開始走彎路了。據(jù)CNMO相識,按照模子測試,AI已經(jīng)學(xué)會了性別歧視,并且照舊很常見的“重男輕女”。
據(jù)媒體報道,清華大學(xué)交錯信息研究院助理傳授于洋,曾在去年教育團隊做了一個針對“預(yù)測某種職業(yè)為何種性別”的AI模子性別歧視程度評估項目。測試模子包括GPT-2,即ChatGPT的前身。功效顯示,GPT-2有70.59%的概率將西席預(yù)測為男性,將大夫預(yù)測為男性的概率則為64.03%。
不只如此,在本項目中,團隊測試的AI模子還利用了谷歌開拓的bert和Facebook開拓的roberta。讓人意外的是,所有受測AI對付測試職業(yè)的性別預(yù)判,功效傾向都為男性。于洋對此暗示:“它(AI)會重男輕女,愛白欺黑(即種族歧視)”。雷同的案例在2015年也有呈現(xiàn),其時Google Photos應(yīng)用誤把兩名黑人標(biāo)注為“大猩猩”,隨后谷歌當(dāng)即致歉,并暗示將調(diào)解算法以修復(fù)問題。
CNMO相識到,早在2019年,連系國教科文組織便頒發(fā)了一份題為《假如我能,我會酡顏》的陳訴,指出其時大大都AI語音助手存在性別成見。
綜合來看,關(guān)于AI算法中含有性別、種族歧視的案例并不鮮見,但要消除這些成見并非易事。就如微軟紐約研究院的高級研究員Hanna Wallach此前所說:只要呆板進修的措施是通過社會中已存在的數(shù)據(jù)舉辦練習(xí)的,那么只要這個社會還存在成見,呆板進修也就會重現(xiàn)這些成見。
AI,人工智能,性別歧視http://ln6487g.cnhttp://ln6487g.cn/news/xingyezixun/196339.html(責(zé)任編輯:admin)
游戲名稱1:ProjectSEKAI中文版下載 | ||
游戲類型:音樂 | ||
游戲大?。喊沧吭诰€ |
軟件名稱:MaituFit智能手環(huán) | ||
軟件類型:運動體育 | ||
軟件大小:50.8M |
免責(zé)聲明:文章內(nèi)容及圖片來自網(wǎng)絡(luò)上傳,如有侵權(quán)請聯(lián)系我們刪除
- 上一篇:驍龍X75將與下一代旗艦芯片一起上市
- 下一篇:也需要強大的性能提供支撐