麥肯錫:人工智能和勞動力性別方面的偏見來源 麥肯錫 機構待認領~ 2021-04-14 22:32:05 作者:麥肯錫 1749 收藏 麥肯錫在2021年4月發布了報告《關于人工智能和性別偏見的對話》。 本報告仔細研究了我們在人工智能和性別方面的偏見來源。本報告強調了重點方面的問題。 人工智能中的偏見是讓人們認為它們是對人類大腦的模仿。就像一個生來一無所有的人類孩子,對任何現象都沒有現有的知識,他們如何通過觀察和學習來理解現實——這就是算法如何從數據中學習。所以,不管給他們提供什么數據,他們是如何訓練的,他們會發現什么偏差,他們會發現什么模式,唯一的問題是算法中有多少智能可以糾正這些偏差。如果沒有,那么他們當然會重復這些模式,并用他們的計算能力放大它們。 許多算法的例子從數據中學習,然后在輸出中展示這些模式。如果數據中存在性別歧視,他們就會采用這種模式,在輸出結果中表現出同樣的性別歧視行為。不幸的是,人工智能的勞動力是男性主導的。在大型機器學習公司,技術崗位上只有20%的員工是女性。根據聯合國教科文組織的報告,12%的人工智能研究人員可能是女性,人工智能領域的專業軟件開發人員中有6%是女性。 所以,在很大程度上,有一個男性勞動力在這些算法上工作并定義規則。也許不是故意的,但這是人的本性。即使你將有一個主導力量的女性設計的東西,他們傾向于以一種適合自己的方式設計。你無意識地把自己的偏見添加到算法中;你在創造這些規則。 文本由@木子日青 原創發布于三個皮匠報告網站,未經授權禁止轉載。 數據來源:《麥肯錫:關于人工智能和性別偏見的對話》 本文標簽 人工智能 勞動力性別偏見