展會信息港展會大全

大數(shù)據(jù)時代,身為打工人的你被歧視了么?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2021-03-30 07:29:42   瀏覽:22457次  

導(dǎo)讀:由于大數(shù)據(jù)把所有行業(yè)壁壘打通,每個人的信息就像一個個標(biāo)簽,形成一個數(shù)據(jù)庫,無論做什么,只要動動手指查一下就能知道在何時何地做了什么事。 尤其在勞動就業(yè)領(lǐng)域,人工智能也成為公司招聘、選人、用人的主要工具。 但是有一點,只要是算法,就會有人的影...

由于大數(shù)據(jù)把所有行業(yè)壁壘打通,每個人的信息就像一個個標(biāo)簽,形成一個數(shù)據(jù)庫,無論做什么,只要動動手指查一下就能知道在何時何地做了什么事。

大數(shù)據(jù)時代,身為打工人的你被歧視了么?

尤其在勞動就業(yè)領(lǐng)域,人工智能也成為公司招聘、選人、用人的主要工具。

但是有一點,只要是算法,就會有人的影響因素,也就是在利用大數(shù)據(jù)解決照片用人中就會出現(xiàn)就業(yè)歧視。

法律專家和英國職工大會近期發(fā)布警告稱,勞動法在人工智能中存在巨大漏洞,會導(dǎo)致更多人在職場中因此受歧視。

報告指出,由于人工智能技術(shù)迭代過快,勞動法不能及時更新以確保人工智能可以在所有招聘、績效考核和辭退環(huán)節(jié)受用,員工可能無力招架不合常理的績效管理,而且很有可能在招聘和辭退中受歧視。

基于人工智能的歧視并非一日之寒,早多年前就已經(jīng)在求職中出現(xiàn)端倪。

美國卡內(nèi)基梅隆大學(xué)學(xué)者就曾經(jīng)用釣魚軟件模擬普通用戶瀏覽求職網(wǎng)站的實驗,然后統(tǒng)計谷歌推送“年薪20萬美元以上的職位”的廣告數(shù)據(jù),結(jié)果男性收到1852次推送,女性收到318次。

結(jié)果很明顯,平臺可以通過后臺進(jìn)行關(guān)鍵詞設(shè)置,可以“操作”每類人群收到的信息頻率。

2018年,路透社就曝光亞馬遜在招聘時就存在性別歧視的現(xiàn)象,在篩選簡歷時,就對包含“女性”在內(nèi)的關(guān)鍵詞進(jìn)行降權(quán)處理,

但是這并不是“私人訂制”,而是赤裸裸的限制了求職者訪問數(shù)據(jù)的權(quán)利,數(shù)據(jù)不公平會直接導(dǎo)致某類人直接被平臺pass掉,而原因與工作完全無關(guān),有必要對這種求職模式進(jìn)行審查。

但要注意,算法在這個領(lǐng)域所影響的不僅是求職。

拿工資舉例,還知道所處城市的工資水平嗎?是不是很低?這些數(shù)據(jù)就和“算法黑箱”有關(guān)系了,那么什么是算法暗箱?

由于技術(shù)本身的復(fù)雜性以及媒體機(jī)構(gòu)、技術(shù)公司的排他性商業(yè)政策,算法猶如一個未知的“黑箱”用戶并不清楚算法的目標(biāo)和意圖,也無從獲悉算法設(shè)計者、實際控制者以及機(jī)器生成內(nèi)容的責(zé)任歸屬等信息,更談不上對其進(jìn)行評判和監(jiān)督。

正是由于就業(yè)數(shù)據(jù)統(tǒng)計的復(fù)雜性,讓大眾對統(tǒng)計的過程和結(jié)果不了解,不能提出反對意見,也不能該參與其中,只能被迫接受,導(dǎo)致數(shù)據(jù)經(jīng)過“算法暗箱”便成了企業(yè)和平臺私下真正的“暗箱操作”,最終會導(dǎo)致求職結(jié)果、工資水平和職位變動等信息的不準(zhǔn)確性。

這種暗箱模式就一再被放縱,久而久之成了固化,求職者就像待宰的羔羊,只能聽之任之。

除了求職,平時的工作也會遇到歧視現(xiàn)象。

《中國日報》雙語新聞就曾經(jīng)報道了Enaible公司的人工智能技術(shù)存在的不平等性。這家公司是一家致力于阻止政府和大公司濫用技術(shù)的非盈利法律公司,機(jī)器學(xué)習(xí)算法在訓(xùn)練的數(shù)據(jù)集中也會存在偏差,如果企業(yè)用這些算法作為考核員工表現(xiàn)的標(biāo)準(zhǔn),歧視便出現(xiàn)了。

再舉一個例子,如果用人單位以通勤時間長短作為決定是否錄用員工的重要標(biāo)準(zhǔn),那么通勤時間太長的員工因上班成本高而可能被用人單位拒絕錄用,這很可能會對居住在邊遠(yuǎn)郊區(qū)的低收入群體構(gòu)成歧視。

要知道普通個人信息的收集是再平常不過的,而且電話、郵政編碼、通勤時間等并不起眼的信息的獲得都是合法的,但是算法就把這些信息集中起來形成每個人的“畫像”,再和某些群體產(chǎn)生虛假的關(guān)聯(lián)。

就像某求職平臺,在招聘的時候把這些受保護(hù)群體的敏感性數(shù)據(jù)恰好在其他合法獲得的數(shù)據(jù)中編碼,但是有沒有公示這些敏感數(shù)據(jù)和結(jié)果的關(guān)系,于是就形成了歧視。

但就算算法是透明的,普通人在找工作時也不會知道算法背后所指向的個人特征,也就是平臺很可能把所有的特征都列出來,但普通人還是沒有能力判斷所產(chǎn)生的歧視和全部或其中某一個特征相關(guān)聯(lián)。

于是人工智能這種歧視問題就一再被縱容。

Latanya Sweeney的研究顯示:與搜索白種人相關(guān)的姓名相比,在谷歌上搜索非裔美國人相關(guān)的姓名,系統(tǒng)就會更多地彈出犯罪背景審查廣告。這意味著算法可以將姓名與種族關(guān)聯(lián)起來,并在就業(yè)等方面上做出不利于少數(shù)種族的決定。

這些“中性”信息不易察覺,難道有人會在找完工作后留意彈出的廣告內(nèi)容和犯罪背景審查相關(guān)嗎?沒有多少人會在意的。

疫情大流行讓每個行業(yè)都向自動化發(fā)展,企業(yè)不得不強制休假或裁員以彌補損失,雖然人工智能并不能主導(dǎo)一切,但是對人們?nèi)粘I钭鞒?ldquo;高風(fēng)險、改變性強”決定的趨勢愈發(fā)明顯,這種態(tài)勢在未來幾年會更嚴(yán)重。

就像一個分岔路口,雖然人工智能可以提高工作效率和生活質(zhì)量,但是也已經(jīng)滲透到一些敏感領(lǐng)域,就像讓一個機(jī)器決定在工作中誰去誰留,誰更合適。

如果缺乏公允,人工智能很可能會導(dǎo)致廣泛的歧視和不公問題,尤其對沒有工作保障的人群的作用更明顯,因此必須完善勞動法,跟上人工智能的變遷,讓所有環(huán)節(jié)有法可依,再經(jīng)由人類最終的審核把關(guān),讓人工智能技術(shù)得到合理良性的利用,而不是設(shè)定懲罰性考核目標(biāo),剝奪員工的尊嚴(yán)。

畢竟誰都不想做人工智能的一枚棋子。


贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港