展會信息港展會大全

AI招聘與AI應(yīng)聘“斗法”是雙輸結(jié)局 | 新京報社論
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-11-22 11:44:09   瀏覽:45次  

導(dǎo)讀:▲求職者現(xiàn)場體驗AI面試。新京報貝殼財經(jīng)記者 羅亦丹 攝當(dāng)AI招聘碰上了AI應(yīng)聘,魔法能否打敗魔法?據(jù)新京報報道,繼不少企業(yè)通過AI面試官進(jìn)行大規(guī)模面試后,市場上出現(xiàn)了幫助面試者應(yīng)對“AI面試”的工具產(chǎn)品,廣告聲稱“面試者實時生成面試答案,輕松拿下Offer”。這一新聞引發(fā)討論,是因為外界沒有人能預(yù)測到,AI大模型之間的碰撞,竟然是率先發(fā)生在面試場景下。這原本應(yīng)當(dāng)是 ......

AI招聘與AI應(yīng)聘“斗法”是雙輸結(jié)局 | 新京報社論

▲求職者現(xiàn)場體驗AI面試。新京報貝殼財經(jīng)記者 羅亦丹 攝

當(dāng)AI招聘碰上了AI應(yīng)聘,魔法能否打敗魔法?

據(jù)新京報報道,繼不少企業(yè)通過AI面試官進(jìn)行大規(guī)模面試后,市場上出現(xiàn)了幫助面試者應(yīng)對“AI面試”的工具產(chǎn)品,廣告聲稱“面試者實時生成面試答案,輕松拿下Offer”。

這一新聞引發(fā)討論,是因為外界沒有人能預(yù)測到,AI大模型之間的碰撞,竟然是率先發(fā)生在面試場景下。這原本應(yīng)當(dāng)是最需要人與人溝通、決策、判斷的場景,隨著AI工具的迅速應(yīng)用,卻變成了“機器人與機器人之間的戰(zhàn)爭”。

據(jù)報道,隨著面試者開始使用AI工具進(jìn)行面試,招聘者則通過AI進(jìn)行“反作弊”,而在反作弊工具出現(xiàn)后,AI面試產(chǎn)品則定向推出了“反檢測”功能。

不論從什么角度看,這都是一場莫名其妙的技術(shù)攻防戰(zhàn)。讓AI來作為面試官,并不應(yīng)當(dāng)是一個值得推薦的應(yīng)用。面試本質(zhì)上是對一個人的綜合評定,而讓機器來判斷人,其實是用大數(shù)據(jù)形成的標(biāo)簽來簡約化對人進(jìn)行數(shù)據(jù)集的歸類定性。從AI倫理上看,也是對人的主體尊嚴(yán)的冒犯。

面試者使用AI工具應(yīng)對AI面試官,從面試的邏輯看,又涉嫌新技術(shù)逼迫下的“作弊”。當(dāng)面試官是人時,AI工具作弊極容易被識別,但當(dāng)對面換成了工具,那么,用工具來制衡工具,顯然要比讓人來應(yīng)對工具的提問更合乎邏輯一些。

這一場技術(shù)戰(zhàn),起源于用人單位對于“人才”的不重視,視應(yīng)聘者為“工具”,而應(yīng)聘者在此種情境下,干脆用工具去欺騙工具,繼而形成了雙重倫理陷阱:招聘者不視人為人,求職者就坦然在面試中作弊。

這也是AI過度應(yīng)用對傳統(tǒng)倫理造成的挑戰(zhàn)。我們社會習(xí)俗中對面試雙方平等、誠信、尊重的要求,是基于人與人互動的關(guān)系而形成的共識。但對AI的過度應(yīng)用,使得傳統(tǒng)倫理在這些場景中驟然失效。仔細(xì)揣摩一下面試者的心理,當(dāng)對方不再是人時,面試似乎就不必再遵循什么“誠信”之類的準(zhǔn)則。

如果回到面試的本質(zhì)上看,面試雙方通過工具來“提升效率”的做法,事實上都只會造成雙輸?shù)慕Y(jié)局。

一個人是否匹配工作崗位,顯然不是單純的履歷和材料等大數(shù)據(jù)可以決定的,還包括了性格、動機、狀態(tài)等多方面。AI工具面試依據(jù)的規(guī)則和數(shù)據(jù),只會第一輪就篩選掉那些有個性的、獨特的、有創(chuàng)造性的人才,而后者顯然才更符合未來人才的定義。

因此,用AI來提升的面試效率,實際上等于是把人才引進(jìn)的標(biāo)準(zhǔn)交給了機器,而機器從概率上只會繼續(xù)引入“符合機器定義的機械性人才”。

而對于求職者來說,用AI工具來面試,從技術(shù)和商業(yè)邏輯上看,個體所使用的大模型工具,不可能在技術(shù)水平上長期超越企業(yè)工具。

面試是典型的商業(yè)化應(yīng)用場景一部分,而作為求職工具卻缺少長期穩(wěn)定的付費模式,且用戶的付費能力較低,因此,后者很可能只是一些套皮的大模型,來收割求職者的韭菜而已。極有可能出現(xiàn)的情況是,求職者為了蒙騙AI面試官,又被人割了韭菜。

為企業(yè)大規(guī)模商業(yè)化應(yīng)用而開發(fā)調(diào)試的大模型,理論上最終肯定比個人所使用的工具更加高效、精準(zhǔn)。這也意味著,使用者不僅可能被割韭菜,還可能被識別“作弊”而永久失去一次求職機會。對于求職者來說,這可謂是雙輸?shù)母呶>置妗?br/>

因此,不管是從倫理上看,還是工具使用的最終結(jié)果看,面試都不應(yīng)該成為AI工具的博弈戰(zhàn)場。尤其是其中潛藏的科技倫理問題,值得社會共同思考。簡單地讓AI工具去決定一個具體的人的命運,既有違科技倫理,也有違職業(yè)道德,更長期損害了所有參與者的利益。

編輯 / 徐秋穎

校對 / 付春

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港