IT之家 7 月 24 日消息,OpenAI 首席執(zhí)行官山姆·阿爾特曼(Sam Altman)本周二在 X 平臺(tái)發(fā)布推文,表示在新一輪內(nèi)部架構(gòu)重組中,負(fù)責(zé) AI 安全的主管亞歷山大·馬德里(Aleksander Madry)調(diào)崗,并將其重新分配到一個(gè)專注于人工智能推理的崗位。
阿爾特曼在推文中表示:“Aleksander 正在從事一個(gè)新的、非常重要的研究項(xiàng)目”。
阿爾特曼補(bǔ)充表示,OpenAI 高管華金·基諾內(nèi)羅·坎德拉(Joaquin Quinonero Candela)和莉莉安·翁(Lilian Weng)將在此期間接管 Preparedness 團(tuán)隊(duì)。
OpenAI安全團(tuán)隊(duì)簡(jiǎn)介
IT之家注:OpenAI 公司信任和安全部門(mén)主管戴夫·威爾納(Dave Willner)于 2023 年 7 月離職之后,公司于同年 10 月將該部門(mén)拆分為 3 個(gè)團(tuán)隊(duì):
安全系統(tǒng)(Safety Systems)團(tuán)隊(duì):專注于高級(jí)人工智能模型和人工通用智能的安全部署,專注于減少對(duì)當(dāng)前模型和產(chǎn)品(如 ChatGPT)的濫用。
超級(jí)對(duì)齊(Superalignment)團(tuán)隊(duì):為該公司(希望)在更遙遠(yuǎn)的未來(lái)?yè)碛械某?jí)智能模型的安全性奠定基礎(chǔ)
Preparedness 團(tuán)隊(duì):負(fù)責(zé)繪制前沿模型的新風(fēng)險(xiǎn),并對(duì)前沿模型進(jìn)行安全評(píng)估,評(píng)估和減輕與人工智能相關(guān)的“災(zāi)難性風(fēng)險(xiǎn)”。
Aleksander簡(jiǎn)介
該團(tuán)隊(duì)此前由 Aleksander 領(lǐng)導(dǎo),幫助跟蹤、評(píng)估、預(yù)測(cè)和防范由人工智能模型帶來(lái)的災(zāi)難性風(fēng)險(xiǎn),負(fù)責(zé)繪制前沿模型的新風(fēng)險(xiǎn),并對(duì)前沿模型進(jìn)行安全評(píng)估。
圖源:Aleksander MadryLinkedIn
Aleksander 還是麻省理工學(xué)院可部署機(jī)器學(xué)習(xí)中心(Center for Deployable Machine Learning)的主任和麻省理工學(xué)院人工智能政策論壇(MIT AI Policy Forum)的教員聯(lián)合負(fù)責(zé)人。
OpenAI 官方表示 Aleksander 在新崗位上仍將從事核心的人工智能安全工作。