上周,《麻省理工科技評論》在倫敦成功舉行了首屆 EmTech 數(shù)字大會(huì)。
許多人在會(huì)上提出了精彩的問題,讓這幾天充滿了關(guān)于人工智能下一步走向的有趣討論和見解。
以下是我在此次會(huì)議上得到的三個(gè)最重要的收獲。
(來源:HALO CREATIVE FOR MIT TECHNOLOGY REVIEW)
迎接人工智能虛擬化身
總部位于英國的人工智能獨(dú)角獸 Synthesia 展示了它的下一代人工智能虛擬化身,它們比我以前見過的任何一個(gè)都更富情感、更逼真。
該公司將這些虛擬化身作為一種新的、更吸引人的交流方式。例如,一個(gè)人工智能虛擬化身可以通過視頻向新員工解釋他們需要了解的工作內(nèi)容,而不是讓他們?yōu)g覽冗長的入職材料。
這有可能改變我們的溝通方式,允許內(nèi)容創(chuàng)作者將工作外包給定制的虛擬化身,并使組織更容易與員工共享信息。
人工智能代理即將到來
ChatGPT 的風(fēng)靡讓我們學(xué)會(huì)了如何與人工智能助手互動(dòng),讓它幫我們工作。但這些工具的下一代,即人工智能代理,可以做的遠(yuǎn)不止這些。
它們是可以在動(dòng)態(tài)世界中自主做出決策的人工智能模型和算法。想象一下,一個(gè)人工智能旅行代理不僅可以檢索信息并建議可玩的地方,還可以采取行動(dòng)為您預(yù)訂航班和酒店。
從 OpenAI 到 Meta 再到初創(chuàng)公司,許多人工智能實(shí)驗(yàn)室都在競相構(gòu)建能夠更好地推理、記憶更多步驟,以及與其他應(yīng)用程序和網(wǎng)站交互的人工智能代理。
人類也不是完美的
確保人工智能系統(tǒng)不會(huì)出錯(cuò)的最好方法之一是讓人類對其進(jìn)行審計(jì)和評估。但人類是復(fù)雜而有偏見的,我們并不總是完美的。
為了制造符合我們期望的機(jī)器,彌補(bǔ)我們的局限性,我們應(yīng)該從一開始就考慮人為錯(cuò)誤。
在一場演講中,英國劍橋大學(xué)人工智能研究員凱特柯林斯(Katie Collins)表示,她發(fā)現(xiàn)允許人們表達(dá)自己的確定程度或不確定程度,可以提高人工智能模型的整體準(zhǔn)確性。
她解釋說,人們可以通過百分比來表示他們對標(biāo)記數(shù)據(jù)的信心,這有助于提高模型的準(zhǔn)確性,但這種方法的缺點(diǎn)是成本更高,而且需要更多的時(shí)間。