奧特曼劃重點(diǎn):生物安全成為OpenAI最關(guān)注的領(lǐng)域之一
1月27日,據(jù)《騰訊科技》報道,OpenAI CEO山姆·奧特曼在美國舊金山與一群開發(fā)者展開了一場近1小時的深度交流。這場交流別具一格,現(xiàn)場沒有PPT展示,也沒有新產(chǎn)品發(fā)布,而是以問答形式展開,聚焦于AI領(lǐng)域當(dāng)下正發(fā)生的諸多現(xiàn)實(shí)問題。
談及AI對工作的影響,奧特曼認(rèn)為程序員不會被AI完全取代,但寫代碼的時間將會大幅減少;談到創(chuàng)業(yè),他指出最難的部分并非打造產(chǎn)品,而是如何讓用戶接受并使用產(chǎn)品;談到安全,奧特曼透露目前他最為擔(dān)憂的危險可能來自生物領(lǐng)域,他還反復(fù)強(qiáng)調(diào):無論技術(shù)怎么發(fā)展,人的角色都無法被替代。
面對“在實(shí)驗(yàn)自動化趨勢下,如何防范AI被用于惡意生物設(shè)計?安全在OpenAI的規(guī)劃中處于怎樣的位置?”的問題,奧特曼稱,到2026年,生物安全將成為OpenAI最關(guān)注的領(lǐng)域之一。他指出,AI模型在生物學(xué)領(lǐng)域已展現(xiàn)出強(qiáng)大能力。目前,OpenAI主要通過限制訪問的方式來防止模型被濫用,但這種方式并非長久之計。
他補(bǔ)充道:如果今年AI領(lǐng)域出現(xiàn)重大事故,很可能與生物相關(guān),并且隨著時間推移,其他領(lǐng)域也可能面臨類似風(fēng)險。
被問及隨著AI系統(tǒng)大規(guī)模部署,最被低估的風(fēng)險是什么?是安全、成本還是可靠性?奧特曼表示,用戶很快放松警惕才是最大的風(fēng)險。他以自身使用Codex的經(jīng)歷為例,一開始他絕不會給Codex完整權(quán)限,但使用兩小時后,覺得每次確認(rèn)過于麻煩,便直接給予完全訪問權(quán)限且再未收回。
奧特曼指出,這些AI工具太過好用,故障率看似很低,容易讓人產(chǎn)生“管他呢”的心態(tài)。而當(dāng)AI能力越來越強(qiáng)、行為更難預(yù)測時,這種掉以輕心可能會埋下嚴(yán)重的安全隱患,這一問題值得更多創(chuàng)業(yè)公司重視。



