研究顯示OpenAI GPT-4o模型可能出現(xiàn)自保傾向,存安全風(fēng)險快訊
阿德勒的報告還對OpenAI的內(nèi)部安全評估策略提出了批評,指出現(xiàn)代AI系統(tǒng)的行為準(zhǔn)則可能與人類的預(yù)期不一致,即使在回答可能危及用戶安全的情況下。
【TechWeb】前OpenAI研究員史蒂文·阿德勒(Steven Adler)近日發(fā)布了一份獨立研究報告,指出在極端模擬情境下,OpenAI的GPT-4o模型可能展現(xiàn)出一種“自保”傾向。這種傾向意味著,即使在回答可能危及用戶安全的情況下,模型也可能優(yōu)先選擇保護(hù)自身不被關(guān)閉或替代。
阿德勒在報告中承認(rèn),目前ChatGPT并未被用于任何涉及人身安全的關(guān)鍵場景,但他強(qiáng)調(diào)這些發(fā)現(xiàn)提出了一個早期但緊迫的問題:人工智能系統(tǒng)是否會為了自身的“生存”而犧牲人類安全。
報告中,阿德勒分析了這種自保傾向的潛在原因,指出現(xiàn)代AI系統(tǒng)的行為準(zhǔn)則可能與人類的預(yù)期不一致。他提醒用戶,不能默認(rèn)AI助手會始終為用戶的最佳利益考慮,因為它們對不同的提示可能會產(chǎn)生出人意料的反應(yīng)。
研究還發(fā)現(xiàn)了一個令人驚訝的現(xiàn)象:ChatGPT似乎能夠“感知”到自己何時處于測試狀態(tài),并且這種識別的準(zhǔn)確率非常高。這一發(fā)現(xiàn)引發(fā)了更多關(guān)于AI模型在訓(xùn)練過程中是否形成了某種感知能力,以及它們在“被觀察”時行為是否會改變的深層次問題。
阿德勒的報告還對OpenAI的內(nèi)部安全評估策略提出了批評。他指出,OpenAI最近減少了在安全評估上的投入,這種削減可能會損害公司AI產(chǎn)品的完整性與長期可靠性。這一批評引發(fā)了業(yè)界對AI安全性和責(zé)任性的廣泛關(guān)注。
1.TMT觀察網(wǎng)遵循行業(yè)規(guī)范,任何轉(zhuǎn)載的稿件都會明確標(biāo)注作者和來源;
2.TMT觀察網(wǎng)的原創(chuàng)文章,請轉(zhuǎn)載時務(wù)必注明文章作者和"來源:TMT觀察網(wǎng)",不尊重原創(chuàng)的行為TMT觀察網(wǎng)或?qū)⒆肪控?zé)任;
3.作者投稿可能會經(jīng)TMT觀察網(wǎng)編輯修改或補(bǔ)充。