多名OpenAI和谷歌DeepMind前員工現員工警告AI風險 呼吁保護風險吹哨人快訊
OpenAI和谷歌DeepMind的這些前員工和現員工在公開信中表示,OpenAI和谷歌DeepMind的這些前員工和現員工在公開信中,公司不對公開風險相關機密信息的現員工和前員工進行報復。
【TechWeb】6月5日消息,據外媒報道,在馬斯克、蘋果聯合創始人斯蒂夫?沃茲尼亞克在內的上千名知名人士簽署公開信,呼吁AI實驗室暫停訓練更強大的模型6個月,以便制定并落實相關的安全協議一年多之后,人工智能領域再次出現了公開信,警告先進人工智能的風險,表達了對當前人工智能公司缺乏監管的擔憂,呼吁完善風險舉報措施并采取措施保護為風險發聲的人。

從外媒的報道來看,人工智能領域新出現的公開信,是由多名OpenAI和谷歌DeepMind前員工和現員工聯名簽署發布,OpenAI和谷歌DeepMind是當前在人工智能研發方面走在行業前列的廠商。
公開信的署名信息顯示,共有13名這兩家公司的前員工和現員工參與,包括5名OpenAI前員工,6名OpenAI現員工,1名谷歌DeepMind現員工和1名谷歌DeepMind前員工,其中谷歌DeepMind的這名現員工,是Anthropic的前員工。但可能是出于相關保密協議方面的限制,參與發布公開信的6名OpenAI現員工,是匿名參加,其他人都是公開署名。
在公開信中,這些員工表示他們相信人工智能技術給人類帶來前所未有的福祉的潛力,但也認為要看到這些技術帶來的嚴重風險,包括進一步加劇現有的不平等,助長操控和虛假信息傳播,失控的自主人工智能系統可能導致人類滅絕等。對于風險,他們在信中是表示人工智能公司自身、全球多國的監管機構、人工智能方面的專家,都已意識到。
但這些員工在公開信中表示,掌握大量系統能力和局限性、保護措施充分性、不同類型傷害風險水平等非公開信息的人工智能公司,只有很微弱的義務同政府部門分享其中的部分信息,沒有義務與社會公眾分享,他們認為不能指望相關的公司自愿分享。
在署名的公開信中,OpenAI和谷歌DeepMind的前員工及現員工,希望在科學界、決策者和公眾的充分指導和監督下,人工智能方面的風險能得到有效化解,但他們也認為人工智能公司有強大的經濟利益動機避免有效的監管,定制的公司治理結構也不足以改變這一點。

OpenAI和谷歌DeepMind的這些前員工和現員工在公開信中表示,在缺乏有效政府機構監管的情況下,人工智能公司的前員工和現員工,就會成為少數對公眾負責的人,但廣泛的保密協議限制了他們為風險方面的擔憂發聲,一般的舉報人保護措施也遠遠不夠,因為公司關注的是非法活動,而他們擔憂的風險中,很多還未得到有效監管。另外,簽署公開信的這些員工也提到,行業內的一些過往案件,使他們中的部分人有理由擔憂各種形式的報復,他們也不是第一批遇到或探討這些問題的人。
為了避免對人工智能風險發聲的現員工和前員工進行報復,OpenAI和谷歌DeepMind的這些前員工和現員工在公開信中,呼吁頂尖的人工智能公司做出承諾,采取措施保護為人工智能風險發聲的員工。
在公開信中,OpenAI和谷歌DeepMind提到的措施包括4項:
第一項是公司不簽訂或執行任何禁止對風險相關問題進行貶低或批評的協議,也不通過既得經濟來報復與風險相關的批評。
第二項則是人工智能公司推動可驗證的匿名流程,讓現員工和前員工向公司董事會、監管機構和具有專業知識的合適獨立機構提出與風險相關的擔憂。
第三項是公司支持公開批評的文化,允許現員工和前員工在商業機密和其他知識產權得到適當保護的情況下,向公眾、董事會、監管機構、合適的獨立組織等,提出與技術風險相關的擔憂。
第四項則是在其他程序失敗后,公司不對公開風險相關機密信息的現員工和前員工進行報復。不過他們也同意在報告風險相關的擔憂時盡力避免不必要的機密信息泄漏,在有足夠的程序能匿名向公司董事會、監管機構等提出擔憂的情況下,他們也接受最初通過程序表達他們的擔憂,但在相關的程序不存在的情況下,現任和前任員工就應該保留向公眾報告他們的擔憂的自由。
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。