OpenAI+谷歌工程師聯(lián)合發(fā)聲,呼吁加強「高級人工智能」監(jiān)管,對人類社會存在巨大潛在風險
AI奇點網(wǎng)6月5日報道丨近日,好幾位 OpenAI 與谷歌的 AI 工程師「反水」背刺自家公司。7 名前 OpenAI 員工、4 名現(xiàn)任 OpenAI 員工、1 名前谷歌 DeepMind 員工和 1 名現(xiàn)任谷歌 DeepMind 員工在網(wǎng)上聯(lián)名發(fā)布一封面向 AI 安全監(jiān)管的公開信,共計 13 名工程師簽署了這封公開信。旨在對正在發(fā)展的「高級人工智能」的潛在風險以及當前缺乏對 AI 科技公司的監(jiān)管表示擔憂。
這封公開信指出,人工智能的發(fā)展可能會帶來一系列的風險,例如加劇現(xiàn)有社會的不平等、助長操控和虛假信息傳播,以及失控的自主人工智能系統(tǒng)可能導致人類滅絕等。
信中寫道,「人工智能公司擁有強大的經(jīng)濟利益驅(qū)動它們繼續(xù)推進人工智能研發(fā),同時卻對保護措施和風險水平的信息諱莫如深」。公開信認為,不能指望這些帶有商業(yè)利益性質(zhì)的公司主動自愿地分享這些對人類社會負面的信息,因此呼吁內(nèi)部人士站出來發(fā)聲。
由于缺乏有效的政府監(jiān)管,這些現(xiàn)任和前任員工成為能夠讓這些公司對公眾負責的少數(shù)群體之一。然而,由于公司制定了嚴格的保密協(xié)議制度,員工被限制發(fā)聲,只能向可能并未妥善處理這些問題的公司反映問題。傳統(tǒng)的舉報人保護措施并不適用,因為此類措施側(cè)重于違法行為,而目前令人擔憂的許多風險尚不受監(jiān)管。
員工們呼吁,AI 科技公司為揭露人工智能風險的人士提供可靠的舉報人保護措施,具體包括:
在上周,業(yè)界領先的 AI 科技公司 OpenAI就被報出丑聞,通過隱私保密條款,限制員工發(fā)聲并威脅取消其既得的合理股權權益,并要求員工簽署嚴格的保密協(xié)議,在離職之后依然限制他們批評公司。隨后 OpenAI CEO 奧特曼對此事道歉,并取消了這一措施。