所有語言
分享
文章來源:51CTO技術棧
編輯 | 雲昭
本周的OpenAI, 似乎並未辜負其名稱中的“開放”字樣。
近日,OpenAI雖然沒有開源任何新模型,但該公司非常之“清流”,一改銅臭的商業味道。
OpenAI加入開放性組織
推出內容真實性工具
5月7日,該公司發布公告加入C2PA(致力於開發確定內容來源和真實性的技術規範,微軟和Adobe也是成員之一,非營利性組織)的貿易組織的指導委員會,並表示這樣做的目的是為了幫助人們驗證用於創建或編輯多種数字內容的工具,並創建“專門幫助人們識別由我們自己的工具創建的內容的新技術”。
直白的解釋,即,OpenAI希望與該領域的其他公司(包括競爭對手)合作,開發用於標記AI生成的圖像、視頻和其他內容的工具和技術,從而使觀看者能夠追溯到其來源並避免混淆他們用於現實世界的鏡頭和照片。
值得注意的是,C2PA這個組織發布過許多開源技術標準,所以OpenAI的接下來的好技術非常有望開源出來給開發者使用。
此外,就在同一天,OpenAI宣布將推出一款工具,可以檢測出由其“文本到圖像生成器Dall-E 3創建的圖像。OpenAl表示,在內部測試中,該工具在約98%的時間內能夠正確識別出由Dall-E 3創建的圖像,並且可以處理一些常見的修改,如壓縮、裁剪和飽和度變化等。
OpenAl還表示,計劃添加防篡改水印,對照片或音頻等数字內容進行標記,且這些標記很難被刪除。
OpenAI 要為行業立規矩
這還不夠,OpenAI開始在行業內立內容標準了!
其官網博客在7日宣布OpenAI 正在開發媒體管理器,該工具將使創作者和內容所有者能夠告訴用戶他們擁有什麼,並指定他們希望如何將自己的作品納入或排除在機器學習研究和訓練之外。接下來,他們計劃推出更多選擇和功能。
這將需要尖端的機器學習研究來構建有史以來第一個同類工具,以幫助我們識別多個來源的受版權保護的文本、圖像、音頻和視頻,並反映創作者的偏好。
“在開發媒體管理器時,我們正在與創作者、內容所有者和監管機構合作。我們的目標是在 2025 年之前推出該工具,並希望它能為整個人工智能行業樹立標準。”
緊接着,5月8日,OpenAI公開分享了模型規範Model Spec,次日掌舵者Sam Altman評論道:
Model Spec規定了該公司模型如何運行,之後會繼續傾聽、討論並調整。“我認為明確某件事究竟是BUG、還是決策造成的,這將是非常有用的。”
據悉,這個“模型規範”,是一個框架文件,旨在塑造 OpenAI 應用程序編程接口 (API) 和 ChatGPT 中使用的人工智能模型的行為,並在此基礎上使用網絡表單徵求公眾反饋,開放直到5月22日。
Altman表示,希望在社會最終同意的一些嚴格界限內,讓用戶對AI擁有很大的控制權。
一系列的動作都聚焦在一件事情上:給AI的使用行為立規矩,旨在解決AI技術加劇或帶來的虛假信息、深度偽造、內容版權等問題。
為AI大模型立“憲法”
OpenAI 表示,這份工作文件的發布是其更廣泛使命的一部分,即確保人工智能技術以對所有用戶有益且安全的方式運行。
當然,說起來容易做起來難,而且這樣做很快就會陷入長期懸而未決的關於技術、智能系統、計算、工具和更廣泛的社會的哲學辯論的領域。
正如 OpenAI 在其宣布 Model Spec 的博客文章中所寫:
“即使一個模型的目的是對用戶廣泛有益和有幫助,這些意圖在實踐中也可能會發生衝突。例如,安全公司可能希望生成網絡釣魚电子郵件作為合成數據,以訓練和開發保護其客戶的分類器,但如果詐騙者使用相同的功能,則會有害。”
通過分享初稿,OpenAI 希望公眾就人工智能開發中涉及的道德和實際考慮因素進行更深入的對話。在接下來的兩周內,用戶可以通過 OpenAI網站上的模型規範反饋表提交意見。
之後,OpenAI 表示將在“明年分享有關模型規範變更的最新信息、對反饋的回應以及其在塑造模型行為方面的研究進展情況”。
儘管 OpenAI 在今天宣布模型規範的博文中並未具體說明它究竟如何影響其人工智能模型的行為,以及模型規範中寫入的一些原則是否包含在“系統提示”或“預先提示”中用於在人工智能系統向公眾提供服務之前對其進行調整——但可以肯定的是,它對其產生了重大影響。
其實,Model Spec的推出,在某種程度上類似於競爭對手Anthropic AI 的人工智能制定Claude“憲法”的路數,Antropic最初只是將其作為一個主要的差異化,但在一段時間內並未廣泛強調這一點。
AI行為框架三定律
模型規範圍繞3個主要組成部分構建:目標、規則和默認行為。這些元素是指導人工智能模型與人類用戶交互的支柱,確保它們不僅有效而且遵守道德標準。
目標:該文件制定了廣泛的總體原則,旨在為開發人員和最終用戶提供幫助。其中包括幫助用戶有效地實現他們的目標,考慮對不同利益相關者的潛在影響,以及堅持 OpenAI 在社區中积極反映的承諾。
規則:為了駕馭人工智能交互的複雜環境,模型規範建立了明確的規則。這些要求遵守適用法律、尊重知識產權、保護隱私,並嚴格禁止製作不安全工作 (NSFW) 內容。
默認行為:指南強調了假設良好意圖、必要時提出澄清問題以及盡可能提供幫助但不過分的重要性。這些默認值旨在促進不同用戶和用例的不同需求之間的平衡。
AI 佈道者、賓夕法尼亞大學沃頓商學院教授 Ethan Mollick 等人將其比作科幻作家阿西莫夫於 1942 年提出的虛構“機器人三定律”。
質疑聲音:
模型功能被限制、示例回答欠妥
當然,這個模型規範當然還遠遠不能稱為完美,有網友甚至對於模型規範表示遺憾:因為這會阻止模型充分發揮其功能。
比較尷尬的地方就在於,本身在該示範中的一個示例就出問題了。科技作家Andrew 在 X 上指出,模型規範中包含的 OpenAI 的一個示例显示,一個假設的“AI 助手”對用戶關於地球是平的錯誤說法做出了讓步,並且沒有提出疑問。
同時,還有人對當前 OpenAI 模型規範如何導致 ChatGPT 或其他 AI 模型行為的實現提出了質疑。
一項馬拉松式的公開工程
OpenAI 認識到模型規範是一個不斷髮展的文檔。它不僅反映了組織當前的實踐,而且還是一個動態框架,將根據正在進行的研究和社區反饋進行調整。
這種協商方法旨在收集不同的觀點,特別是來自政策制定者、值得信賴的機構和領域專家等全球利益相關者的觀點。
收到的反饋將在完善模型規範和塑造未來人工智能模型的發展方面發揮至關重要的作用。
OpenAI 計劃向公眾通報從這一反饋循環中獲得的變化和見解,強化其對負責任的人工智能開發的承諾。
OpenAI是裁判,也是運動員?
無論如何,本周一系列開放的動作或許在透露出OpenAI在處於某種轉折點上。美大選將近,GPT-5的推出備受大家關注。“大模型行為準則”的推出,似乎也標志著某種秩序即將悄然而至。
正如SamAltman所說,通過明確定義人工智能模型應如何按照其模型規範行事,並不斷尋求全球社區的意見,希望OpenAI 可以營造這樣一個環境,讓AI能夠作為社會的积極力量蓬勃發展。
當然,雖然OpenAI自身也在因為同樣的事情在面臨着訴訟和挑戰,比如:對未經明確同意對藝術家作品而進行訓練而飽受批評。
醫者能否自醫?裁判還是運動員?則是另一個值得探討的話題了。
參考鏈接:
https://openai.com/index/introducing-the-model-spec
https://venturebeat.com/ai/openai-to-steer-content-authentication-group-c2pa-pledges-to-label-sora-videos-as-ai/