騙騙大模型就給錢一年只工作5-10小時無需技術背景
日期:2023-09-25 來源:原創(chuàng)/投稿/轉載 瀏覽次數(shù):179
OpenAI總裁Brockman也在個人賬號上發(fā)表了這則消息,,而此前他剛剛和馬斯克等人探討了AI的安全問題。
此次招募的目的說起來也很簡單安全、安全,,還是安全,。不懂技術也能報名
OpenAI的通告中具體提到了紅隊此前的成果,,包括與OpenAI內部人員共同發(fā)現(xiàn)的DALL-E2偏見問題和GPT的越獄風險,。
具體來說,這些專業(yè)學科包括但不限于下表中的物理學,、化學等自然科學,,以及法律、心理等社會科學和其他領域,。
看到OpenAI通告中的這個表格,,有網(wǎng)友忍不住發(fā)表了自己的疑問(不過通告中已經說了不限于這些領域):
不過通過中透露,紅隊在模型開發(fā)的各個階段都可以進行研究,,具體任務會結合專業(yè)領域和空閑時間進行分配,。
此次招募的報名截止時間為今年的12月1日,,采用滾動錄用方式,截止后將根據(jù)實際情況決定是否或何時再次開啟,。
比如對模型的安全性進行評估分析并形成報告,,OpenAI為此提供了Evals開源庫,其中包括模板和示例,。
另一方面則是加入研究人員訪問計劃(Researcher Access Program),,還可以獲得API點數(shù)來研究如何讓模型更可靠。
哈佛大學Berkman Klein研究中心附屬機構成員Aviv Ovadya就認為,,破解團隊比紅隊的進展要迅速多了,。
除此之外,還有網(wǎng)友擔心安全性能的提升會導致ChatGPT等模型的性能下降,。 One More Thing