骗骗大模型就给钱一年只工作5-10小时无需技术背景
日期:2023-09-25 来源:原创/投稿/转载 浏览次数:179
OpenAI总裁Brockman也在个人账号上发表了这则消息,而此前他刚刚和马斯克等人探讨了AI的安全问题。
此次招募的目的说起来也很简单安全、安全,还是安全。不懂技术也能报名
OpenAI的通告中具体提到了红队此前的成果,包括与OpenAI内部人员共同发现的DALL-E2偏见问题和GPT的越狱风险。
具体来说,这些专业学科包括但不限于下表中的物理学、化学等自然科学,以及法律、心理等社会科学和其他领域。
看到OpenAI通告中的这个表格,有网友忍不住发表了自己的疑问(不过通告中已经说了不限于这些领域):
不过通过中透露,红队在模型开发的各个阶段都可以进行研究,具体任务会结合专业领域和空闲时间进行分配。
此次招募的报名截止时间为今年的12月1日,采用滚动录用方式,截止后将根据实际情况决定是否或何时再次开启。
比如对模型的安全性进行评估分析并形成报告,OpenAI为此提供了Evals开源库,其中包括模板和示例。
另一方面则是加入研究人员访问计划(Researcher Access Program),还可以获得API点数来研究如何让模型更可靠。
哈佛大学Berkman Klein研究中心附属机构成员Aviv Ovadya就认为,破解团队比红队的进展要迅速多了。
除此之外,还有网友担心安全性能的提升会导致ChatGPT等模型的性能下降。 One More Thing