由于其安全性受到严格审查,OpenAI 正在招募网络安全“红队”

2023-09-20 12:47

免责声明 免责声明:内容来源于网络收集,不构成任何投资建议!

为了改进其人工智能模型,OpenAI 聘请了渗透专家来查找其广泛使用的人工智能聊天机器人平台中的漏洞。

由于其安全性受到严格审查,OpenAI 正在招募网络安全“红队”

图片:Koshiro K/

Shutterstock.com

为了增强其流行的人工智能聊天机器人的安全性,OpenAI 正在寻求外部网络安全和渗透专家(也称为“红队”)来查找人工智能平台中的漏洞。

该公司表示正在寻找各个领域的专家,包括认知和计算机科学、经济学、医疗保健和网络安全。 OpenAI 表示,其目标是提高人工智能模型的安全性和道德规范。

公开邀请发布之际,美国联邦贸易委员会对OpenAI 的数据收集和安全实践展开调查,政策制定者和企业正在质疑使用ChatGPT 的安全性。

Halborn 联合创始人兼首席信息安全官Steven Walbroehl 告诉记者:“这是关于众包志愿者参与并开展有趣的安全工作。” “这是一个交流机会,也是一个走在技术前沿的机会。”

Walbroehl 补充道:“最优秀的黑客喜欢破解最新的新兴技术。”

为了让这笔交易更加顺利,OpenAI 表示红队的会员将获得报酬,并且不需要任何人工智能方面的经验,只需要愿意贡献不同的观点即可。

OpenAI 写道:“我们宣布公开招募OpenAI 红队网络,并邀请有兴趣提高OpenAI 模型安全性的领域专家加入我们的努力。” “我们正在寻找来自各个领域的专家与我们合作,严格评估红队我们的人工智能模型。”

红队是指专门从事攻击(也称为渗透测试或笔测试)系统和暴露漏洞的网络安全专业人员。相比之下,蓝队描述的是保护系统免受攻击的网络安全专业人员。

OpenAI 继续说道,“除了加入网络之外,还有其他协作机会可以为人工智能安全做出贡献。例如,一种选择是创建或进行人工智能系统的安全评估并分析结果。”

OpenAI 于2015 年推出,去年年底随着ChatGPT 和更先进的GPT-4 的公开发布而进入公众视野,席卷了科技界,并将生成式人工智能带入主流。

7月,OpenAI联合谷歌、微软等公司致力于开发安全可靠的人工智能工具。

虽然像ChatGPT 这样的生成式人工智能工具彻底改变了人们创建内容和消费信息的方式,但人工智能聊天机器人并非没有争议,引发了有关偏见、种族主义、谎言(幻觉)、用户数据存储方式以及位置缺乏透明度的指控。

对用户隐私的担忧导致意大利、俄罗斯、中国、朝鲜、http://10012.com/、伊朗和叙利亚等许多国家禁止在其境内使用ChatGPT。作为回应,OpenAI 更新了ChatGPT,添加了删除聊天记录的功能,以保护用户隐私。

红队计划是OpenAI 为吸引顶级安全专业人士帮助评估其技术而做出的最新努力。 6 月,OpenAI 承诺投入100 万美元用于使用人工智能的网络安全措施和举措。

虽然该公司表示研究人员不受限制发表他们的发现或寻求其他机会,但OpenAI 指出该计划的成员应该意识到参与红队和其他项目通常受到保密协议的约束(保密协议)。受约束或“必须”无限期保密。 ”

OpenAI 总结道:“我们鼓励在评估人工智能系统时发挥创造力和实验性,一旦完成,欢迎您将评估结果贡献到开源Evals 存储库,以供更广泛的人工智能社区使用。”