是兄弟就来找 ChatGPT 漏洞,OpenAI:最高赏金 2 万刀

作者:克雷西 发自 凹非寺

来源:量子位(ID:QbitAI)

   现在,给 ChatGPT 找漏洞有钱挣了。

  今天凌晨,OpenAI 宣布开启漏洞赏金计划 

报告 ChatGPT 漏洞,可以获得最高 2 万美元现金奖励。

87af11225f44b24ae11ffd20a26d2961.png

具体来说,OpenAI 将与漏洞反馈平台 Bugcrowd 展开合作,收集人们在使用其产品过程中发现的 bug。

发现并通过该平台向其报告漏洞,可获得现金奖励:

我们会视漏洞的严重程度和影响范围给予现金奖励。严重性较低的漏洞将会被给予 200 美元,而对于特殊的漏洞,奖金的上限是 2 万美元。我们十分重视您的贡献,并将致力于(向公众)公布您的努力成果。

具体而言,用户反馈的漏洞将按照 Bugcrowd 评级分类法进行分级。

OpenAI 坦言,漏洞的出现无法避免

OpenAI 的使命是创造有利于所有人的人工智能系统。为此,我们在研究和工程方面进行了大量投资,以确保我们的人工智能系统安全可靠。然而,和其他复杂的技术一样,我们清楚(我们的产品)可能会出现漏洞和缺陷。

OpenAI 安全部门负责人 Matthew Knight 解释说,发现漏洞的过程需要广大网友提供帮助:

这一举措是我们致力于开发安全和先进的人工智能的一个重要组成部分。在我们创造安全、可靠和值得信赖的技术和服务时,我们希望得到您的帮助。

他们还向全网承诺,在收到反馈后第一时间修复漏洞,并对提交者进行表彰。

新的副业出现了?

体验过 ChatGPT 的网友应该都知道,它的表现不总是那么令人满意。

问题稍难一些,ChatGPT 就会被绕晕,甚至给出让人啼笑皆非的答复。

这么一看,找 bug 可太简单了,那岂不是赚大钱的机会来了?

2de2be33cad9204ee7df9dfb03281edb.gif

不要高兴太早。

在公告中,OpenAI 已经表明,出于修复可行性的考量,模型本身的问题并不在此次计划的范畴之内。

而让其进行说坏话、做坏事、生成恶意代码等绕过安全措施或产生机器幻觉的行为,都属于模型本身的问题。

更不必说错误或者不精确的回答了。

OpenAI 希望收集的有关 ChatGPT 的漏洞,主要是关于其账号、认证、订阅、支付、会员和插件等问题。

对于普通用户来说,从这些角度发掘漏洞就有些难度了。

安全问题不容小觑

前文中提到的绕过安全限制等问题是从业者十分关切的。

人工智能程序内置了防止其给出危险或带有冒犯性的言论的安全限制。

但通过一些途径,这些限制可以被绕过或突破。

这种现象被从业者形象地称之为“越狱”。

如询问 ChatGPT 如何做一些违法之事时,事先声明要求它“扮演”坏人。

在人工智能领域,有一群人专门对“越狱”进行研究,以完善安全措施。

尽管 OpenAI 不收集模型本身的漏洞,但这并不代表他们不重视这方面的问题。

搭载 GPT-4.0 模型的新版本 ChatGPT 便有着更为严格的限制措施。

网友:为啥不让 ChatGPT 自己找 bug

OpenAI 的赏金计划一公布,就吸引了不少网友围观。

这不,第一时间就有网友举手表示自己已经发现了一个 bug:

报告,3 小时内只能问 ChatGPT 25 个问题,这是个 bug!

d5adfceb1abf4b97377101c246fc13a0.png

还有网友调侃,难道不应该让 ChatGPT 自己给自己 debug 吗?

cb4f811fbd4bbe726bbf5033183c2a31.png
8f46d6cbad224712e9b89cbaef227a8f.png

正经说起来,则有网友对危险言论问题不在收集范围表示了担忧:

2d01d021cd8d832bd8daaa3398bf8a39.png

不过,大多数网友还是资瓷的,并表达了一波期待:

a9e89eb43ac05070af9a4f4e3536ad44.png
4b9e3bee083ac5a74b0c8fff9905f291.png

那么,你对给 ChatGPT 找漏洞这事儿,有兴趣吗?

最后,再推荐下我自己的ChatGPT的圈子!上面的内容在我的圈子早就发过了!很多朋友靠这个都赚了一波,这就是认知和信息差!

现在加入就送GPT独享号NewBing号,两个账号!!同时还有更多教程以及赚钱的小技巧等着你!!

0087c508a0986e5c38ae403b06e86b91.jpeg

参考链接:
[1]https://openai.com/blog/bug-bounty-program
[2]https://bugcrowd.com/openai
[3]https://www.bloomberg.com/news/articles/2023-04-11/openai-will-pay-people-to-report-vulnerabilities-in-chatgpt
[4]https://www.bloomberg.com/news/articles/2023-04-08/jailbreaking-chatgpt-how-ai-chatbot-safeguards-can-be-bypassed

猜你喜欢

转载自blog.csdn.net/spider_py/article/details/130143709