OPEN:ChatGPT爆重大漏洞:可能泄露1.2%用户数据 AI安全引人震惊_PEN

美国时间3月25日,OpenAI官方发布了3月20日ChatGPT临时中断服务的调查报告,并表示有1.2%的ChatGPT Plus用户可能数据被泄露。

根据OpenAI官网公告表示,3月20日以前,一个名为Redis-py的开源库中的错误造成了缓存问题,该问题会导致用户可能看到其他人聊天记录的片段,甚至会向一些活跃用户显示其他用户信用卡的最后四位数字、到期日期、姓名、电子邮件地址和付款地址。

本来可能还只是零星的用户出现该类BUG,但令人神经大条的是,在20号早上,OpenAI在对服务器进行更改的时候出现失误,导致Redis请求取消激增,问题进一步的加剧,所以出现了这个“1.2%”的可能。

根据OpenAI官方的说法,有两种可能会使这些信息被暴露:

1. 在特定时间内的付款确认邮件,可能会发给了一些错误的用户,这些邮件上包含信用卡的后四位数字。

2. 在特定时间内,点击“我的账户”-“管理我的订阅”,可能会导致另一个活跃用户的姓名、电子邮箱、付款地址、信用卡后四位被泄露。

OpenAI表示,目前已经联系了这些可能已经泄露信息的用户。

网址:https://openai.com/blog/march-20-chatgpt-outage(网页自动翻译,或不准确)

为了防止此类事情再次发生,OpenAI也在博文里说明了他们已经采取的行动:添加“冗余检查”以确保提供的数据与用户匹配;改进修复了其Redis集群在高负载下吐出错误的可能性......而且还强调他们的Redis开源维护者一直是出色的合作者。

虽然问题已经解决,但还是有大量的网民们依旧质疑OpenAI的安全性,还有网民询问,为什么不能用GPT4检查代码上的错误。

可能是为了安抚ChatGPT用户的心绪,OpenAI CEO Sam Altman在当天立刻接受了媒体专访。虽然只字未提此次用户数据泄露事件,却多次强调“AI安全”。

他提到了以下四点:

1.人工智能语言模型(如 GPT)的开发和改进需要一个包含公众反馈的迭代过程,专注于解决偏见,并考虑 AI 安全性和一致性。

2.人工智能的进步,特别是GPT技术的进步,正在改变编程的性质,需要仔细考虑人工智能的安全性、语言输出的监控和解决偏见。

3.人工智能的发展,特别是神经网络,有可能超越人类智能,大大提高生活质量,但也带来了重大的风险和挑战,必须通过不断研究和开发人工智能安全性和一致性来解决。

4.OpenAI是一家营利性公司,致力于强大的AI技术,同时对安全问题保持透明。

OpenAI CTO Mira Murati也在其官网上发出自己的观点,“人工智能系统正在成为日常生活的一部分。关键是要确保这些机器符合人类的意图和价值观。”而如今,他们一手创造的ChatGPT正在挑战着他们所给到公众的承诺。

随着人类工作生活使用人工智能的频次越来越高,AI安全问题也应该成为我们在当下及未来相当长一段时间应该重视的问题,AI技术不能只考虑跑得快,还要考虑不翻车。

根据openAI官方解释,这是由于缓存问题导致用户信息泄漏,然而这种错误,在互联网行业中,并不是第一起。

早在2015年的圣诞节,Steam也因为缓存问题,使34000名左右用户的个人信息被泄露。OpenAI投入巨量的精力和金钱在AI的潜在安全的研究上,却被一个常见的老问题给绊倒。虽说“成大事者,不拘小节”,但“天下难事,必作于易;天下大事,必作于细。”希望未来OpenAI不会再出现此类的问题了。

我们询问了GPT-4,AI安全问题应该如何解决,它回答道:

在人工智能(AI)领域,确保安全性是至关重要的。以下是一些建议和方法,以解决AI安全问题:

可解释性和透明度:AI系统的设计应具备可解释性,以便研究人员、用户和监管机构理解其决策过程。提高透明度有助于确保AI系统的行为符合预期,便于发现潜在的安全隐患。

数据安全和隐私:AI系统通常需要大量数据进行训练。保护这些数据的隐私和安全至关重要。采用加密、数据脱敏和差分隐私等技术,以确保数据在处理、传输和存储过程中得到保护。

鲁棒性和抗攻击能力:AI系统应具备对抗对手的能力,包括识别和抵御对抗性攻击、性输入等。研究鲁棒性训练方法,提高系统的抗干扰能力。

可审计性:建立可审计的AI系统,以记录关键决策过程。这将有助于追踪潜在问题、确保合规性,并为未来纠正错误和不当行为提供依据。

伦理与法规遵循:确保AI系统符合伦理原则和法律法规,遵循公平、透明、可解释等原则。研究AI伦理,制定相应的政策和指导方针。

持续监控和更新:随着技术的进步和新的安全威胁的出现,需要不断监控和更新AI系统,以确保其安全性和有效性。

多学科合作:鼓励不同领域的研究人员、政策制定者、企业家和公众共同参与AI安全问题的讨论。跨学科合作将有助于制定更全面的安全策略。

开放研究和分享:开展开放、合作的研究,分享AI安全相关的知识、技术和最佳实践。这将有助于整个AI领域在安全问题上取得进展。

通过积极采纳这些措施和方法,我们可以降低AI领域的安全风险,推动人工智能的健康、可持续发展。

希望OpenAI在内的人工智能公司,都能为保障AI安全而多上心、多出力,AI行业才能够更加健康地发展。

作者:鹿人 蒹葭 ChatGPT 排版:鹿人

金色财经 善欧巴

金色早8点

白话区块链

Odaily星球日报

深潮TechFlow

欧科云链

Arcane Labs

MarsBit

BTCStudy

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

大币网

XRPWEB:Web3 代币战争的护城河_NFT

文章作者:Joel John文章编译:Block unicorn一年前,我们曾谈及Web3时代的聚合理论。在Web2.0时代,聚合平台因为打破了分销成本而受益,将许多服务提供者汇集到一起.

[0:15ms0-11:312ms