亚马逊警告员工不要向 ChatGPT 分享机密,包括正在写的代码 - IT之家

None

相关推荐

封面图片

亚马逊已在多种工作职能中使用ChatGPT,包括编写代码等 #抽屉IT

封面图片

插件ChatGPT插件功能:写代码

插件ChatGPT 插件功能:写代码 支持平台:#VS Code 插件简介:一款集成在 VS Code 里的 ChatGPT。可以帮你写代码、提供代码建议,为代码添加注释、语义搜索等,可自定义 prompt,最重要的是提供不限量的 ChatGPT 3.5 询问。 插件功能: ◉ 直接写代码 ◉ 对选中的代码进行解释 ◉ 重构代码 插件下载:点击下载

封面图片

亚马逊已在多种工作职能中使用ChatGPT,包括回答面试问题、编写软件代码和创建培训文档等 #抽屉IT

封面图片

研究显示:ChatGPT可能会被诱骗生成恶意代码 | 站长之家

研究显示:ChatGPT可能会被诱骗生成恶意代码 | 站长之家 近日,英国谢菲尔德大学的研究人员发表的一项研究揭示了一项令人担忧的发现:人工智能(AI)工具,如ChatGPT,可以被操纵,用于生成恶意代码,从而可能用于发动网络攻击。 该研究是由谢菲尔德大学计算机科学系的学者进行的,首次证明了Text-to-SQL系统的潜在危险,这种AI系统可以让人们用普通语言提出问题,以搜索数据库,广泛应用于各行各业。 研究发现,这些AI工具存在安全漏洞,当研究人员提出特定问题时,它们会生成恶意代码。一旦执行,这些代码可能泄露机密数据库信息,中断数据库的正常服务,甚至摧毁数据库。研究团队成功攻击了六种商业AI工具,其中包括高知名度的BAIDU-UNIT,该工具在众多领域中得到广泛应用,如电子商务、银行业、新闻业、电信业、汽车业和民航业等。 这项研究也突出了人们如何利用AI学习编程语言以与数据库互动的潜在风险。越来越多的人将AI视为提高工作效率的工具,而不仅仅是对话机器人。例如,一名护士可能会向ChatGPT提出编写SQL命令的请求,以与存储临床记录的数据库互动。然而,研究发现,ChatGPT生成的SQL代码在许多情况下可能对数据库造成损害,而护士可能在不受警告的情况下导致严重的数据管理错误。 此外,研究还揭示了一种可能的后门攻击方法,即通过污染训练数据,在Text-to-SQL模型中植入“特洛伊木马”。这种后门攻击通常不会对模型的性能产生一般性影响,但可以随时触发,对使用它的任何人造成实际危害。 研究人员表示,用户应该意识到Text-to-SQL系统中存在的潜在风险,尤其是在使用大型语言模型时。这些模型非常强大,但其行为复杂,很难预测。谢菲尔德大学的研究人员正在努力更好地理解这些模型,并允许其充分发挥潜力。 该研究已经引起了业界的关注,一些公司已经采纳了研究团队的建议,修复了这些安全漏洞。然而,研究人员强调,需要建立一个新的社区来对抗未来可能出现的高级攻击策略,以确保网络安全策略能够跟上不断发展的威胁。

封面图片

陶哲轩:用ChatGPT写代码太省时间了 #抽屉IT

封面图片

#小众软件EasyCode AI – 集成在 VS Code 里的 ChatGPT,帮你写代码、改代码Tags: #AI #VS

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人