中国支付清算协会倡议支付行业从业人员谨慎使用ChatGPT等工具

中国支付清算协会倡议支付行业从业人员谨慎使用ChatGPT等工具 近期,ChatGPT等工具引起各方广泛关注,已有部分企业员工使用ChatGPT等工具开展工作。但是,此类智能化工具已暴露出跨境数据泄露等风险。 为有效应对风险、保护客户隐私、维护数据安全,提升支付清算行业的数据安全管理水平,根据《中华人民共和国网络安全法》《中华人民共和国数据安全法》等法律规定,中国支付清算协会向行业发出倡议。一是提高思想认识,依法依规使用;二是不上传关键敏感信息;三是会员单位加强内部管理和引导。

相关推荐

封面图片

中国支付清算协会:新设“个人经营收款码”

中国支付清算协会:新设“个人经营收款码” 中国支付清算协会发布关于优化条码支付服务的公告。,为进一步优化营商环境,提供更加精准和便捷的支付服务。 新设“个人经营收款码”,用户可自由选择使用。用户使用“个人经营收款码”,服务不减、体验不变,赋码过程免费,并可享受更高效的交易对账等服务。 同时,现行“个人收款码”不关闭、不停用、功能不变。()

封面图片

派早报:中国支付清算协会发布关于 ChatGPT 等工具的倡议等 [by 少数派编辑部]

封面图片

安全问题突出 三星电子禁止员工使用ChatGPT等工具

安全问题突出 三星电子禁止员工使用ChatGPT等工具 三星电子已禁止员工使用流行的生成式AI工具,如ChatGPT、Google Bard和Bing,以确保公司机密数据的安全。三星电子认为这些生成式AI工具存在泄漏风险,因为它们会将数据存储在外部服务器上,难以检索和删除,可能会被其他用户获取。该公司表示,该禁令是暂时的,三星正在开发自己的内部人工智能工具。 三星是最新一家暂时禁止员工使用生成式人工智能的公司。2月,摩根大通(JP Morgan Chase)宣布,由于“合规问题”,对LLM的临时限制。亚马逊今年也对其员工实施了类似的指导方针,Verizon和Accenture也是如此。来源 ,附: 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

哈佛大学文理学院将 ChatGPT 等生成式 AI 工具引入课堂,并发布使用指南

哈佛大学文理学院将 ChatGPT 等生成式 AI 工具引入课堂,并发布使用指南 哈佛大学旗下网站 Harvard Crimson 9 月 1 日公告,该校文理学院首次发布了教授在课程中使用 ChatGPT 等生成式 AI 的。 文理学院院长 Christopher W.Stubbs 解释说,这份指南的基础是“教师对自己的课程拥有自主权”。他认为没有放之四海而皆准的课程政策,对教师的要求是“能够使学生了解和明白 AI 对课程学习目标的影响”。 使用指南明确,哈佛大学支持该校师生将生成式 AI 用于“负责任的实验和学习中”,但需牢记数据安全和隐私、合法合规,确保符合伦理道德、版权和学术诚信等一系列重要安全因素。 此外,不可以将包括非公开研究数据、财务、人力资源、学生记录、医疗信息等在内的 2 级及以上数据输入到公开的生成式 AI 系统内。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

#工具通过你对该工具的授权,它可以使用自然语言搜索你电脑里指定文件夹的所有内容,同时还支持在线聊天问答,类似ChatGPT。

#工具 通过你对该工具的授权,它可以使用自然语言搜索你电脑里指定文件夹的所有内容,同时还支持在线聊天问答,类似ChatGPT。 还有一个圈子功能允许组织成员共同分享和使用各种数据和服务,还能接入OpenAI等模型。 同时还内置多种应用,如剪贴板收藏、微信翻译、闪念胶囊工具。

封面图片

研究显示:ChatGPT可能会被诱骗生成恶意代码 | 站长之家

研究显示:ChatGPT可能会被诱骗生成恶意代码 | 站长之家 近日,英国谢菲尔德大学的研究人员发表的一项研究揭示了一项令人担忧的发现:人工智能(AI)工具,如ChatGPT,可以被操纵,用于生成恶意代码,从而可能用于发动网络攻击。 该研究是由谢菲尔德大学计算机科学系的学者进行的,首次证明了Text-to-SQL系统的潜在危险,这种AI系统可以让人们用普通语言提出问题,以搜索数据库,广泛应用于各行各业。 研究发现,这些AI工具存在安全漏洞,当研究人员提出特定问题时,它们会生成恶意代码。一旦执行,这些代码可能泄露机密数据库信息,中断数据库的正常服务,甚至摧毁数据库。研究团队成功攻击了六种商业AI工具,其中包括高知名度的BAIDU-UNIT,该工具在众多领域中得到广泛应用,如电子商务、银行业、新闻业、电信业、汽车业和民航业等。 这项研究也突出了人们如何利用AI学习编程语言以与数据库互动的潜在风险。越来越多的人将AI视为提高工作效率的工具,而不仅仅是对话机器人。例如,一名护士可能会向ChatGPT提出编写SQL命令的请求,以与存储临床记录的数据库互动。然而,研究发现,ChatGPT生成的SQL代码在许多情况下可能对数据库造成损害,而护士可能在不受警告的情况下导致严重的数据管理错误。 此外,研究还揭示了一种可能的后门攻击方法,即通过污染训练数据,在Text-to-SQL模型中植入“特洛伊木马”。这种后门攻击通常不会对模型的性能产生一般性影响,但可以随时触发,对使用它的任何人造成实际危害。 研究人员表示,用户应该意识到Text-to-SQL系统中存在的潜在风险,尤其是在使用大型语言模型时。这些模型非常强大,但其行为复杂,很难预测。谢菲尔德大学的研究人员正在努力更好地理解这些模型,并允许其充分发挥潜力。 该研究已经引起了业界的关注,一些公司已经采纳了研究团队的建议,修复了这些安全漏洞。然而,研究人员强调,需要建立一个新的社区来对抗未来可能出现的高级攻击策略,以确保网络安全策略能够跟上不断发展的威胁。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人