六成受访者在使用AI时感到信息泄露风险

六成受访者在使用AI时感到信息泄露风险日本信息处理推进机构近日汇总了在业务中使用人工智能的安全性相关调查报告。在回答工作中使用人工智能等的1000人中,六成人表示感到了信息泄露和虚假信息扩散等威胁与风险。关于输入人工智能的营业秘密泄露、滥用人工智能导致虚假信息扩散等各个项目,调查分别询问了如何看待。把获得的答复平均后发现,认为“是重大威胁”的占27.1%,“略有威胁”占33.3%,合计为60.4%。认为“不太是威胁”的占6.2%,“完全不是威胁”的占2.4%,合计为8.6%,远低于前者。另一方面,关于迅速普及的生成式人工智能的使用情况,回答称组织内已制定和明文化规则的不到20%。上述机构指出:“明文化滞后、以及由使用者自行处理的组织较多。特别是在中小规模的组织中,应对迟缓。”——

相关推荐

封面图片

三星电子禁止员工使用生成式AI工具 担心数据泄露

三星电子禁止员工使用生成式AI工具担心数据泄露该公司对员工表示:“公司内外对ChatGPT等生成式人工智能平台的兴趣一直在增长。虽然人们的兴趣集中在这些平台的实用性和效率上,但人们也越来越担心生成式AI带来的安全风险。”三星只是最新一家对这项技术表示担忧并采取行动的大公司。今年2月,就在OpenAI的聊天机器人服务激起人们对该技术兴趣的几个月后,包括摩根大通、美国银行和花旗集团在内的一些华尔街银行禁止或限制了该服务的使用。出于对隐私的担忧,意大利政府也一度禁止使用ChatGPT,不过最近几天改变了立场。三星的新规定禁止在公司拥有的电脑、平板电脑和手机以及内部网络上使用生成式人工智能系统。它们不会影响该公司销售给消费者的设备,比如安卓智能手机和Windows笔记本电脑。三星要求在个人设备上使用ChatGPT和其他工具的员工不要提交任何可能泄露其知识产权的公司相关信息或个人数据。该公司警告称,违反新政策可能会导致被解雇。三星在备忘录中表示:“我们要求你们努力遵守我们的安全准则,如果不这样做,可能会导致公司信息泄露或泄露,从而导致纪律处分,甚至终止雇佣关系。”该公司上个月进行了一项关于内部使用人工智能工具的调查,并表示65%的受访者认为此类服务构成安全风险。备忘录称,4月初,有三星工程师将内部源代码上传到ChatGPT上,不小心泄露了源代码。备忘录称:“总部正在审查安全措施,为安全使用生成式人工智能创造一个安全的环境,以提高员工的生产力和效率。然而,在准备好这些措施之前,我们暂时限制了生成式人工智能的使用。”与此同时,该公司正在创建自己的内部人工智能工具,用于翻译和总结文档以及软件开发。该公司还在研究阻止公司敏感信息上传到外部服务的方法。上个月,ChatGPT增加了一种“隐身”模式,允许用户阻止他们的聊天记录被用于人工智能模型训练。...PC版:https://www.cnbeta.com.tw/articles/soft/1357705.htm手机版:https://m.cnbeta.com.tw/view/1357705.htm

封面图片

ChatGPT可能泄露商业机密 美国FTC称将重点关注AI违法行为

ChatGPT可能泄露商业机密美国FTC称将重点关注AI违法行为以色列网络安全公司Team8的最新报告显示,使用ChatGPT等生成式人工智能的企业可能会因此泄露客户信息和商业机密。该报告称,新型人工智能聊天机器人和协作工具的广泛普及,可能会令一些公司面临数据泄露和法律风险。他们担心黑客可能会利用聊天机器人获取敏感的企业信息或对企业发动攻击。此外,目前投喂给聊天机器人的机密信息未来也有可能会被人工智能公司利用。Team8在报告中强调,聊天机器人的查询并不会被输入大预言模型来训练人工智能,而与之相悖的是,最近的报告声称这样的提示信息有可能会被其他人看到。美国联邦贸易委员会(FTC)官员周二表示,该机构将重点关注滥用人工智能技术违反反歧视法或存在欺骗行为的公司。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

民调:逾六成受访者愿为台而战

民调:逾六成受访者愿为台而战台湾民主基金会昨天发布年度民调,民调显示,无论中国大陆攻打台湾的理由为何,皆有六成以上台湾受访者愿挺身为台湾而战。基金会执行长黄玉霖指出,调查结果印证,民众不分党派,只要越认同台湾民主,愿为台湾而战的意愿也越高。年龄层越低者,也越愿意挺身捍卫台湾。据《自由时报》报道,民调的问题分为两个假设性前提,一是当宣布台独而被中国大陆攻打,另一个是中国大陆发动统一战争。结果显示,当宣布台独而被中国大陆攻打时,非常愿意包围台湾的占31.9%、愿意的占30.8%、不愿意的占11.3%、非常不愿意的占15.4%、无反应的占10.6%。当中国大陆主动发动统一战争时,非常愿意的占37.8%,愿意的占34.7%、不愿意的占8.4%、非常不愿意的占10.2%、无反应的有9%。台湾政治大学选举研究中心研究员俞振华指出,年轻族群跟中老年族群相比,年轻族群更愿意为台湾而战。而在中国大陆为武统攻打台湾状况下,民进党支持者逾九成愿为台而战,国民党支持者也逾半;但若因独立被攻打,两党支持者为台而战意愿差距明显拉大,在这议题上,确实有政党因素影响。发布:2021年12月30日1:40PM

封面图片

中国支付清算协会:谨慎使用ChatGPT等 避免数据泄露风险

中国支付清算协会:谨慎使用ChatGPT等避免数据泄露风险在ChatGPT火爆全球之际,中国支付清算协会发布倡议书,提示支付行业从业人员合规使用ChatGPT等工具,以避免数据泄露风险。据财新网报道,这份星期一(4月10日)发布的倡议书称,近期ChatGPT等工具引起各方广泛关注,已有部分企业员工使用ChatGPT等工具开展工作,但此类智能化工具已暴露出跨境数据泄露等风险。为有效应对风险、保护客户隐私、维护数据安全,提升支付清算行业的数据安全管理水平,根据《中国网络安全法》《中国数据安全法》等法律规定,协会向行业发出三个方面的倡议。一是提高思想认识,依法依规使用。支付行业从业人员要遵守所在地区的网络使用规定,正确认识ChatGPT等工具的机遇和风险,全面评估使用ChatGPT等工具处理工作内容的风险,合规使用ChatGPT等工具。二是不上传关键敏感信息。支付行业从业人员在使用ChatGPT等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、本公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。三是会员单位加强内部管理和引导,进一步健全信息安全内控管理制度,开展有针对性的数据风险防控工作,提升员工的风险防范和数据保护意识,切实维护国家金融及支付清算行业安全。目前ChatGPT不能在中国境内使用,账号注册时,中国手机号也不能作为注册手机号,部分中国用户通过购买国外注册的账号登录和使用ChatGPT。报道引述一位支付公司负责人认为,ChatGPT和百度推出的类似产品“文心一言”,都有数据泄露的风险。“目前除了写报告打个简单框架草稿可能能用到这类文本类的AI工具,支付公司开展业务主要靠人脉和服务,这是ChatGPT这类AI工具最不擅长的。”3月底,由于涉嫌未经同意收集、使用和披露个人信息,意大利个人数据保护局宣布禁用ChatGPT,这是第一个宣布禁用ChatGPT的国家。

封面图片

【IBM安全报告:AI及自动化让数据泄露处理周期已缩短108天】

【IBM安全报告:AI及自动化让数据泄露处理周期已缩短108天】2023年07月25日04点24分老不正经报道,IBMSecurity于7月24日发布其年度《数据泄露成本报告》(CostofDataBreachReport)。报告显示,2023年全球数据泄露的平均成本达到445万美元,创该报告有史以来以来最高记录,也较过去3年均值增长了15%。同一时期内,检测安全漏洞和漏洞恶化带来的安全成本上升了42%,占安全漏洞总成本的比值也来到史上最高。人工智能和自动化对被调研组织的漏洞识别和遏制速度帮助最大。与研究中未部署这些技术的组织相比,广泛使用人工智能和自动化的组织的数据泄露处理周期会短上108天。

封面图片

谷歌也担心泄密风险 警告员工谨慎使用AI办公

谷歌也担心泄密风险警告员工谨慎使用AI办公人们在使用这些聊天机器人的时候,会与其进行对话。一方面,人类评审员可能会阅读这些聊天记录;另一方面,研究人员发现,人工智能可以吸收并复制相关对话数据给其他人,从而产生信息泄漏风险。而谷歌对此回应称,其聊天机器人Bard可以生成一些不受欢迎的代码建议,但它仍然对IT工程师们会有所帮助。谷歌还表示,其目标是对人工智能技术保持足够的透明度。这些担忧表明,谷歌希望避免人工智能对公司的商业化运作造成损害,这种谨慎的态度也体现出企业对人工智能的使用限制,正越发成为某种具有共性的企业安全标准。在此之前,包括三星、亚马逊、德意志银行等大型企业都对员工使用人工智能设置了一定的“护栏”,以确保不会对公司运营造成风险。根据社交网站Fishbowl对12000名受访者的调查,截至今年1月,约43%的专业人士在工作中使用了ChatGPT或其他人工智能工具,而且通常都没有告诉他们的老板。谷歌告诉媒体,它已经与爱尔兰数据保护委员会进行了详细的对话,并正在解决监管机构的问题。谷歌在6月1日更新的隐私声明也指出:“不要在与Bard的对话中包含机密或敏感信息。”一些公司已经开发了软件来解决这些问题。例如,保护网站免受网络攻击并提供云服务的Cloudflare正在推广一种功能,可以让企业对某些数据进行标记,并限制其向外部流动。谷歌和微软也在向企业客户提供对话工具,这些工具的价格更高,但不会将数据吸收到公共人工智能模型中。Bard和ChatGPT的默认设置是保存用户的历史对话记录,用户也可以选择删除。微软消费者业务首席营销官YusufMehdi曾表示,公司不希望员工使用公共聊天机器人工作是“有道理的”。Cloudflare首席执行官MatthewPrince指出,在聊天机器人中输入机密信息,就像“让一群博士生随意查看你所有的私人记录”。...PC版:https://www.cnbeta.com.tw/articles/soft/1365541.htm手机版:https://m.cnbeta.com.tw/view/1365541.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人