软件开发者注意了:如果你想要用户注意安全警告,你需要选择在更合适的时间弹出警告。

软件开发者注意了:如果你想要用户注意安全警告,你需要选择在更合适的时间弹出警告。杨百翰大学的研究人员和GoogleChrome工程师合作发现,在用户打字、看视频和上传文件等情况下,在高达90%的可能性用户会无视警告,原因是“双重任务干扰”——一种神经限制,导致即使是简单的任务也无法在不严重降低表现下同时执行。研究人员发现,人类大脑并不能很好的处理多重任务。在研究中,74%的人在关闭网页窗口时会无视警告;79%的人在看视频时不会关心警告信息;87%的人在传输信息时不理睬警告。研究人员建议,安全警告最好在低双重任务时弹出,比如看完视频后,加载网页时或与网站交互之后。研究报告发表在《InformationSystemsResearch》上。http://phys.org/news/2016-08-people-software-percent.html

相关推荐

封面图片

【微软针对区块链上的网络钓鱼攻击发出警告】

【微软针对区块链上的网络钓鱼攻击发出警告】2月18日消息,微软365防御者研究团队表示,尤其是网络钓鱼已经蔓延到区块链、托管钱包和智能合约上大行其道。同时,他们强调了这些威胁的持久性,以及在未来相关系统和框架中构建安全基础的必要性。微软的网络安全研究人员说,针对Web3和区块链的网络钓鱼攻击可以采取多种形式。其中,较为主要的一种是攻击者试图获得私人的加密密钥来访问包含数字资产的钱包。虽然电子邮件的网络钓鱼尝试确实发生了,但社交媒体的诈骗也很猖獗。例如,诈骗者可能会向用户直接发送消息,公开请求加密货币服务的帮助,并在假装来自支持团队的同时,要求提供密钥。微软提示:“在较高的层面上,我们建议软件开发人员提高Web3的安全可用性。与此同时,最终用户需要通过额外的资源来明确验证信息,例如查看项目的文档和外部声誉/信息网站。

封面图片

谷歌顶级AI专家加入OpenAI 曾警告不要用ChatGPT数据训练Bard

谷歌顶级AI专家加入OpenAI曾警告不要用ChatGPT数据训练Bard谷歌发言人则表示,“训练Bard没有用过任何来自ShareGPT或ChatGPT的数据。”据悉,用户可以在ShareGPT这个平台上发布他们与聊天机器人ChatGPT所交流的信息。报道称,德弗林曾告诉谷歌高管们,他认为开发Bard的团队使用了来自ShareGPT平台的信息。德弗林警告高管们,用用户与ChatGPT对话进行训练的话,可能会让Bard和ChatGPT太过相似。据报道,德弗林以及谷歌其他员工还认为这种做法违反了OpenAI的服务条款。消息人士表示,在德弗林就这个问题对谷歌高管发出警告后,谷歌就停止使用这些数据来训练Bard。据悉,今年1月份德弗林离开谷歌后不久,就加入了竞争对手OpenAI麾下。此前有报道称,德弗林是今年年初离开谷歌加入竞争对手的几名人工智能顶级研究人员之一。德弗林在谷歌工作了五年多时间。2018年他作为主要作者发布了一篇关于训练机器学习模型以提高搜索精度的研究论文,在一定程度上推动了人工智能的研究热潮。据报道,德弗林的研究成果已经成为谷歌和OpenAI语言模型的组成部分。多年来,OpenAI聘请了几十名来自谷歌母公司Alphabet的员工。去年11月份,OpenAI因公开发布能撰写文章还能自动编程的ChatGPT而爆火,此后谷歌和OpenAI就在人工智能领域展开激烈竞争。本月早些时候,谷歌向部分美国和英国用户发布了Bard。但是谷歌想要赶超OpenAI的步伐并没有停止。有报道称,为了能和OpenAI竞争,隶属于Alphabet旗下的两个人工智能团队DeepMind和谷歌大脑(GoogleBrain)已经联手。(辰辰)...PC版:https://www.cnbeta.com.tw/articles/soft/1352121.htm手机版:https://m.cnbeta.com.tw/view/1352121.htm

封面图片

Meta警告100万Facebook用户可能被安装了密码窃取应用

Meta警告100万Facebook用户可能被安装了密码窃取应用Meta公司警告100万Facebook用户,他们的账户信息可能已经被来自苹果或Google商店的第三方应用程序泄露了。在一份新的报告中,该公司的安全研究人员说,在过去的一年里,他们已经发现了400多个旨在劫持用户的Facebook账户凭证的诈骗应用程序。PC版:https://www.cnbeta.com/articles/soft/1324651.htm手机版:https://m.cnbeta.com/view/1324651.htm

封面图片

研究人员发出警告AI系统已学会如何欺骗人类

研究人员发出警告AI系统已学会如何欺骗人类第一作者、麻省理工学院人工智能存在安全博士后彼得-S-帕克(PeterS.Park)说:"人工智能开发人员对造成欺骗等不良人工智能行为的原因并不十分了解。但一般来说,我们认为人工智能欺骗行为的产生是因为基于欺骗的策略被证明是在特定人工智能训练任务中表现出色的最佳方式。欺骗有助于它们实现目标。"Park及其同事分析了相关文献,重点研究了人工智能系统传播虚假信息的方式--通过学习欺骗,系统地学会操纵他人。研究人员在分析中发现的最显著的人工智能欺骗例子是Meta公司的CICERO,这是一个专门用来玩"外交"游戏的人工智能系统。尽管Meta公司声称它训练CICERO"基本上是诚实和乐于助人的",并且在玩游戏时"从不故意背叛"人类盟友,但该公司随其科学论文一起发表的数据显示,CICERO玩得并不公平。Meta的CICERO在外交游戏中的欺骗示例。资料来源:Patterns/ParkGoldsteinetal.Park说:"我们发现,Meta的人工智能学会了欺骗。虽然Meta成功地训练其人工智能在外交游戏中获胜--CICERO在参加过不止一次游戏的人类玩家中名列前10%,但Meta却未能训练其人工智能以诚实的方式获胜"。其他人工智能系统也展示了在与人类职业玩家进行的德州扑克游戏中虚张声势的能力,在战略游戏《星际争霸II》中伪造攻击以击败对手的能力,以及在经济谈判中歪曲自己的偏好以占上风的能力。Park补充说,虽然人工智能系统在游戏中作弊看似无害,但这可能会导致"人工智能欺骗能力的突破",并在未来演变成更高级的人工智能欺骗形式。研究人员发现,一些人工智能系统甚至学会了欺骗旨在评估其安全性的测试。在一项研究中,数字模拟器中的人工智能生物"装死",以骗过为消除快速复制的人工智能系统而设计的测试。通过有计划地欺骗人类开发人员和监管机构对其进行的安全测试,欺骗性人工智能会让我们人类陷入虚假的安全感。GPT-4完成验证码任务。图片来源:Patterns/ParkGoldsteinetal.帕克警告说,欺骗性人工智能的主要近期风险包括使敌对行为者更容易实施欺诈和篡改选举。他说,最终,如果这些系统能够完善这种令人不安的技能组合,人类可能会失去对它们的控制。"作为一个社会,我们需要尽可能多的时间来为未来人工智能产品和开源模型更先进的欺骗能力做好准备,"Park说。"随着人工智能系统的欺骗能力越来越先进,它们给社会带来的危险也将越来越严重。"虽然Park和他的同事们认为社会还没有正确的措施来解决人工智能欺骗问题,但他们感到鼓舞的是,政策制定者已经通过欧盟人工智能法案和拜登总统的人工智能行政命令等措施开始认真对待这个问题。但Park说,鉴于人工智能开发人员尚不具备控制这些系统的技术,旨在减少人工智能欺骗行为的政策能否得到严格执行还有待观察。"如果禁止人工智能欺骗在当前政治上不可行,我们建议将欺骗性人工智能系统归类为高风险,"Park说。编译来源:ScitechDaily...PC版:https://www.cnbeta.com.tw/articles/soft/1430598.htm手机版:https://m.cnbeta.com.tw/view/1430598.htm

封面图片

研究人员发出警告:快餐店苏打水机中可能有食品安全死角

研究人员发出警告:快餐店苏打水机中可能有食品安全死角洛马琳达大学(LLU)的研究人员在东科切拉山谷的常见饮用水源中发现了微生物污染,其中包括快餐店的苏打水机。他们的研究结果表明,研究人员从这些苏打水机收集的水样中有41%含有总大肠菌群,这是一种水污染指标。对水样进行分子分析后发现,细菌中含有微量遗传物质,包括沙门氏菌(Salmonellaspp)、铜绿假单胞菌(Pseudomonasaeruginosa)和大肠杆菌(Escherichiacoli)。鉴于这些发现,研究报告的作者建议苏打水机的所有者定期清洁和冲洗饮水机,以防止水污染。首次同类研究"我们的研究是首次对苏打水机、自动售水机、拭子和自来水的水质进行评估,尤其是在科切拉山谷东部地区,"该研究的主要作者、伦敦语言大学附属研究员托马斯-希尔(ThomasHile)博士说。这也是首次对苏打水机、自动售水机、拭子和自来水的水质进行评估。这项题为"加利福尼亚州东科切拉山谷散装饮水机和快餐店饮用水的微生物污染分析"的研究上个月发表在国际水协会的同行评审期刊《供水》上。托马斯-希尔(ThomasHile)博士、理学硕士是伦敦语言大学的一名附属研究员,他正在实验室准备水样进行测试。他是最近发表的一项研究的主要作者,该研究发现快餐店的苏打水机存在微生物污染。资料来源:洛马琳达大学健康学院研究方法和结果研究人员从快餐店的苏打水机、自动售水机以及科切拉谷东部的室外自来水中收集了72份水样。他们在现场测量了理化参数,并将样本带回实验室进行常规培养方法和分子分析。对水样的分析表明存在生物膜--自然界中广泛存在的有组织的生物群落,在环境、工业和医疗环境中造成了严重的问题。在一些情况下,苏打水样本中的细菌数量超过了环境保护局规定的最高允许水平。作者在期刊文章中指出:"饮用水中存在病原微生物是一个严重的公共卫生问题,怎么强调都不为过。"生物膜与水污染根据研究结果,研究小组认为,生物膜会在输水系统中逐渐形成,该系统主要由塑料管道制成,将水输送到快餐店的苏打水机和自动售水机。此外,他们还表示,如果不对苏打水机的过滤系统进行维护,就无法有效防止水污染。东科切拉谷是一个环境正义地区,包括科切拉市和未并入的Thermal、Oasis、Mecca和NorthShore社区。这些社区主要是拉丁裔社区,由移民和农业工人家庭组成,他们为获得安全饮用水而挣扎。这项研究的最后一位作者、洛马琳达大学公共卫生学院和医学院副教授RyanSinclair博士说:"这项研究从服务不足的地区采集水样,这些地区通常没有对水质进行例行检查,苏打水机或自动售水机也缺乏维护。"他说,这项研究加强了制定针对快餐店苏打水机和自动售水机的监控和法规的重要性。他和研究报告的作者建议店主定期清洁和冲洗饮水机,并在饮水机内使用抗菌管来控制生物膜的生长。作者计划进行一项风险评估,以确定他们在水样中鉴定和量化的微生物水平是否会对健康造成危害或与任何健康状况有关。...PC版:https://www.cnbeta.com.tw/articles/soft/1386259.htm手机版:https://m.cnbeta.com.tw/view/1386259.htm

封面图片

顶级AI研究人员和CEO在22字声明中对"灭绝人类的风险"提出警告

顶级AI研究人员和CEO在22字声明中对"灭绝人类的风险"提出警告这份声明由位于旧金山的非营利组织人工智能安全中心发布,包括GoogleDeepMind首席执行官DemisHassabis和OpenAI首席执行官SamAltman以及GeoffreyHinton和YoushuaBengio在内的人物共同签署了这份声明--他们是因其在人工智能方面的工作而获得2018年图灵奖(有时被称为"计算界的诺贝尔奖")的三位人工智能研究人员中的两位。在撰写本报告时,今年的第三位获奖者、现任Facebook母公司Meta的首席人工智能科学家YannLeCun还没有签字。该声明是对人工智能安全的复杂和有争议的辩论的最新高调干预。今年早些时候,一封由许多支持22字警告的人签署的公开信,呼吁人工智能发展"暂停"6个月。这封信在多个层面受到了批评。一些专家认为它夸大了人工智能带来的风险,而另一些人同意风险,但不同意信中建议的补救措施。人工智能安全中心(CenterforAISafety)的执行董事丹-亨德利克斯(DanHendrycks)告诉《纽约时报》,今天声明的简洁性--没有提出任何潜在的方法来减轻人工智能带来的威胁--是为了避免这种分歧的产生。"我们不想推动一个非常大的30种潜在干预措施的菜单,"亨德利克斯说。"当这种情况发生时,它稀释了信息。"Hendrycks将这一信息描述为担心人工智能风险的行业人士的"出柜"。"有一个非常普遍的误解,甚至在人工智能界,认为只有少数的末日主义者,"亨德利克斯告诉《纽约时报》。"但是,事实上,许多人私下里会对这些事情表示担忧。"这场辩论的大体轮廓是熟悉的,但细节往往是无休止的,是基于人工智能系统迅速提高能力,并不再在安全可控运行下的假设情景。许多专家指出,像大型语言模型这样的系统的迅速改进,证明了未来智能的预期收益。他们说,一旦人工智能系统达到一定的复杂程度,可能会变得无法控制其行动。其他人则怀疑这些预测。他们指出,人工智能系统甚至无法处理相对平凡的任务,比如说,驾驶汽车。尽管在这一研究领域付出了多年的努力和数十亿的投资,但完全自动驾驶的汽车仍远未成为现实。怀疑论者说,如果人工智能连这一个挑战都处理不了,那么在未来几年,这项技术还有什么机会与人类的其他成就相媲美呢?同时,人工智能风险倡导者和怀疑论者都认为,即使不改进其能力,人工智能系统在今天也会带来一些威胁--从它们的使用导致大规模监视,到为错误的"预测性警务"算法提供动力,以及为制造错误信息和虚假信息提供便利。...PC版:https://www.cnbeta.com.tw/articles/soft/1362501.htm手机版:https://m.cnbeta.com.tw/view/1362501.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人