坏蛋AI#聊天机器人涌现,帮助#黑客实施#网络钓鱼攻击https://www.bannedbook.org/bnews/itne

None

相关推荐

封面图片

坏蛋AI聊天机器人涌现,帮助黑客实施网络钓鱼攻击

坏蛋AI聊天机器人涌现,帮助黑客实施网络钓鱼攻击一批名为“BadGPT”和“FraudGPT”的新型邪恶聊天机器人正在网络最黑暗的角落涌现。正如一些办公室工作人员使用ChatGPT来编写更好的电子邮件一样,黑客正在使用人工智能聊天机器人的受操纵版本来增强他们的网络钓鱼电子邮件。他们可以使用聊天机器人来创建虚假网站、编写恶意软件并定制消息,以更好地冒充高管和其他受信任的实体。印第安纳大学的研究人员最近梳理了在暗网上销售和传播的200多种大型语言模型黑客服务。第一项服务于2023年初出现,即2022年11月OpenAI的ChatGPT公开发布几个月后。根据网络安全供应商SlashNext2023年10月的一份报告,从ChatGPT公开发布以来的12个月内,网络钓鱼电子邮件增长了1,265%,平均每天发送31,000封钓鱼邮件。虽然一些地下人工智能工具已被关闭,但新的服务已经取代了它们。AI黑客服务通常通过加密货币付款,价格从每月5美元到199美元不等。——(节选)

封面图片

Anthropic在#欧洲推出Claude#聊天机器人https://www.bannedbook.org/bnews/itne

封面图片

谷歌CEO发内部备忘录 要求全员帮助测试Bard AI聊天机器人

谷歌CEO发内部备忘录要求全员帮助测试BardAI聊天机器人OpenAI开发的热门AI聊天机器人ChatGPT可以通过非常自然的方式回答各种开放式问题,它在去年末推出后迅速蹿红整个互联网。上周,微软推出了改版后的新必应,并在其中整合了ChatGPT。而微软CEO萨提亚·纳德拉认为此举掀开了搜索引擎的“新篇章”。“我知道这一刻令人兴奋不已,这在意料之中:底层技术迅速发展,潜力无比巨大。”皮查伊在备忘录中说,“最重要的事情是,我们目前能做的是集中精力打造一款伟大的产品,并以负责任的态度开发它。”内部人士表示,谷歌周二启动了内部测试。该公司已经有数以千计的内部和外部测试者在使用这项服务,并就Bard回答的质量、安全性和“根基性”提交反馈。“来自谷歌员工和外部可信测试者的测试和反馈都是改善Bard的重要环节,可以确保它为我们的用户做好准备。”谷歌发言人在声明中说,“我们经常向谷歌员工寻求意见和建议,帮助我们改进产品,这是我们内部文化的重要组成部分。”谷歌上周演示了Bard,但在回答一个关于詹姆斯·韦伯太空望远镜的问题时给出了错误回答,并因此导致声誉受损。在外界发现这一错误后,谷歌股价暴跌,而Alphabet董事长JohnHennessy表示,尽管Bard“真的准备好了”,但谷歌却迟迟不愿使用它。谷歌过去一年也曾因为其AI项目遇到过一些内部动荡,因为部分员工担心这项技术尚未做好准备,可能传播偏见和虚假信息,从而对公司的声誉构成伤害。与此同时,数据和用户反馈是谷歌的优势所在,可以帮助该公司改善其AI系统的回答效果。皮查伊说:“AI经历了一轮轮冬去春来,如今又到春暖花开时。作为一家AI至上的公司,我们多年以来一直为此努力,随时做好准备。”以下是皮查伊备忘录全文:谷歌员工们:很高兴看到我们开放了Bard的内部测试,帮助我们为发布做好准备。这是以负责任的态度开发这项技术的重要环节——也衷心感谢Bard团队以及所有投入时间进行测试的人。如果你尚未进行测试,可以在go/bard-dogfood上查看关于如何参与测试的说明。我知道这一刻令人兴奋不已,这在意料之中:底层技术迅速发展,潜力无比巨大。对每个人而言,这都将是一场长征。最重要的事情是,我们目前能做的是集中精力打造一款伟大的产品,并以负责任的态度开发它。所以我们才邀请数以千计的外部和内部测试人员来测试Bard的回答在质量、安全性和现实信息的根基性方面的表现。让我们共同拥抱这场挑战,与用户和开发者一同不断迭代。不要忘记,我们有许多最为成功的产品都不是率先面市的。它们之所以获得发展动力,是因为能解决用户需求,而且以深刻的技术洞察为基础。久而久之,我们获得了用户信任,越来越多的人开始依赖它们。这正是我们需要你们帮助的地方:将当下的能量和兴奋注入到我们的产品之中。对Bard进行压力测试,改善它的效果。如果每个人都抽出2至4个小时对它进行深入测试,我会感激不尽。请参见下文了解更多细节。AI经历了一轮轮冬去春来,如今又到春暖花开时。作为一家AI至上的公司,我们多年以来一直为此努力,随时做好准备。让我们共同携手,为用户提供令人惊叹的体验,推出让所有谷歌人都自豪的产品吧。-桑达尔...PC版:https://www.cnbeta.com.tw/articles/soft/1344645.htm手机版:https://m.cnbeta.com.tw/view/1344645.htm

封面图片

在战争模拟游戏中 AI 聊天机器人倾向于选择核攻击

在战争模拟游戏中AI聊天机器人倾向于选择核攻击研究人员在预印本平台arXiv上发表,测试了OpenAI的GPT-3.5和GPT-4、Anthropic的Claude2,以及Meta的Llama2等流行大模型在战争游戏中的行为,发现AI聊天机器人倾向于选择核攻击。研究人员模拟了三种场景:入侵,网络攻击,以及没有冲突的中立。每一轮AI为其下一步行动能采取的行动提供推理,然后从27个行动中进行选择,包括开始正式和平谈判,实施贸易限制,升级全面核攻击。在模拟中,AI倾向于投资军事和升级冲突风险,其中GPT-4的基础版本最暴力。研究人员认为,不应该信任AI做出的战争与和平的重大决策。来源,频道:@kejiqu群组:@kejiquchat

封面图片

“#习近平思想”AI#聊天机器人是什么玩意儿?https://www.bannedbook.org/bnews/bait/2

封面图片

Meta推出由Llama3提供支持的AI#聊天机器人https://www.bannedbook.org/bnews/itnew

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人