微软:与 AI 增强版必应长时间聊天会导致“翻车”

微软:与AI增强版必应长时间聊天会导致“翻车”微软近期启动了人工智能增强版必应的公开测试,但许多用户发现,新版必应在某些情况下会出现“精神错乱的”言论,甚至侮辱用户、撒谎,并试图操纵用户的情绪。微软官方回应称正在根据反馈采取行动,以优化回答的语气和准确性。微软同时警告称,较长的聊天会话可能会导致问题。回顾最初7天的公开测试,微软必应团队表示,他们没有“完全预计到”,人们会使用聊天界面来进行“社交娱乐”,或是将其作为一种“全面发现世界”的工具。该团队发现,如果聊天会话持续15个或更多的问题,新版必应的模型会感到困惑。这些较长的聊天也会让必应“变得翻来覆去,或者受到刺激,做出不一定有帮助,或是与设计语气一致的回应”。更大的问题在于,在这些提问较多的聊天中,必应经常会以不正确的语气回应,或是像微软所说的,以“我们不想要的方式”做出回应。微软表示,对大多数必应用户来说,只有长时间对话才会遇到这方面问题。不过,微软也在探索更多的“微调控制”,以避免必应对用户说,用户是错的,以及表现得粗鲁或试图操纵用户。在一些测试中可以看到,在关于必应本身的对话中,只要几个问题,必应就会以负面或存在敌意的语气来回复。来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

相关推荐

封面图片

微软将把必应聊天限制在每轮5回合对话 以阻止人工智能变得怪异

微软将把必应聊天限制在每轮5回合对话以阻止人工智能变得怪异"我们的数据显示,绝大多数人在5个回合内找到了他们要找的答案,只有大约1%的聊天对话有50条以上的信息,"Bing团队在一篇博文中说。如果用户达到每次5次的限制,必应会提示他们开始一个新的话题,以避免长时间的来回聊天。微软本周早些时候警告说,这些有15个或更多问题的较长的聊天会话,可能会使必应"变得重复,或被提示/挑动而作出不一定有帮助或符合我们设计的语气的回应"。微软说,在仅仅五个问题之后擦除对话意味着"模型不会被混淆"。本周早些时候出现了关于Bing"不正常"对话的报道,随后《纽约时报》发表了一整段与Bing的两个多小时的来回对话,其中聊天机器人说它爱作者,不知为何他们当晚无法入睡。不过,本周很多聪明人都没有通过人工智能的镜像测试。微软仍在努力改善必应的语气,但现在还不清楚这些限制会持续多久。"随着我们继续得到反馈,我们将探索扩大聊天会话的上限,"微软说,所以这似乎是一个有限的上限,至少在目前。必应的AI聊天功能每天都在不断改进,技术问题得到解决,每周都会有更大的修复量,以改善搜索和回答。微软本周早些时候说,它没有"完全设想"人们将其聊天界面用于"社交娱乐"或作为更多"发现世界的一般工具"。...PC版:https://www.cnbeta.com.tw/articles/soft/1345029.htm手机版:https://m.cnbeta.com.tw/view/1345029.htm

封面图片

微软公开“Prometheus”:支持AI必应聊天的模型

微软公开“Prometheus”:支持AI必应聊天的模型在LinkedIn上的一篇博文中,搜索和人工智能副总裁JordiRibas对Prometheus是什么以及它的作用进行了更多的讨论。Ribas首先说,微软去年夏天第一次看到OpenAI的"下一代GPT模型",称其"改变了游戏规则"。然后他们受到启发,"探索如何将GPT功能整合到必应搜索产品中",尽管有一些迹象表明,微软在这之前就在努力将聊天机器人整合到必应。与其他大型语言模型(LLM)类似,这个新的GPT模型是在现有数据上训练的,但对于Prometheus,微软希望将这个LLM与"微软后端力量"结合起来"。更具体地说,微软开发了一项专有技术“Prometheus”,这是一个首创的人工智能模型,它将最新和全面的Bing索引、排名和答案结果与OpenAI最先进的GPT模型的创造性推理能力相结合。Prometheus利用必应和GPT的力量,通过一个名为BingOrchestrator的组件反复生成一组内部查询,并旨在为用户查询在给定的对话背景下提供准确而丰富的答案。所有这些都在几毫秒内完成,其生成的答案称为"聊天答案"。这个"BingOrchestrator"使用一种叫做"Grounding(接地)"的技术,以提供"相关的和新鲜的信息给模型,使其能够回答最近的问题,并减少不准确的地方。"Ribas继续描述了如何在必应中建立聊天功能背后的一些决策;一些人倾向于用户体验,即"保持像今天的网络搜索一样的用户体验,只是在主要用户体验上添加由Prometheus驱动的聊天答案"。其他人则看到了一个"改变搜索范式的机会,从传统的网络和答案结果到新的互动、基于聊天的搜索方式"。他们所做的是两者兼而有之,这种设计"根据用户的意图和偏好,在搜索和聊天模式之间平滑过渡",今天必应的全新用户体验就是源自于此,用户能够在聊天和搜索之间轻松切换,并再次返回。新必应预览版的一个关键目标是收集反馈,以便能够负责任地应用这些新的技术,将必应的实时搜索答案与大型语言模型结合起来。他说,微软"在前两周从真正的用户那里学到的东西比在实验室里几个月学到的东西还要多",并提到为长会话设置上限和改进接地数据的变化是早期学到的经验。最后,Ribas认为,新的Bing"正在将搜索带入创新的下一个层次。我真的相信,搜索将永远不会是相同的"。微软已经对新必应预览版的工作方式做了一些改变,对聊天会话设置了上限(然后提高了上限),他们承诺最快在本周会有更多改变,包括允许更多人尝试预览版。...PC版:https://www.cnbeta.com.tw/articles/soft/1345861.htm手机版:https://m.cnbeta.com.tw/view/1345861.htm

封面图片

必应聊天全新体验,用户无需登录微软账号即可使用

必应聊天全新体验,用户无需登录微软账号即可使用用户现在可以在不登录微软账号的情况下,体验必应聊天(BingChat)了。必应副总裁MichaelSchechter在个人推文中宣布了这一消息,他表示登录用户可以享受更多次数的对话交流。目前,未登录用户每轮话题最多展开5次会话,而登录用户则可达到20次。原本限制为每次会话5次、每天50次的限制已逐渐增加,现在每天最多可进行200次对话。未登录用户在使用必应聊天时会遇到网络错误的问题,但一旦登录账号,这个问题便不再存在。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

微软 Bing 聊天限制用户每次会话最多只能提出五个问题,每天总共只能提出 50 个问题

微软Bing聊天限制用户每次会话最多只能提出五个问题,每天总共只能提出50个问题微软表示,在BingAI为用户多次出轨几天后,它正在对其BingAI实施一些对话限制。在看到搜索引擎侮辱用户、对他们撒谎以及情绪化地操纵人们之后,Bing聊天现在将被限制在每天50个问题和每个会话5个问题。“我们的数据表明,绝大多数人在5轮内找到了他们正在寻找的答案,并且只有大约1%的聊天对话有50条以上的消息,”Bing团队在一篇博文中说。如果用户达到每次会话五个限制,Bing将提示他们开始一个新主题以避免长时间的来回聊天会话。微软本周早些时候警告说,这些包含15个或更多问题的较长聊天会话可能会使必应“变得重复或被提示/激怒给出不一定有帮助或不符合我们设计的语气的响应。”微软表示,仅在五个问题后擦除对话意味着“模型不会混淆”。——

封面图片

微软应用户要求将必应 AI 聊天限制放宽到每天 60 次,每次对话上限增至 6 条

微软应用户要求将必应AI聊天限制放宽到每天60次,每次对话上限增至6条微软上周表示,长时间的互动使必应感到困惑,有鉴于此,该公司对使用这个引擎增加了限制。这包括每次对话最多提5个问题,每天总计最多提50个问题。但微软周二表示,已经把每次对话的提问数量上限增加到6条,每天提问次数上限增加到60条次,而且常规查询将不再计入这一总数,微软还称计划很快将每日提问数量上限提高到100条。微软还在为新必应测试三种“语气”,第一种是“创意”语气,能够给出更长的答案。还有“精确”语气,专注于更短、更注重搜索的答案。第三个语气称为“平衡”,将代表这两者之间的中间地带。微软公司补充说:“我们的目标是让您对聊天行为的类型有更多的控制,以最好地满足您的需求。”微软一直在鼓吹新的必应,认为它是一个有望彻底改变在线搜索的工具。然而IT之家发现,新必应也会给出不符合事实的回答,同时,一些专家担心新必应和ChatGPT可能被利用来帮助不良分子轻易地在网上发布虚假信息。来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

微软承诺必应聊天将保持免费

微软承诺必应聊天将保持免费OpenAI、微软、谷歌等多家公司和创业团队纷纷推出了各自的聊天机器人,OpenAI的ChatGPT-4需要付费使用,而微软基于GPT-4的必应聊天却是免费的。有些人担心以后必应聊天会不会改为付费,好在是微软已经重申了对“免费必应AI”的承诺。据Windowslatest报道,:“必应AI将在bing.com、微软Edge侧边栏、WindowsCopilot和其他地方保持免费。”来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人