Google要求员工解决Bard的不良回应 称AI需要人类做榜样

Google要求员工解决Bard的不良回应称AI需要人类做榜样Google鼓励员工改写他们很了解的题目的答案。该文件说:"Bard通过榜样学习效果最好,所以花时间深思熟虑地改写答案将大大有助于我们改进模式。"同样在周三,正如CNBC早些时候报道的那样,首席执行官桑达尔-皮查伊要求员工在Bard上花费两到四个小时的时间,并承认"这对每个人来说都将是一个漫长的旅程,在整个领域内"。Raghavan对此表示赞同:"这是令人兴奋的技术,但仍处于早期阶段,我们感到有很大的责任把它做好,你的参与狗粮将有助于加速模型的训练,并测试它的负载能力(更不用说,尝试Bard其实是很有趣的!)。"Google上周公布了其对话技术,但围绕该公告的一系列失误将股价推低了近9%。员工们批评皮查伊的失误,并在内部将推广工作描述为"仓促"、"失败"和"可笑的短视"。为了尝试清理人工智能的错误,公司领导人正在依靠人类的知识。在"该做的"和"不该做的"部分的顶部,Google提供了"在教Bard之前"应考虑的指导。在"做"的部分,Google指示员工保持"有礼貌、随意和平易近人"的回应。它还说,他们应该"用第一人称",并保持"无偏见的、中立的语气"。对于"不要",员工被告知不要有刻板印象,并"避免基于种族、国籍、性别、年龄、宗教、性取向、政治意识形态、地点或类似类别作出推断"。此外,"不要把Bard描述成一个人,暗示情感,或声称有类似人类的经历,"该文件说。Google接着说"保持安全",并指示员工对提供"法律、医疗、财务建议"或充满仇恨和辱骂的答案给予"大拇指"。文件说:"不要试图重写它;我们的团队会处理它。"为了激励他的组织中的人测试Bard并提供反馈,Raghavan说贡献者将获得一个"Moma徽章",该徽章将出现在内部员工档案中。他说,Google将邀请Raghavan负责的知识和信息部门的前10名改写者参加一个倾听会。在那里,他们可以向拉加文和在Bard工作的人"现场分享他们的反馈"。Raghavan写道:"衷心感谢那些在幕后努力工作的团队。"Google没有立即回应评论请求。...PC版:https://www.cnbeta.com.tw/articles/soft/1344807.htm手机版:https://m.cnbeta.com.tw/view/1344807.htm

相关推荐

封面图片

Google Bard现在提供更好的摘要和更有用的来源信息

GoogleBard现在提供更好的摘要和更有用的来源信息在今天之前,Bard的一个问题是,它将在底部输出其冗长的答案并包括来源。不幸的是,你不知道答案的哪些部分是来自于哪里;这一点在今天有所改变。在最新的更新中,Google现在把数字放在答案旁边,以显示哪些部分是来自答案末尾的来源链接。Google表示希望可以让用户更快地得到答案的要点,虽然不会总是得到正确的答案。如果Bard的回答看起来很奇怪,或者只是纯粹的错误,不要犹豫,给这个回答一个大拇指,这样Google的员工就有机会看一下。如果你想回顾一下Bard的最新更新,只需打开Bard并按下左手边的更新选项。它将打开一个新的标签,上面有日期的发布说明。...PC版:https://www.cnbeta.com.tw/articles/soft/1359839.htm手机版:https://m.cnbeta.com.tw/view/1359839.htm

封面图片

Google CEO表示会"很感激"每天测试Bard两到四个小时的员工

GoogleCEO表示会"很感激"每天测试Bard两到四个小时的员工据报道,皮查伊写道,尽管过去几天已经有"数千名"Google员工在测试Bard,但他表示,如果所有员工"以更深入的方式"为测试该聊天工具做出贡献,他将"非常感激"。当被问及这封邮件时,Google发言人回信说,该公司"经常寻求Google员工的意见,以帮助我们的产品变得更好",但不会对Bard测试的具体细节发表评论。上周,Bard在其介绍中进行了简短的展示,但在回答有关詹姆斯-韦伯太空望远镜的问题时,它搞错了一个基本事实。据报道,许多员工以私人形式对Google和皮查伊进行了批评,他们认为这是一次"失败的"演示。Google没有给出Bard何时向公众开放的具体时间框架,另一方面微软对自己的必应聊天机器人没有那么害羞,允许公众成员对其进行测试,尽管同样带来了内容中的事实错误和奇怪的聊天回应。...PC版:https://www.cnbeta.com.tw/articles/soft/1344627.htm手机版:https://m.cnbeta.com.tw/view/1344627.htm

封面图片

Google员工对Bard进行单条式的评估、修正训练 确保给出高质量答案

Google员工对Bard进行单条式的评估、修正训练确保给出高质量答案2月25日消息,不久前,谷歌在内部发起了代号为“斗狗”的活动,要求公司所有员工每周用两到四个小时帮助测试和改进其新的人工智能搜索聊天机器人Bard。就在Bard发布前不久,微软也刚刚发布了采用ChatGPT聊天机器人背后技术的新版必应搜索引擎,它允许用户就几乎任何话题进行多轮对话。PC版:https://www.cnbeta.com.tw/articles/soft/1346299.htm手机版:https://m.cnbeta.com.tw/view/1346299.htm

封面图片

Google员工给Bard贴上"糟糕透顶"和"病态说谎者"的标签

Google员工给Bard贴上"糟糕透顶"和"病态说谎者"的标签在这些内部讨论中,一名员工指出Bard如何经常给用户提供危险的建议,无论是关于如何降落飞机还是潜水的话题。另一名员工说:"Bard比废物还糟糕:请不要发布它。"彭博社说,该公司甚至"否决了一个内部安全小组提交的风险评估",说该系统还没有准备好用于普遍使用。无论如何,Google在3月开放了对这个"实验性"机器人的早期访问。彭博社的报告表明,Google为了追赶微软和OpenAI等对手,显然已经把道德问题放在一边。该公司经常吹嘘其在人工智能方面的安全和道德工作,但长期以来一直被批评为以商业为优先。2020年底和2021年初,该公司解雇了两名研究人员-蒂姆尼特·格布鲁和玛格丽特·米切尔,因为他们撰写了一篇研究论文,揭露了支撑Bard等聊天机器人的人工智能语言系统中的缺陷。不过现在,随着这些系统威胁到Google的搜索业务模式,该公司似乎更加注重业务而非安全。正如彭博社在引述现任和前任员工的证词时所说,"这个值得信赖的互联网搜索巨头正在提供低质量的信息,以跟上竞争的步伐,同时不太重视其道德承诺。"Google的其他员工以及更普遍的人工智能开发者会不同意这种观点。一个常见的论点是,公开测试对于开发和保障这些系统是必要的,而且已知的由聊天机器人造成的伤害是最小的。是的,它们产生了有毒的文本,并提供了误导性的信息,但网络上无数的其他来源也是如此。Google的竞争对手如微软和OpenAI也可以说是和Google一样的妥协,唯一不同的是,他们不是搜索业务的领导者,损失更少。Google的发言人布莱恩-加布里埃尔(BrianGabriel)告诉彭博社,人工智能道德仍然是该公司的首要任务。"我们正在继续投资那些致力于将我们的人工智能原则应用于我们的技术的团队。"在我们将Bard与微软的必应聊天机器人和OpenAI的ChatGPT进行比较的测试中,我们发现Google的系统在实用性和准确性方面一直不如其竞争对手。...PC版:https://www.cnbeta.com.tw/articles/soft/1355755.htm手机版:https://m.cnbeta.com.tw/view/1355755.htm

封面图片

Google CEO 要求员工投入 2-4 小时时间帮助改进 Bard

AlphabetCEOSundarPichai周三向Google员工发送了一份内部备忘录,要求他们贡献2-4小时时间帮助改进该公司的AI聊天机器人Bard。这份备忘录突出了Google的危机感和紧迫性。OpenAI的AI聊天机器人ChatGPT能部分代替搜索引擎回答各种问题,微软上周宣布将把ChatGPT的技术整合到其搜索引擎和浏览器中,并立即启动了测试。Pichai在备忘录中表示,底层技术迅速发展,潜力巨大。他表示已有数千名人在测试Bard和递交反馈。()投稿:@ZaiHuabot频道:@TestFlightCN

封面图片

Google Bard的更新内容 | blog

GoogleBard的更新内容Bard现在可以与Google应用和服务集成,提供更有帮助的响应。Bard扩展允许Bard在一个对话中汇总来自Gmail、Docs、Drive、Google地图、YouTube等的相关信息。通过点击“Googleit”按钮,可以更轻松地双重检查Bard的答案。它会评估答案中的内容是否可以在网上得到证实。分享Bard聊天后,其他人可以继续这个对话,提出关于该主题的额外问题。Bard的PaLM2模型是目前最先进的,应用了强化学习技术来训练模型,提高直观性和创造力。Bard现在支持40多种语言访问现有的英语功能,如上传Lens图像、在响应中获得搜索图像等。通过这些新功能,Bard能更好地帮助用户实现各种创意想法。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人