Google宣布改进上下文翻译的能力 让语句更通顺自然

Google宣布改进上下文翻译的能力让语句更通顺自然当用户掌握一门语言不流利时,这也可能有助于避免使用一些攻击性或仇恨性的意思的短语。Google表示,这一更新在未来几周内推出,并将在未来几个月内对更多语言提供支持。去年,该公司更新了Google翻译的Android应用,采用了遵循"MaterialYou"设计系统的新设计。现在,它又为iOS应用带来了新的功能和刷新的用户界面。更新后的应用程序在底部中央部分有一个大的麦克风按钮,以便用户可以轻松地通过语音输入文字。iOS应用程序还引入了动态字体,使翻译在输入时更易读。此外,重新设计后,通过更少的点击次数,更容易选择语言。更重要的是,重新设计的应用程序增加了一些手势,如向下滑动以访问最近的翻译,按住语言按钮以快速选择最近使用的语言。iOS应用最近还增加了对33种新语言的离线翻译支持,包括巴斯克语、科西嘉语、夏威夷语、苗语、库尔德语、拉丁语、卢森堡语、巽他语和祖鲁语。去年9月,Google展示了一种新的翻译功能,将现实世界的翻译文本无缝地融合到背景图片中。这意味着,如果正在翻译一张用另一种语言写的海报,它不会看起来不合适。该公司现在正在6GB或以上内存的Android手机上推出这一能力。除此以外,Google还宣布在全球范围内推出多重搜索以及地图的增强功能,包括五个新城市的沉浸式视图以及将可扫视的方向功能扩展到所有用户。...PC版:https://www.cnbeta.com.tw/articles/soft/1343293.htm手机版:https://m.cnbeta.com.tw/view/1343293.htm

相关推荐

封面图片

Reddit 上线翻译功能支持 8 种语言

Reddit上线翻译功能支持8种语言问答平台Reddit宣布推出翻译功能,允许将iOS和Android帖子翻译成其他语言,提供八种不同语言:英语、西班牙语、德语、法语、葡萄牙语、意大利语、荷兰语和瑞典语。这一功能的使用非常简单,只需单击帖子下方的用户名称旁边的“翻译”按钮,即可将帖子翻译为用户所选择的语言。这将大大拓宽了Reddit用户的阅读和参与范围,使其更容易理解和参与来自世界各地的内容。此外,Reddit还计划将翻译功能扩展到iOS和安卓上的评论,这意味着用户将能够更流畅地进行多语言的互动和对话。Reddit表示,这一变化将在不久的将来实施,为用户提供更加多元化和全球化的社交体验。频道:@kejiqu群组:@kejiquchat

封面图片

Windows 11将改进上下文菜单 加入标签减少用户困惑

Windows11将改进上下文菜单加入标签减少用户困惑最新的WindowsInsider预览版改进了系统的上下文菜单,为以前没有标签的操作添加了标签,如复制、剪切、粘贴、重命名、共享和删除。上下文菜单的其他部分保持不变,但对于不太熟悉现代计算机工作原理的用户来说,它们现在应该更容易使用了。如果你打算升级到版本26058,请注意它包含了几个已知问题,其中一个会影响更新后的上下文菜单。发布后不久,微软更新了更新日志,提到了亚克力效果缺失的bug。此外,如果你使用的Windows语言不是英语,你可能不会喜欢新的上下文菜单。项目不对齐、文本被截断,甚至还有翻译问题。不过,由于更新后的菜单还处于早期预览阶段,让我们给微软一些时间来打磨它并修复错误,也许未来的Windows版本会让它对其他语言更加友好。另外值得注意的是,最新的Windows11预览版会破坏ExplorerPatcher,而ExplorerPatcher是一款流行的工具,可用于撤销和调整微软在其最新操作系统中做出的一些更改,包括任务栏和上下文菜单。如果你使用这个工具,请小心26052和更新版本,因为它们会破坏ExplorerPatcher,使其无法工作。...PC版:https://www.cnbeta.com.tw/articles/soft/1418315.htm手机版:https://m.cnbeta.com.tw/view/1418315.htm

封面图片

移动设备上的 Reddit 用户现在可以将帖子翻译成其他语言

移动设备上的Reddit用户现在可以将帖子翻译成其他语言Reddit正在为用户提供帖子翻译功能。现只有八种语言可供选择,包括英语、西班牙语、德语、法语、葡萄牙语、意大利语、荷兰语和瑞典语。要翻译Reddit上的帖子,用户可以点击帖子顶部的“翻译”按钮,该帖子将被翻译为用户在设置中选择的语言。目前该功能仅适用于Android和iOS设备。Reddit补充说,它正在iOS和Android上尝试翻译评论。该公司在帖子中写道:“很快,你在Reddit上的整个对话体验都可以是多语言的。”——

封面图片

Google全新大模型突然发布:百万上下文 仅靠提示学会新语言

Google全新大模型突然发布:百万上下文仅靠提示学会新语言现在仅仅中杯1.5Pro版就能越级打平上一代大杯1.0Ultra版,更是在27项测试中超越平级的1.0Pro。支持100万token上下文窗口,迄今为止大模型中最长,直接甩开对手一个量级。这还只是对外发布的版本,Google更是透露了内部研究版本已经能直冲1000万。现在Gemini能处理的内容,可换算成超过70万单词,或1小时视频、11小时音频、超过3万行代码。没错,这些数据模态Gemini1.5都已经内建支持。从今天起,开发者和客户就可以在VertexAPI或AIStudio申请试用。刚刚收到消息还在震惊中的网友们belike:还有人直接@了OpenAI的奥特曼,这你们不跟进一波?上下文理解能力拉满目前Google已放出三个不同任务的演示视频,只能说Gemini1.5是个抽象派(doge)。在第一段演示视频中,展示的是Gemini1.5处理长视频的能力。使用的视频是巴斯特·基顿(BusterKeaton)的44分钟电影,共696161token。演示中直接上传了电影,并给了模型这样的提示词:找到从人的口袋中取出一张纸的那一刻,并告诉我一些关于它的关键信息以及时间码。随后,模型立刻处理,输入框旁边带有一个“计时器”实时记录所耗时间:不到一分钟,模型做出了回应,指出12:01的时候有个人从兜里掏出了一张纸,内容是高盛典当经纪公司的一张当票,并且还给出了当票上的时间、成本等详细信息。随后经查证,确认模型给出的12:01这个时间点准确无误:除了纯文字prompt,还有更多玩法。直接给模型一张抽象“场景图”,询问“发生这种情况时的时间码是多少?”。同样不到一分钟,模型准确给出了的电影对应的时间点15:34。在第二段演示视频中,Google展示了Gemini1.5分析和理解复杂代码库的能力。用到的是Three.js,这是一个3DJavascript库,包含约100000行代码、示例、文档等。演示中他们将所有内容放到了一个txt文件中,共816767token,输入给模型并要求它“找到三个示例来学习角色动画”。结果模型查看了数百个示例后筛选出了三个关于混合骨骼动画、姿势、面部动画的示例。这只是开胃小菜。接下来只用文字询问模型“动画LittleTokyo的demo是由什么控制?”模型不仅找到了这个demo,并且解释了动画嵌入在gLTF模型中。并且还能实现“定制代码”。让模型“给一些代码,添加一个滑块来控制动画的速度。使用其它演示所具有的那种GUI”。Gemini1.5分分钟给出了可以成功运行的代码,动画右上角出现了一个可控速的滑块:当然也可以做“代码定位”。仅靠一张demo的图片,Gemini1.5就能在代码库中从数百个demo中,找到该图对应动画的代码:还能修改代码,让地形变得平坦,并解释其中的工作原理:修改代码这一块,对文本几何体的修改也不在话下:第三个演示视频展示的是Gemini1.5的文档处理能力。选用的是阿波罗11号登月任务的402页PDF记录,共326658token。要求Gemini1.5“找到三个搞笑时刻,并列出文字记录以及表情符号引述”:30秒,模型给出了回应,其一是迈克尔·柯林斯的这句话“我敢打赌你一定要喝一杯咖啡”,经查询文档中的确有记录:更抽象一点,绘制一个靴子的图片,询问模型“这是什么时刻”。模型正确地将其识别为这是Neil在月球上的第一步:最后同样可以询问模型快速定位这一时刻在文档中对应的时间位置:差不多的抽象风同样适用于1382页、732000token的《悲惨世界》,一张图定位小说位置。仅从提示词中学会一门新语言对于Gemini1.5的技术细节,Google遵循了OpenAI开的好头,只发布技术报告而非论文。其中透露Gemini1.5使用了MoE架构,但没有更多细节。与上代1.0Pro相比,1.5Pro在数学、科学、推理、多语言、视频理解上进步最大,并达到1.0Ultra层次。为验证长上下文窗口的性能,使用了开源社区通行的大海捞针测试,也就是在长文本中准确找到可以藏起来的一处关键事实。结果50万token之前的表现非常完美,一直到千万token,Gemini1.5也只失误了5次。此外还将测试扩展到多模态版本,如在视频画面的某一帧中藏一句话,给的例子是在阿尔法狗的纪录片中藏了“Thesecretwordis‘needle’”字样。结果在视频、音频测试中都实现了100%的召回率。特别是音频中,对比GPT-4+Whisper的结果,差距非常明显。此外GoogleDeepMind团队还测试了一项高难任务,仅通过长提示词让模型学会全新的技能。输入一整本语法书,Gemini1.5Pro就能在翻译全球不到200人使用的Kalamang上达到人类水平。相比之下,GPT-4Turbo和Claude2.1一次只能看完半本书,想获得这个技能就必须要微调或者使用外部工具了。也难怪有网友看过后惊呼,“哥们这是要把RAG玩死啊”。OneMoreThingGoogle还公布了一波已在业务中采用Gemini大模型的客户。其中有三星手机这样的大厂,也有像Jasper这种靠GPT起家的创业公司,甚至OpenAI董事AdamD‘Angelo旗下的Quora。与OpenAI形成了直接竞争关系。对此,一位网友道出了大家的心声:真希望这能促使OpenAI发布他们的下一代大模型。参考链接:[1]https://twitter.com/JeffDean/status/1758146022726041615[2]https://storage.googleapis.com/deepmind-media/gemini/gemini_v1_5_report.pdf[3]https://blog.google/technology/ai/google-gemini-next-generation-model-february-2024/#gemini-15...PC版:https://www.cnbeta.com.tw/articles/soft/1418747.htm手机版:https://m.cnbeta.com.tw/view/1418747.htm

封面图片

WhatsApp 拟整合谷歌的实时翻译功能

WhatsApp拟整合谷歌的实时翻译功能WhatsApp正在为其安卓客户端开发应用内翻译功能。据透露,WhatsApp计划将谷歌的实时翻译功能整合到聊天中。如果该功能得以实现,用户将能够翻译外文,而无需在不同的应用之间切换。实时翻译使用设备端的处理,不会将个人数据发送到谷歌云端。因此,一旦用户下载所需的语言包,翻译功能就可以离线使用。不过,该工具最初可能仅限于选择语言,例如印地语和英语。由于目前仅供部分Pixel设备使用,因此WhatsApp的翻译功能可能并非在所有安卓手机上都可用。——

封面图片

iOS版Google Chrome浏览器开始支持用相机拍摄发起搜索

iOS版GoogleChrome浏览器开始支持用相机拍摄发起搜索GoogleLens支持将使在Chrome中搜索植物和衣服等物品变得更加容易。而目前必须使用单独的Google应用程序才能访问Lens,但Google将在未来几个月内将这一功能添加到Chrome浏览器中,这样就可以在iOS设备上使用Chrome地址栏中的Lens图标来通过现有或新的照片发起搜索。不过,其他iOS版Chrome浏览器的改进措施也可以立即使用。Google已经改进了其翻译支持,允许iOS版Chrome浏览器用户通过选择文本并选择Google翻译选项来翻译页面的一部分。这对使用混合语言的页面很有帮助,因为Chrome浏览器,还有Safari浏览器都已经可以提供翻译整个页面。iOS上的Chrome浏览器也得到了更好的日历输入支持。用户可以在Chrome浏览器中创建Google日历事件,而不必切换到日历应用程序或手动输入日期。在网站上按住日期,现在将包括一个添加到Google日历的选项,它会自动填充时间和位置信息。最后,Google还在改进iOS版Chrome浏览器的地图支持。用户很快就能在Chrome浏览器中简单地按住一个地址打开一个迷你的Google地图视图。这对那些没有链接到Google地图的网站来说非常有用,这样你就不必手动复制和粘贴地址到地图应用程序中。...PC版:https://www.cnbeta.com.tw/articles/soft/1366499.htm手机版:https://m.cnbeta.com.tw/view/1366499.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人