百度飞桨发布了一款 NLP 全流程自动化开发平台,用户只需进行简单拖拉拽,无需编写任何算法与代码,即可实现诸多 NLP 应用落地

百度飞桨发布了一款 NLP 全流程自动化开发平台,用户只需进行简单拖拉拽,无需编写任何算法与代码,即可实现诸多 NLP 应用落地。 其中包括文本分类、文本创作、情感倾向分析、短文本相似度匹配、实体抽取、实体关系抽取、评论观点抽取等任务类型。 近日,该平台已将底层「文心大模型 ERNIE」升级至 3.0,新增了海量中文数据知识储备、小样本快捷训练、任务效果平均提升至90%以上、多场景创作等特性。 针对此项目,开发者们将在本周开放一场公开课,主要讲解 NLP 应用开发的常见问题及解决方案,产业应用落地实现, NLP 项目实战等内容,感兴趣的同学可以参与一下。 ||| #NLP 直播时间: 本周四,晚上 20:00

相关推荐

封面图片

百度技术团队在开源了一个 #NLP 工具包:

百度技术团队在开源了一个 #NLP 工具包: 具备易用的文本领域 API, 多场景的应用示例、和高性能分布式训练三大特点,旨在提升开发者在文本领域的开发效率,并提供丰富的 NLP 应用示例。 对该开源项目有兴趣的同学,可参加他们在本周的几场公开课,主要讲解多场景 NLP 任务流设计、快速提升模型效果、机器翻译项目实践等内容。

封面图片

OpenAI CTO深度访谈 剧透GPT-5发布时间

OpenAI CTO深度访谈 剧透GPT-5发布时间 OpenAI CTO 穆拉提分享OpenAI近况与AI行业动向。穆拉提在达特茅斯学院(图源:达特茅斯学院)在这场访谈中,穆拉提分享了自己从航天行业、汽车行业、VR/AR再到加入OpenAI的丰富职业生涯,并根据自己在行业最前沿的所见所闻,分析了AI治理、AI对教育的影响、AI对工作的影响等问题。她在访谈中透露,明年或后年就会出现博士水平的智能系统,这或许指的就是GPT-5。她更是抛出一个极具争议性的观点,有些创意工作本不该存在,而AI很快便会取代这些职位。这一观点在网上引发轩然大波,认为OpenAI吃了饭就砸锅,并不理解创造力意味着什么。穆拉提认为OpenAI的成就离不开深度神经网络、大量数据和大量算力这3个因素的叠加,虽然他们还在研究背后的原理,但实践证明深度学习真的行得通。她称AI安全和AI能力是一体两面的,聪明的模型才能理解我们给它设定的护栏。从工程的角度上来看,AI能力的提升并不会降低模型的安全性。OpenAI对模型的安全性负有很大责任,但要实现风险的有效管控,社会和政府的参与也是必不可少的。OpenAI正积极与政府和监管机构合作,共同解决AI安全问题。在场的观众也向穆拉提抛出了尖锐的问题。穆拉提在回应观众对于模型价值观的问题时提到,OpenAI目前已经通过人类反馈强化学习将人类价值观融入AI系统,但未来的重点会是在基础价值体系上,给客户提供高度定制化的模型价值体系。观众还就OpenAI最近的侵权疑云和内容创作者的许可和补偿问题询问穆拉提的看法。穆拉提再次强调OpenAI并未刻意模仿斯嘉丽的声音,她挑选声音的决策过程是完全独立的。至于版权内容,OpenAI目前在尝试以聚合数据池的形式,让创作者提供版权内容到数据池中,整体评估创意内容对模型表现的贡献,并给予相应的报酬。但这一技术颇具难度,实际落地还需要一段时间。与OpenAI CEO萨姆·阿尔特曼(Sam Altman)不同,穆拉提之前的公众认知度较低。她在1998年出生于阿尔巴尼亚,之后到加拿大和美国求学。她2018年便加入OpenAI,是OpenAI的早期成员之一。作为OpenAI的CTO,她领导了OpenAI在ChatGPT、DALL·E、Codex和Sora方面的工作,同时还监管公司的研究、产品和安全团队。微软首席执行官萨蒂亚·纳德拉(Satya Nadella)评价穆拉提时说到,她既具备技术专长,也颇有商业头脑,并对OpenAI的使命有深刻认识。以下是对穆拉提在达特茅斯学院深度访谈的完整编译(为提高可读性,智东西调整了部分问答的顺序,并在不违背原意的前提下进行了一定的增删修改):01.干过航天、汽车、VR/AR等行业,发现自己对AI最感兴趣杰弗里·布莱克本:大家都想听听你的近况和你正在构建的东西,这真是太吸引人了。不过也许我们应该从你的故事开始。你毕业后去了特斯拉一段时间,然后是OpenAI。你能简短地和我们描述一下那个时期吗,还有你加入早期的OpenAI的故事。米拉·穆拉提:我大学毕业之后其实在航空领域短暂工作过,但之后我意识到航空领域的发展相当缓慢。我对特斯拉的使命非常感兴趣,也对构建可持续交通的未来需要面临的创新挑战感兴趣,因此我决定加入特斯拉。在参与Model S和Model X的工作后,我意识到自己也不想在汽车行业工作。我想要做一些能真正推动社会发展的事情,同时解决一些非常困难的工程挑战。我在特斯拉的时候对自动驾驶汽车、计算机视觉、AI这些技术和它们在自动驾驶汽车上的应用很感兴趣。我那时候想更深入地了解AI的其它领域。于是我加入了一家初创公司,在那里领导工程和产品团队,将AI和计算机视觉应用于空间计算领域,研究计算的下一个界面。当时我认为计算的交互界面会是VR和AR,但现在我的想法不一样了。那时候我认为,如果我们可以用手与非常复杂的信息交互,无论是公式、分子还是拓扑概念,我们便可以更直观地了解这些东西,扩展自己的学识。然而事实证明,当时谈VR还为时过早。但这给了我许多机会,能了解不同领域的AI技术。我想我的职业生涯一直都处于技术和应用的交叉点。这给了我一个不同的视角,能大致了解AI的发展程度以及它可以应用到什么领域。杰弗里·布莱克本:所以在特斯拉的自动驾驶研究中,你看到了机器学习、深度学习的可能性,看到了它的发展方向。米拉·穆拉提:是的。但我并没有看得很清楚。杰弗里·布莱克本:你给马斯克工作过吗?米拉·穆拉提:是的,特别是在最后一年。但那时我们还不太明确AI的发展方向。当时,我们仍然只是将AI应用于特定的应用场景里,而非通用的场景。VR和AR也是如此。而我不想只是将这些技术应用于具体问题。我想做更多的研究,了解背后的原理,然后开始将这些技术应用到其他事物上。我就在这个阶段加入了OpenAI,OpenAI的使命对我非常有吸引力。当时它是一个非营利组织。现在使命没有变,但结构变了。当我6年前加入时,它是一个致力于构建安全AGI(通用人工智能)的非营利组织。当时OpenAI是DeepMind之外唯一一个做相关研究的公司。这就是我在OpenAI旅程的开始。02.3大技术进步让ChatGPT成为可能,实践证明模型能深入理解数据杰弗里·布莱克本:明白了,所以你从那时起你就一直在构建很多东西。也许你可以为在场的观众提供一些AI的基础知识。从机器学习、深度学习到现在的AI,这些概念都是相互关联的,但也各有不同。这些转变是如何发生的呢,又是如何让ChatGPT、DALL·E或者Sora这样的产品成为可能的呢?米拉·穆拉提:其实我们的产品并不是全新的,在某种意义上我们的产品是建立在过去几十年人类共同的努力的基础上的。其实AI就开始于达特茅斯学院。在过去几十年中,神经网络、大量数据和大量算力的结合带来了真正具有变革性的AI系统或模型,它们能够执行一般性任务。尽管我们不清楚其为何成功,但是深度学习真的行得通。我们也试图通过研究和工具来理解这些系统的实际运作方式。不过根据我们过去几年研究AI技术时的经验,我们知道这条路行得通。我们也见证了它们逐渐进步的轨迹。以GPT-3为例,这是一个大约三年半前部署的大型语言模型。其目标是预测下一个token,基本上是下一个单词的预测。我们发现,如果我们给这个模型预测下一个token的任务,并用大量数据训练这个模型,给它大量计算资源时,我们还能获得一个真正理解语言的模型,而且其理解水平与人类相似。它通过阅读大量书籍和互联网的信息,形成了自己对这些数据的模式的理解,而不仅仅是简单地记忆。我们还发现,这种模型不仅可以处理语言,还可以处理不同类型的数据,如代码、图像、视频和声音。它并不在乎我们输入什么数据。我们发现,数据、计算和深度学习的结合运作得非常好,通过增加数据类型和计算量,这些AI系统的性能会不断提高。这便是所谓的扩展法则(Scaling Laws)。它不是实际的法则,而是模型能力提高的统计学预测。这就是推动今天AI进步的动力。杰弗里·布莱克本:你们为什么选择了聊天机器人作为第一款产品呢?米拉·穆拉提:就产品而言,我们其实是从API开始的,而不是聊天机器人。因为我们不知道如何将GPT-3商业化。商业化AI技术实际上非常困难。我们最初专注于技术的开发和研究,我们认为只要构建了一个优秀的模型,商业伙伴就会自然地拿它去构建产品。但后来我们发现这实际上非常困难,这也是为什么我们开始自己开发产品。于是我们开始自己构建一个聊天机器人,我们试图理解为... PC版: 手机版:

封面图片

OpenAI再次加塞砸场?谷歌展示自己才是AI灭霸

OpenAI再次加塞砸场?谷歌展示自己才是AI灭霸 他们上次这么做还是是2月份,谷歌发布了多模态大模型Gemini 1.5 Pro,直接将性能拉到支持百万Token的业界新高。但这并没有成为那天的焦点,因为OpenAI在同一天发布了文生视频工具Sora,诸多栩栩如生又极具想象力的AI视频随即成为了社交媒体上的爆款,抢尽了谷歌Gemini的几乎所有风头。这一次OpenAI又搞突然袭击。谷歌I/O大会的日期是提前数月就宣布的,但OpenAI上周突然宣布在谷歌大会前一天举办发布会,在昨天发布了最新大模型GPT-4o(o代表着Omnimodel全能模型),提前引爆了AI大模型的关注热度,再次打乱了谷歌即将发布AI新品的传播节奏。GPT-4o不仅是完全免费的,而且覆盖了桌面与移动App,不仅性能大幅提升,而且可以综合处理文本、图片和音频,人机交互更加自然简单。举例来说,可以让GPT-4o加入网络会议,给用户记录发言总结概要。GPT-4o具体有什么用?用户可以让GPT-4o处理眼前的问题,极大提升生产力,可以与AI实时语音对话,就像是与真人聊天一样自然流畅,AI处理反应已经达到人类的速度,甚至还可以理解用户的情绪,以相应的情感作出回应。那么,面对OpenAI的故意撞车和抢占风头,谷歌在今天的I/O大会上又拿出了怎样的AI产品,是否带来了足够的震撼与新意?Gemini 1.5 Pro支持两百万Token谷歌I/O开发者大会今年已经进入了第16个年头,AI早已成为I/O大会的绝对乃至唯一的主角。谷歌CEO皮查伊更是在结束时宣布,整场发布会一共说了121次AI,引发了全场大笑。(这个梗是因为去年媒体统计谷歌在I/O上一共说了143次AI,今年谷歌干脆自己公布统计数字)。虽然整场发布会都没有提及竞争对手,但谷歌CEO皮查伊从主题演讲一开始就开始秀谷歌的AI实力,宣布谷歌已经全面进入Gemini时代。他强调谷歌已经在AI领域投入了十多年时间,贯穿了AI的每一层:研究、产品、基础设施。虽然AI新贵OpenAI在产品发布方面抢占了先发优势,但谷歌在研究论文、用户规模、产品数量以及算力方面都占据着压倒性优势,这也是OpenAI必须与微软结盟的直接原因,因为两家公司都不可能单独与谷歌掰手腕。皮查伊还宣布,Gemini大模型已经覆盖了谷歌全平台的20亿用户产品,仅仅三个月时间就有100多万用户注册使用。而两个月前发布的原生多模型Gemini 1.5 Pro已经得到超过150万开发者的使用。在性能方面,谷歌就是AI业界的灭霸。Gemini 1.5 Pro此前直接将Token(上下文处理)性能提升到了百万级别,全面压倒了受困于性能变慢的GPT-4.0 Turbo。三个月后,谷歌在今天宣布改进版的Gemini 1.5 Pro全面开放给Gemini Advanced的用户,并且支持35种语言。更为残暴的是,谷歌还将Gemini 1.5 Pro的上下文窗口处理性能直接翻倍到了200万(暂时只面向开发者提供),在这方面OpenAI只能望尘莫及。皮查伊宣布,这是朝着无限上下文的最终目标迈出的重要一步。Gemini 1.5 Pro可以给用户带来怎样的实际体验?谷歌用Workspace办公组件展示了AI给生产力带来的巨大变化。举例来说,如果是通过Google Meets进行远程会议,哪怕用户无法参会,也可以让Gemini为自己录音并列出会议纪要。有了Gemini,Gmail邮箱就有了灵魂。代写邮件已经是基本操作了。用户可以让Gemini帮助自己整理和总结Gmail的海量邮件,根据最近的收据和信用卡账单邮件整理归纳出用户的消费支出,给出一份专业又具体的财务支出清单。在电商时代,Gemini还能扮演智能管家的角色。用户甚至可以让Gemini自动在邮件中找到收据邮件,并进入商家平台申请退货,还能让快递上门取货。这一切都只需要用户向Gemini下达指令。Gemini 1.5 Pro从今天开始全面入驻Workspace Labs。轻量AI模型FlashGemini模型家族的新品还不仅于此。谷歌DeepMind CEO哈撒比斯(Demis Hassabis)在主题演讲中介绍了Gemini的新成员:轻量、迅捷、高效的模型1.5 Flash,以及未来AI助手Project Astra。去年12月,谷歌发布了第一代原生多模型Gemini 1.0,包括了Ultra、Pro以及Nano三个版本。三个月后谷歌发布了百万Token处理能力的Gemini 1.5 Pro。今天谷歌将Gemini 1.5 Pro处理能力提升到200万级别之外,还推出了轻量模型Gemini 1.5 Flash。虽然Gemini 1.5 Flash的上下文处理能力同样达到了百万级别,但却比1.5 Pro更为轻便迅速,针对低延迟和专注成本的任务进行了优化,更适合规模化构建。Gemini 1.5 Flash今天就会在通过谷歌AI Studio和Vertex AI两大平台向开发者提供。Project Astra是谷歌DeepMind打造的未来通用智能AI助手,也是对标OpenAI GPT-4o的产品。Astra不仅具备多模态处理,可以无缝应对文本图片视频等多媒体内容,还能以更为智能实时的方式与用户进行对话。或许略微遗憾的是,OpenAI已经在昨天抢先发布了GPT-4o的类似功能,晚了一天亮相的Astra少了诸多惊喜和震撼,或许这就是OpenAI突然抢先发布的主要原因。因为谁先发布就占据了媒体报道的焦点。如果OpenAI在谷歌Astra之后发布GPT-4o,同样也会失去诸多传播魅力所在。搜索更加人性与个性从搜索到邮件,从地图到图片,再到办公组件,谷歌有着太多上亿乃至十亿用户级别的产品可以承载AI落地。横跨iOS与Android平台,移动与桌面两端的20亿+的用户规模,以及几乎覆盖所有领域的产品,更是谷歌AI技术落地的庞大产品军火库。生成式AI在搜索领域的应用显然是最直接的用户体验。即便微软借助OpenAI试图弯道超车,但过去一年市场份额也只涨了不到一个百分点(目前3.64%)。而谷歌虽然市场份额减少了两个百分点,但目前全球市场占有率依然接近91%。有了Gemini大模型的加持,谷歌搜索得以全面提升,提供一对一的解答。用户可以随心所欲的提问,无论是具体知识,还是寻求建议,谷歌搜索的AI Overviews都可以应答如流,不仅给出实际的回答,更提供信息来源。具体来说,用户搜索“如何清洗布质沙发”的问题,AI Overviews不仅会提供几种清洗沙发的方法,还会带来答案的信息来源,再附上清洗产品的链接(购买谷歌搜索广告的商家产品)。未来用户还可以根据自身需求,对AI Overview的回答进行个性化调整,提供更为简明扼要或者细节详尽的回答。实际上,此前已经有不少用户已经通过Search Labs的实验功能体验到了AI Overviews功能。AI Overviews今天正式在美国市场推出,未来会逐步扩展到其他国家市场。谷歌预计,单是本周时间就会有数亿用户使用到AI Overviews,今年年底用户规模或将突破10亿级别。AI功能全面落地手机端虽然I/O主题演讲开始78分钟之后,谷歌才开始介绍Android平台的AI新功能,但这并不意味着Android在谷歌AI战略的重要性降低。实际上,移动端才是用户体验谷歌AI功能的最直接平台。在今年年初三星手机推出谷歌AI技术加持的画圈搜索、全屏翻译等人性功能之后(三星国行版使用百度AI技术),半年时间全球已经有超过1亿设备搭载了谷歌画圈搜索功能。谷歌预计今年年底这一数字将翻一倍,达到两亿设备。而且,得益于谷歌LearnLM模型,画圈搜索功能还有了更多的实际运用。从今天开始,画圈搜索将帮助学生做家庭作业,替代家教作用,帮助他们更好了解如何做题,而不仅仅是给出直接答案。这也是昨天OpenAI GPT-4o所展示的使用场景。Gemini on Android是谷歌为Android平台推出的一系列人性化功能。有了这一功能,用户可以用对话的方式,在写邮件和发短信的过程中直接生成和发送个性化图片,可以在YouTube视频中直接寻找想要的内容,在PDF中迅速找到自己所需的内容,而不用再自己费力浏览搜索。在Android设备端上的Gemini Nano模型还带... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人