挑战 Google 搜索?OpenAI 发布最强 AI 对话系统 ChatGPT

挑战Google搜索?OpenAI发布最强AI对话系统ChatGPT============玩了一下是真的强,还能写代码该快进到程序员不会吧,你真的哭了.jpghttps://blog.csdn.net/csdnnews/article/details/128151225=======来看看ai写代码https://twitter.com/tisoga/status/1599347662888882177?s=46&t=39AKBtH2PHw9C1eVTnZSfg

相关推荐

封面图片

Google发布Bard:AI驱动的ChatGPT对手将很快将在搜索页中出现

Google发布Bard:AI驱动的ChatGPT对手将很快将在搜索页中出现Bard可以直接回答问题,而不仅仅是将你指向可能有答案的网站。Bard可以做什么?用户可以直接向人工智能提问,而不是输入关键词来寻找可能有答案的网站。它将从网络上提取新鲜的信息,使用多种来源,并将其提炼成易于阅读的内容。例如,如果你想学习演奏一种乐器,你可以用Bard来帮助你决定哪种乐器--是吉他更容易还是钢琴?你需要多少练习?多个网站提供了多种答案,Bard会在几个容易阅读的段落中进行总结。Bard是建立在Google的LAMDA之上的,LaMDA是对话应用语言模式的简称,更确切地说,是LaMDA的轻量级版本。这比完整的模式要小,这意味着它需要更少的计算能力来提供答案--当Google试图将Bard扩展到可以回答数百万用户的问题时,这一点将很重要。至于准确性,Google的内部团队和不久后的测试人员将提供反馈,以确保你从Bard得到的答案是安全和准确的。Google将在自己的产品中使用其人工智能技术,但从3月开始,它将邀请个人开发者、创作者和企业加入,并使用生成语言API构建新事物,这将(至少在最初)由LaMDA提供支持。换句话说,在未来几个月里,互联网将出现寒武纪式的人工智能查询方式的大爆炸,它们可能会改变我们浏览互联网的方式。不仅仅是互联网,更多与人工智能有关的消息很快就会公布。...PC版:https://www.cnbeta.com.tw/articles/soft/1343285.htm手机版:https://m.cnbeta.com.tw/view/1343285.htm

封面图片

支持20种编程语言 谷歌版ChatGPT代码水平反杀了?

支持20种编程语言谷歌版ChatGPT代码水平反杀了?去年底,ChatGPT引发了科技行业的剧变,今年2月,Google发布ChatGPT竞品Bard,人们对其使用体验褒贬不一。Bard有这样那样的限制,很多人对开发人员提出的需求就是“什么时候它才能写代码?”本周五,Bard写代码的能力终于上线了。Google表示,Bard现在能使用20种编程语言,包括C++、Go、Java、Javascript、Python和Typescript等等,还能帮助用户debug和解释代码、优化代码。只需要简单的prompt,例如“能让该代码更快吗?”,Bard就能理解人类意图,自动让代码变得更高效。我们知道,很多人会使用GoogleColab跑机器学习模型,它还自带免费的云GPU算力。现在人们也可以轻松地将Bard生成的Python代码导出到GoogleColab上——甚至无需复制粘贴。Bard还能够协助GoogleSheets编写函数。此前,Google已宣布面向美国和英国的用户开放Bard,这部分用户已经可以直接使用Bard的所有新功能了。Google演示了Bard写代码的效果。和ChatGPT一样,现在Bard可以根据你的需求生成完成相应任务的代码:解释代码的功能对于编程初学者来说特别有用:除了生成、解释代码,Bard还可以帮助用户调试(debug)代码,包括Bard自己生成的代码。如果Bard生成的代码未按预期运行,只需告诉Bard:“thiscodedidn’twork,pleasefixit(此代码无效,请修复)”,Bard就可以帮助用户进行调试。应用生成式AI来加速软件开发并帮助人们解决复杂的工程挑战,这是Bard推出代码生成功能的美好愿景。但目前Bard的能力还有待提升。Google表示,Bard仍处于早期实验阶段,有时可能会提供不准确、误导或虚假的信息,也可能会生成无法产生预期输出的代码,或者生成不是最优的/不完整的代码。用户需要在采用Bard生成的代码之前,仔细检查代码,测试和审查代码中的error和bug。对于一款正在大规模测试的语言大模型来说,新上线的功能必然会遇到用户各式各样的调戏,Bard的代码能力也一样。首先Bard在给出答案时会自带引用的代码链接,对于一个面向实用化的产品来说,这很重要,也受到了好评。你们经常吐槽AI是在抄代码,它不是乱抄的。问Bard“你能帮我实现一个基本的RNN并在虚拟文本数据上测试它吗?”然后直接把生成的代码导出到GoogleColab上。代码的一部分不起作用。找到错误再次询问AI,Bard修改了代码,看起来一切似乎都运行完美。现在我们只需要检查实现是否正确,手动检查,有必要的时候做一些单元测试就行了。拥有GoogleColab导出功能真的很有用。最后,有人尝试用Bard生成上古编程语言COBOL的代码,结果居然是令人满意的:人们一直在担心,等现在这波COBOL程序员退休,很多关键岗位会后继无人。看起来,AI可以帮我们解决这个大问题了。不过也有部分网友表示,Bard的能力似乎仍然不及GPT-4。使用AI辅助编程,能否最终改变我们的工作方式?这还有待我们继续探索。...PC版:https://www.cnbeta.com.tw/articles/soft/1356219.htm手机版:https://m.cnbeta.com.tw/view/1356219.htm

封面图片

老黄发布最强AIGC芯片“生成式AI的iPhone时刻已来”

老黄发布最强AIGC芯片“生成式AI的iPhone时刻已来”同时,英伟达还宣布了和HuggingFace的合作——以后在HuggingFace平台上,不需要再下载ML模型自己运行,只需要几步简单操作,就能在笔记本上运行大模型,有Colab内味了(就是不知道有没有免费版)。至于软件更新,字里行间也全是AI。不仅在Omniverse平台中集成了一系列时下热门的AI工具,新的软件有不少也是基于大模型打造,像ChatUSD就能帮开发者们写代码。这也是时隔五年,老黄再次登上SIGGRAPH的舞台。在会上,他自信满满地宣布:生成式人工智能的“iPhone时刻”,已经来临。有网友看完发布会后感慨:英伟达在AI硬件这方面,已经无人能及了。新芯片组成的“最强超算”来袭这场发布会中最先抛出,也是最引人瞩目的,非“最强超算”莫属。这台超级计算机由256块DGXGH200GraceHopper(简称DGXGH200)连接而成。用老黄的话,这个“庞然大物”就是为AIGC时代量身打造的。它的算力和内存容量分别达到了1E(10^15)FLOPS和144TB。下面这张图展示了它的真实大小(中间的黑影是老黄)。不仅是性能优异,对比发现,性价比简直完爆CPU。同样花1亿美元,拿来买CPU和GPU分别能得到什么?CPU的话,可以买8800个x86架构的产品。这近九千块CPU加起来,只能带动一个LLaMA2、SDXL这样规模的AI程序。功率嘛……是5兆瓦,也就是每小时5000度电。如果换成GPU的话,则是2500块DGXGH200。能带动的近似规模的AI程序一下增加到了12个,功率却降低到了3兆瓦。平均到单个程序上,需要210块DGXGH200,价格是800万美元,功率则为0.26兆瓦。而组成这个“最强超算”的DGXGH200,同样是王者级别,被称为“最强生成式AI处理器”。DGXGH200由GraceCPU和HopperGPU组成。其中GraceCPU包含72核心,而后者拥有4P(10^12)FLOPS的算力和500GB的LPDDR5X。此外,DGXGH200中还加入了海力士的“最快内存”HBM3e。它的容量为141GB,带宽则高达每秒5TB,分别是H100的1.7倍和1.55倍。(好家伙,H100都只配当baseline了)在DGXGH200中,CPU和GPU之间的连接速度是第五代PCIe的7倍。而从单块DGXGH200到整个超级计算机的过程,主打的就是一个“叠”。这要得益于它的多GPU高速连接能力。双联体的DGXGH200,性能几乎没有损失,直接就是单体的两倍。将双联体的DGXGH200与BlueField-3DPU和ConnectX-7网卡,就组成了一个“计算盒”。通过NVLink,8个这样的“计算盒”高速连接,就得到了DGX构建块,总内存达到了4.6TB。这样的构建块可以合二为一形成新的计算盒,并最终扩展成256GPU的工作集群Superpod。NVLink的高速连接能力,让这256块GPU“就像是一块一样”工作。至此,显卡超算的规模已经达到了本节开头老黄所展示的水平。但这还没有结束——Superpod之间还能继续连接。在高速低延时的Quantum-2Infiniband平台帮助下,超算的规模可以接着扩展……讲到这里,老黄还打趣道:如果哪天你从(某电商平台)上买显卡的时候发现了它,千万不要觉得惊讶!总之,根据不同需要,利用DGXGH200将能构建出不同规模的、适应AIGC时代的超级计算机。据预计,DGXGH200将于明(2024)年第二季度投产。还发了3个RTX新专业显卡除了“最强生成式AI处理器”以外,英伟达这次也推出了3款船新的工作站显卡:RTX5000、RTX4500和RTX4000。这几款显卡均基于AdaLovelace架构设计,目前参数已经同步英伟达官网:当然,专业显卡售价也更贵。其中RTX5000售价达到4000美元(约合人民币2.87万元),RTX4500售价2250美元(约1.6万元),RTX4000售价1250美元(约8987元)。老黄也在发布RTX显卡时,再次说出那句经典名言:买得越多,省得越多(themoreyoubuy,themoreyousave)。至于去年9月发布的RTX6000Ada显卡,在这次大会上也推出了一个新的工作站设计:4块叠起来,搞个顶级“叠叠乐”。这样设计的单个RTX工作站,单个可以提供5828TFLOPS的AI性能,以及192GB的GPU内存。除此之外,老黄还在这次大会上宣布了一个搭载L40SAdaGPU的新款OVX服务器,数据中心专用。每台服务器搭载8块L40SAdaGPU,每块L40S包含高达18176个CUDA核心,可以提供提供近5倍于A100的单精度浮点(FP32)性能。相比A100,L40S微调(fine-tune)大模型的性能提升了大约1.7倍。(没错,A100已经被老黄用来给新硬件当对比了)具体来说,在这个OVX服务器上微调一个860M参数的大模型,现在只需要7小时就可以完成;400亿参数的GPT-3大模型,更是只需要15个小时就能微调完成。在渲染上,L40S性能也不错,配备了142个第三代RT核心,可以提供212teraflops的光线追踪性能。预计L40S将于今年秋季上市。AIGC版Colab来了,笔记本跑大模型不仅是硬件上接连抛出一系列“重磅炸弹”,软件方面英伟达也发布了多款新产品。首先是和HuggingFace合作,把NVIDIADGXCloudAI整合到其中。在HF的页面中,一键就能让模型在云上调整运行。英伟达科学家范麟熙(JimFan)激动地宣布了这一消息,还透露其中使用的每个节点都是8个H100或A100。除了与HF合作,英伟达还推出了自己的Workbench平台。通过连接云端服务,用笔记本电脑就能跑大模型。现场还播放了通过Workbench跑SDXL的演示视频。在Jupyter中,演示者让SDXL画一个“玩具老黄”。此时的SDXL还不知道“玩具老黄”是个啥玩意儿。于是演示者现场用8张图对模型进行了微调。微调后重新绘制的作品,是不是有那味了?除了上述两款大模型运行工具,英伟达还推出了最新版的企业软件平台NVIDIAAIenterprise4.0。软件包的数量达到了4500个,还有数以万计的相关依赖,而且安全可靠。Google、微软、亚马逊、甲骨文等英伟达合作方都会在自己的云平台中集成这项服务。“人类将成为一门新的编程语言”除此之外,英伟达的计算机图形与仿真模拟平台Omniverse,也宣布了一系列新进展。一方面,更多AI工具可以直接在Omniverse里面调用了。包括对话式AI角色创建工具Convai、高保真AI动捕工具MoveAI、AI低成本制作CG工具CGWonderDynamics在内,一系列流行AI工具,现在都已经通过OpenUSD集成到Omniverse中。就连Adobe,也计划将AdobeFirefly作为API,提供在Omniverse中(就是估计会收费)。另一方面,英伟达还将生成式AI技术和OpenUSD结合,推出了一些好用的AI工具。例如ChatUSD,就是一个基于NVIDIANemo框架大模型Copilot,不仅可以回答开发者有关USD的问题,还能帮忙生成Python-USD代码。又例如DeepSearch,也是一个基于大模型的新工具,基于文本或图像输入,可以快速对数据库进行3D语义搜索。在这次大会上,老黄先是回顾了自己过去所做的“正确决定”——用AI重塑CG,为AI重新发明GPU。随后,他对未来AI行业的发展做了大胆的展望:未来,几乎所有事物的前方都会有一个大语言模型。“人”,将成为一种新的编程语言。以工厂为例,老黄认为,未来的工厂将会由软件和机器人来“主宰”。像汽车这样的产品,本身就是机器人,所以生产汽车的工厂,将会呈现出机器人制造机器人的场面。看来,乘大模型东风迅速崛起的英伟达,这次是真的要ALLIN生成式AI了。...PC版:https://www.cnbeta.com.tw/articles/soft/1375941.htm手机版:https://m.cnbeta.com.tw/view/1375941.htm

封面图片

新测试基准发布 最强开源Llama 3尴尬了

新测试基准发布最强开源Llama3尴尬了Llama3的两个指令微调版本实力到底如何,也有了最新参考。与之前大家分数都相近的MTBench相比,Arena-Hard区分度从22.6%提升到87.4%,孰强孰弱一目了然。Arena-Hard利用竞技场实时人类数据构建,与人类偏好一致率也高达89.1%。除了上面两个指标都达到SOTA之外,还有一个额外的好处:实时更新的测试数据包含人类新想出的、AI在训练阶段从未见过的提示词,减轻潜在的数据泄露。并且新模型发布后,无需再等待一周左右时间让人类用户参与投票,只需花费25美元快速运行测试管线,即可得到结果。有网友评价,使用真实用户提示词而不是高中考试来测试,真的很重要。新基准测试如何运作?简单来说,通过大模型竞技场20万个用户查询中,挑选500个高质量提示词作为测试集。首先,挑选过程中确保多样性,也就是测试集应涵盖广泛的现实世界话题。为了确保这一点,团队采用BERTopic中主题建模管道,首先使用OpenAI的嵌入模型(text-embedding-3-small)转换每个提示,使用UMAP降低维度,并使用基于层次结构的模型聚类算法 (HDBSCAN) 来识别聚类,最后使用GPT-4-turbo进行汇总。同时确保入选的提示词具有高质量,有七个关键指标来衡量:-具体性:提示词是否要求特定的输出?-领域知识:提示词是否涵盖一个或多个特定领域?-复杂性:提示词是否有多层推理、组成部分或变量?-解决问题:提示词是否直接让AI展示主动解决问题的能力?-创造力:提示词是否涉及解决问题的一定程度的创造力?-技术准确性:提示词是否要求响应具有技术准确性?-实际应用:提示词是否与实际应用相关?使用GPT-3.5-Turbo和GPT-4-Turbo对每个提示进行从0到7的注释,判断满足多少个条件。然后根据提示的平均得分给每个聚类评分。高质量的问题通常与有挑战性的话题或任务相关,比如游戏开发或数学证明。新基准测试准吗?Arena-Hard目前还有一个弱点:使用GPT-4做裁判更偏好自己的输出。官方也给出了相应提示。可以看出,最新两个版本的GPT-4分数高过Claude3Opus一大截,但在人类投票分数中差距并没有那么明显。其实关于这一点,最近已经有研究论证,前沿模型都会偏好自己的输出。研究团队还发现,AI天生就可以判断出一段文字是不是自己写的,经过微调后自我识别的能力还能增强,并且自我识别能力与自我偏好线性相关。那么使用Claude3来打分会使结果产生什么变化?LMSYS也做了相关实验。首先,Claude系列的分数确实会提高。但令人惊讶的是,它更喜欢几种开放模型如Mixtral和零一万物Yi,甚至对GPT-3.5的评分都有明显提高。总体而言,使用Claude3打分的区分度和与人类结果的一致性都不如GPT-4。所以也有很多网友建议,使用多个大模型来综合打分。除此之外,团队还做了更多消融实验来验证新基准测试的有效性。比如在提示词中加入“让答案尽可能详尽”,平均输出长度更高,分数确实会提高。但把提示词换成“喜欢闲聊”,平均输出长度也有提高,但分数提升就不明显。此外在实验过程中还有很多有意思的发现。比如GPT-4来打分非常严格,如果回答中有错误会狠狠扣分;而Claude3即使识别出小错误也会宽大处理。对于代码问题,Claude3倾向于提供简单结构、不依赖外部代码库,能帮助人类学习编程的答案;而GPT-4-Turbo更倾向最实用的答案,不管其教育价值如何。另外即使设置温度为0,GPT-4-Turbo也可能产生略有不同的判断。从层次结构可视化的前64个聚类中也可以看出,大模型竞技场用户的提问质量和多样性确实是高。这里面也许就有你的贡献。Arena-HardGitHub:https://github.com/lm-sys/arena-hardArena-HardHuggingFace:https://huggingface.co/spaces/lmsys/arena-hard-browser大模型竞技场:https://arena.lmsys.org参考链接:[1]https://x.com/lmsysorg/status/1782179997622649330[2]https://lmsys.org/blog/2024-04-19-arena-hard/...PC版:https://www.cnbeta.com.tw/articles/soft/1428287.htm手机版:https://m.cnbeta.com.tw/view/1428287.htm

封面图片

AI狂飙的这一年 我们的工作被取代了多少?

AI狂飙的这一年我们的工作被取代了多少?而普通人对AI产生的新时代问题,或许是雾里看花,但面对这样一个能写小说、代码,还会画画、唱歌的工具,也会有自己的疑问——AI会替代我吗?AI意识觉醒了吗?AI伴侣靠谱吗?澎湃美数课尝试用多个角度的数据来解答这一年里,以ChatGPT为代表的AI给普通人和世界到底带来了哪些变化。ChatGPT发布后,AI智障的嘲笑声变弱了在中国,即使有人还没用过最前沿的AI聊天机器人,但好奇、担忧的情绪已弥漫到社交媒体。我们用AI、ChatGPT为关键词,梳理了自ChatGPT发布后近一年的微博热搜榜数据后发现,ChatGPT发布后,人们对AI的态度逐渐从好奇转变为了担忧:如果用AI就可以写策划、写代码、写小说,那我还能靠什么为生?ChatGPT发布前,关于AI的热搜话题词,还多是“AI能包治百病吗”“AI歌手有多会唱歌”“AI阅读小说有多离谱”,而在ChatGPT发布后,具体的担忧开始越来越多:“AI能否代替设计师”“AI能取代所有工作吗”“ChatGPT会不会让底层程序员失业”。这些担忧并非杞人忧天。美国华盛顿大学研究者今年8月发布的一篇论文显示,在ChatGPT发布后,全球自由职业平台的写作或编辑类从业者的数量和收入都呈现断崖式下跌的趋势。而除了AI替代人类的话题,大家对AI带来的换脸、绘画、诈骗等热词也多有关注。随着AI在诸多领域有了成熟的应用,在方便人们的同时也引发了一系列法律问题,其中就涉及版权、诈骗等——有热搜就提到了“AI换脸用杨幂等明星卖货或涉侵权”“10分钟被AI换脸骗走430万元”等问题。中国公司,allinAI尽管多数人对生成式AI的感知或使用可能还停留在换脸或绘画上,但这类技术给世界带来的影响远远不止这些。在ChatGPT出来之后,多国管理者都迅速作出反应。今年3月,意大利禁用了ChatGPT,理由是“非法收集个人数据”;6月,欧盟正式批准并通过《AI法案》草案;8月,中国的《生成式人工智能服务管理暂行办法》已经正式生效,其中规定“提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续”。通过算法备案清单的公告,我们可以观察到中国公司布局生成式AI算法的现状。截至2023年8月,在算法备案系统登记的相关算法已经有151个,背后不乏腾讯、华为等大厂的身影。在这151个算法中,33.8%的生成合成式算法都集中在文本生成领域。互联网大厂登记的生成合成式算法基本上都是在融入各家的业务中,比如阿里巴巴的7个文本生成算法,分布在大麦网的智能客服、钉钉的即时通讯、夸克的图像识别等场景。此外,腾讯在音频领域登记了不少算法——除了酷狗旗下的获取用户录音制作歌曲,还有像是文本转有声读物等方式。不过,中国头部科技企业都在入局的大模型算法,背后还藏着不少困境。多位从业人士接受《财经十一人》采访时都提到,中国AI创新环境还需要改进,问题包括数据质量不够、算力成本太高等。从助手到伴侣,AI主打一个陪伴不只是国内,生成式AI在全球多国的落地都很凶猛,其中很多还不同于国内大厂只是将AI融入自家业务,很多就是完全靠AI来提供服务。最典型的代表就是ChatGPT。这款程序去年上线后,以5天这个破纪录的速度突破百万用户,紧接着又在2个月后,月活用户数突破了1个亿,成为史上用户增长速度最快的消费级应用程序。这样迅猛的发展速度和广阔的前景让不少人嗅到商机。根据风险投资数据公司CBinsight的统计,从全球210多家给跨行业领域提供生成式AI服务的公司来看,生成式AI涉及领域广泛,62.3%的融资额都集中在AI助手和人机界面等应用。在众多的生成式AI应用中,AI伴侣无疑是独树一帜的,此类应用获得了10.7亿元的融资额。硅谷知名投资机构a16z的统计显示,截至2023年6月,在ChatGPT之后,网站流量数据位居第二的是CharacterAI,这是一款主打虚拟伴侣的聊天机器人,可以满足用户社交、情感、陪伴和支持等需求。该机构发现,在移动端,CharacterAI是最强劲的玩家之一,其日活跃数与ChatGPT的不相上下,但有更好的留存率。ChatGPT最大影响:点燃AI狂欢相比前几年也大热过的增强现实、元宇宙等概念,无论是业界还是学界,对这轮AI热潮的态度都坚定得多。以ChatGPT发布时间为分水岭,几乎在一夜之间,高管对生成式AI的兴趣飙升。根据CBInsights,2023年第三个季度的财报电话会议中提到“生成式AI”的次数直线飙升,达到2081次,而在2022年第四个季度,这个数字不过才28次。截至2023年9月30日,2023年生成式AI相关的投资额已经达到1238亿元,相比2022年一整年大约翻了5.4倍。而研究者们也已经向论文预印本网站arXiv提交了大量论文,并且数量上有越来越多的趋势。截至2023年11月17日,arXiv上与ChatGPT相关的论文数量已经高达1603篇,平均下来,这一年来每天基本有4.7篇相关论文提交到该网站上。ChatGPT给学术界带来的影响还包括,不少论文作者开始用生成式AI来写论文。尽管一开始不少期刊态度强硬地拒绝作者用ChatGPT来生成论文中的文本、图像,但如今也已悄然改变。《科学》杂志在今年11月16日发布了新的编辑政策,表示只要作者在论文的“方法”部分适当披露,就允许使用生成式AI和大语言模型来创造论文中的图像和文本。尽管还有种种问题和矛盾,但AI技术的突破已让人类站在了新一轮科技革命的前夕。2023年年末,多家知名词典公布的年度词汇都与AI有关。韦氏词典、剑桥词典分别选择了“真实”(authentic)和“幻觉”(hallucinate),前者的原因是AI让真假界限越来越模糊,导致网络上关于“真实”的搜索量激增,而后者直指目前AI技术的缺陷,即使AI如此强大却会出现幻觉,容易提供编造的信息。无论是AI的年度词汇、微博热搜上的人类之问,还是OpenAI创始人离职风潮的“理念之争”,这一年都埋着无数尚待解答的疑问:AI真的有意识吗?我们能爱上AI吗?AI是否会取代人类……但基本可以确定的是,过去这一年只是AI正式走进并开始影响人类世界的一个开端。参考资料:1.国家互联网信息办公室-互联网信息服务算法备案系统,https://beian.cac.gov.cn/#/index2.Epoch-ComputeTrendsAcrossThreeErasofMachineLearning,https://epochai.org/blog/compute-trends3.21财经-深度丨漩涡中的OpenAI和背后的商业化难题,https://m.21jingji.com/article/20231122/herald/1b0a2ef92191268aedcf29cd72707466.html4.财经十一人-中国大模型创业公司,学不起OpenAI,https://mp.weixin.qq.com/s/0uHxdzNusWIaRCPMTxp2gA5.澎湃新闻-2023年度词都和AI相关:剑桥词典选“幻觉”,韦氏词典选“真实”,https://www.thepaper.cn/newsDetail_forward_254556176.机器之心-史上增速最快消费级应用,ChatGPT月活用户突破1亿,https://m.thepaper.cn/newsDetail_forward_21787375...PC版:https://www.cnbeta.com.tw/articles/soft/1400839.htm手机版:https://m.cnbeta.com.tw/view/1400839.htm

封面图片

其实关于 ChatGPT plugins 的大部分 myth,读 OpenAI 这个简短的开发文档都可以得到解答 [1]。

其实关于ChatGPTplugins的大部分myth,读OpenAI这个简短的开发文档都可以得到解答[1]。比如说,这是不是意味着ChatGPT变成了一个操作系统?从操作系统的经典定义[2]来说,肯定不是。ChatGPTplugins做的事情,是在「适当时候」让ChatGPT可以和外界打交道。现在的ChatGPT是一个受过良好本科教育的知识工作者,不幸在2021年9月就被你抓到了一个白房子里面关着,就跟美国那个JonyIve一样。你问它的很多问题它凭借自己的积累是可以解答的,只是不知有汉,无论魏晋。现在,你和它说,我问你某些问题的「适当时候」我允许你出去走走,看看外面的世界是不是有更好的答案、更好的办法。比如,机票价格怎么样了?TikTok的听证会怎么样了?你不是理科不好吗,让人帮忙解个方程怎么样?有些事情,干脆你也帮我办了吧。比如,既然问了机票价格,就顺便订个机票吧![3]它说好啊,但我怎么知道应该去哪儿解决你的问题呢?其实世界上这些工作都已经有不同的仆人做得很好了,让这些仆人先来我们这儿登记一下。这样我们就知道,机票可以去找这个叫KAYAK的,新闻可以去问Bing,解方程可以找WolframAlpha。它在「适当时候」照着登记册出去问了问题,然后回来用它的语言告诉我答案。这里还有一个厉害的地方是,在这个世界中这些仆人是不说人话的。它们用一种叫API的机读语言和其他人进行交互。过去,我们日常用的手机app可以代替我们将界面上的操作转化成这种特殊的语言,但我们这位被关了两年的朋友,却能自动把我们说的人话自动翻译成这种语言。这不是操作系统,而是一种对世界上已有服务的API通过自然语言进行索引和整合的方式,也给所有已有服务提供了自然语言界面。通过它你可以利用已有的服务获取数据,也进行少量的行动(这一点实际上是出于安全的限制)。当然,你可以说着这有点儿像一个操作系统,毕竟用户可以交付任务给它……那么它也有点像一个浏览器,有点像一个应用商店,有点像手机桌面,有点像搜索引擎,虽然我觉得它最像的还是……3721中文网址导航。用比喻来讨论问题总是不精准的,取决于你关心什么方面,希望获得什么样的隐含暗示。就好像说现在到底是AI的BlackBerry时刻还是iPhone时刻还是iPhone3GS时刻还是iPhone4时刻……Depends。至于说这个plugins系统可以自己给自己写plugin……至少在目前是不准确的。OpenAI联合创始人Greg在Twitter上说的不错,一个plugin的开发很简单,你就是为一个自然语言模型来写API文档。但这个前提是你得先有API。如果你已经做出一个WolframAlpha了,要接入的确是很简单的。就好像给Chrome写一个webapp其实也很简单,因为本质上那只是一个已有网站的书签。当然了,既然GPT已经可以帮忙写代码了,所以你用GPT从0开始写出一个plugin理论上是可能的,但这不是plugins系统的开箱体验。Greg说的「为自然语言模型写API」,并不是大家所理解的「用自然语言模型来写API」。目前plugin的接口仍然需要写成机读语言——尽管理论上,如果你写出足够详细的prompt,也可以让GPT来生成。这中间的区别也许没有那么重要,也许就是差一层窗户纸。但总之,描述的还不是已经实现的体验。ChatGPT的plugin系统的设计和之前类似系统比,真的新颖之处在哪里呢?前面说到「适当时候」,在接口中,你可以用自然语言告知ChatGPT你这个API能干啥,ChatGPT用自然语言理解了这一点后,就可以自动根据用户的输入来判断什么时候应该找谁来满足用户的需求。你只需要告诉它一次「买机票去KAYAK」,它就知道下次你问它UA888的时候可以去找KAYAK。这是不是就是我们中国人熟悉的……流量分发?大家都很熟悉,在PC时代我们抢注文件扩展名、Android上我们抢注Intent、iOS上抢注schema、搜索引擎上做竞价排名……干的是同一件事情。ChatGPT想用自然语言来解决流量分发的问题。所以,套用一句话,这是流量分发机制的自然语言界面。这么一想,什么SEO、growthhacking……说不定还有用武之地。振作吧!(给不熟的人:这是开玩笑...我不喜欢这些事情)其实这也不是ChatGPT首创。GoogleAssistant接入第三方服务的方式也是类似的,只是开发者体验要复杂一些。说时迟那时快,写这段的时候去查了Google的文档,发现这个服务即将在6月13日被Google亲手干掉。[4]这也不是否定plugins的创新。事实上,大部分革命性的创新也就是在前人的基础上稍作改动而已。OpenAI的研究和工程能力当然是让人惊叹的,但我越来越觉得他们的产品和市场能力也是让人惊叹的。MITTechReview关于ChatGPT开发过程的访谈非常值得一读[5],ChatGPT本身也许可以称之为有史以来最成功的hackathon项目(虽然远比一般的hackathon要昂贵,但相比于GPT本身的投入相信只是个零头)。ChatGPT把GPT重新包装成了人人都能看懂的能力,也许是其意外成功让OpenAI不甘于只做基础设施了,他们现在看起来决心直接面向消费者,不给中间商赚差价的机会了。也许,OpenAI就是第四次工业革命的Google或Apple了。Plugins这个系统相信是在很短时间内拼凑出来的,却足够优雅、有想象力。Go-tomarket的能力、连接用户需求和技术的能力、商业化的能力、设计生态系统的能力...不就是古典产品经理的核心能力么?怪不得老王也要招产品经理[6]。可惜,想来想去好像不认识什么活人有这个能力。你看,为了拖延写稿我宁愿写这么大一段[7]。没有仔细校对,有错漏请指正。[1]:https://platform.openai.com/docs/plugins/introduction[2]:https://en.wikipedia.org/wiki/Operating_system[3]:https://openai.com/blog/chatgpt-plugins[4]:https://developers.google.com/assistant/conversational/overview[5]:https://www.technologyreview.com/2023/03/03/1069311/inside-story-oral-history-how-chatgpt-built-openai/[6]:https://m.okjike.com/originalPosts/641aa79e40db2e7567d6ed98?s=ewoidSI6ICI1NjU1OTg0MjVhMDNmOTEzMDBlMGE5YTgiCn0=[7]:https://m.okjike.com/originalPosts/641c207e1ccc7f6510882c2b?s=ewoidSI6ICI1NjU1OTg0MjVhMDNmOTEzMDBlMGE5YTgiCn0=

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人