7月24日,彭博社专栏作家凯瑟琳·索贝克发表观点:《xjp gpt的问题比中国更大》

7月24日,彭博社专栏作家凯瑟琳·索贝克发表观点:《xjpgpt的问题比中国更大》这篇文章讨论了中国在人工智能领域的发展,特别是政府推动的具备社会主义核心价值观的聊天机器人。作者指出,这种做法不仅对中国试图赶超美国的AI发展构成障碍,还揭示了全球对AI技术的误解。文章认为,试图将人类价值观注入大型语言模型是错误的,因为这些模型并非人类,无法拥有政治信仰或做出类似人类的决策。尽管中国的做法可能会在短期内限制其AI的发展,但从长远来看,这种独特的方法可能会在某些领域提升AI技术。同时,作者强调,无论是中国还是美国,都应该认识到AI只是机器,重点应该是如何利用AI技术来帮助人类,而不是赋予它们人类的价值观和道德标准。

相关推荐

封面图片

智谱 AI 刘江:AGI5~10 年会达到普通人水平 智谱 AI 已启动 “超级对齐”

智谱AI刘江:AGI5~10年会达到普通人水平智谱AI已启动“超级对齐”智谱AI首席生态官刘江在2024亚马逊云科技中国峰会上表示,他认为5~10年内,AGI会达到普通人水平,“大模型可能是我们这一代人遇到的最大的技术突破。”刘江同时透露,智谱AI已经启动“超级对齐”。超级对齐(superalignment)是指确保在所有领域都超越人类智能的超级人工智能(AI)系统,按照人类的价值观和目标行事。(每日经济新闻)

封面图片

国家新闻出版署下发关于实施网络游戏精品出版工程的通知

国家新闻出版署下发关于实施网络游戏精品出版工程的通知通知表示,为加强网络游戏正向引领,推动网络游戏弘扬真善美、传播正能量,促进游戏产业健康有序发展,国家新闻出版署决定组织实施网络游戏精品出版工程。通知显示,此次精品出版工程主要从五个方向展开。一是传播社会主义核心价值观。以社会主义核心价值观为引领,把正确价值取向融入游戏主线剧情和玩法规则,弘扬真善美、贬斥假恶丑,抵制泛娱乐化等不良倾向,反对拜金主义、享乐主义、极端个人主义等畸形价值观。二是传承中华优秀传统文化。着眼弘扬中华文化、提升文化内涵,推出一批传统文化题材游戏作品,生动诠释中华历史人文故事。三是展现新时代发展成就和风貌。着眼书写新时代、讴歌新时代,推出一批反映新时代发展成就的游戏作品,以场景嵌入、动画演示、建模推演等形式,综合运用光、电、声、影等手段,让人们在沉浸式体验中感知“发展中国”“活力中国”“绿色中国”“大美中国”。四是促进科技创新和新技术应用。跟进区块链、人工智能、5G等方面最新技术,聚焦虚拟现实、感知交互、游戏引擎、动作捕捉、情景渲染等新一代信息技术前沿方向,推出一批在关键技术研发方面具有原创性、引领性、突破性的游戏作品。五是具有国际市场潜力。秉持构建人类命运共同体理念,体现融通中外的共同价值追求,构筑和平发展、合作共赢的游戏世界观,讲好文明交流互鉴、共生共存的故事,展现中华文明对人类文明的积极贡献,增进情感共鸣和价值认同。来源:

封面图片

传奇兄妹挑战奥特曼 全球最强AI大模型一夜易主

传奇兄妹挑战奥特曼全球最强AI大模型一夜易主此次Claude3一次性发了三个模型:Claude3Haiku、Claude3Sonnet与Claude3Opus,能力从低到高,能让客户有更多选择。为了更直观地看不同模型的特点,官方贴出了Claude3模型与多个能力基准相当的的同行模型的比较:从这个对比上可以看到Claude在多项AI系统常用评估标准能力中的领先。三个模型中最强的Opus,所有能力皆表现优异,尤其是在研究生级别专家推理(GPQA)、数学、编码等赛道,算得上遥遥领先,完全碾压GPT-4,以及Gemini1.0Ultra。不过,在关注技术领先性之外,此次Claude3的发布还有哪些值得思考的亮点?01出走OpenAI的分歧者Anthropic再次重点强调了Claude大模型的安全性,这也是Anthropic的价值观。提到这一点,就不得不说Anthopic的创立。Anthropic的创始人DarioAmodei和DanielaAmodei兄妹俩,二人原本都是OpenAI的员工。在OpenAI刚刚成立时,原来在Stripe担任CTO的GregBrockman加入OpenAI后,先是从Google将Dario挖了过来负责AI安全,随着OpenAI的发展,Dario一路做到OpenAI研究副总裁的位置。接着Brockman将妹妹Daniela也从Stripe挖到了OpenAI,Daniela同样也是做到了OpenAI安全和政策副总裁的位置。兄妹俩是西方社会非常典型的理想主义者,尤其是妹妹,一直关注穷人、腐败、地球环境等等全球议题。他们加入OpenAI的原因,除了Brockman的原因,最重要的是,当初OpenAI的定位是开源的非营利机构,目标是要为人类构建安全的AGI。不过,随着马斯克的离开和随后微软的加入,OpenAI的定位和价值观都开始发生变化。Dario和Daniela,以及OpenAI的很多员工开始与Altman的理念发生分歧,后来兄妹俩,加上曾在OpenAI负责GPT-3模型的TomBrown一共7个人从OpenAI离开,并在2021年1月成立了Anthropic。Anthropic的意思是“与人类有关的”,从名字就可以看到Anthropic的目标和愿景。Amodei兄妹一直强调,他们的团队有着高度一致的AI安全愿景,创始团队七个人的共同特点是重视AI安全,包括语言模型的可解释性、可控可靠,想让模型更安全,更符合人类价值观,目标是“建立有用、诚实和无害的系统”。这些话术听上去并不陌生,因为这就是OpenAI最初广为人知的愿景的2.0版。但在卖身微软后,商业变成了OpenAI的第一要义,加上对于AI风险不加节制的态度,和宫斗后组织结构上的巨大变化,也让OpenAI和Altman的形象逐渐变得负面。虽然Anthropic的成立时间要比OpenAI晚很多,但Claude的发布时间并不比ChatGPT晚多少,甚至开发完成的时间比ChatGPT更早。根据外媒的报道,Claude之所以没有在第一时间对外发布的最重要原因,是因为Amodei兄妹担心安全问题,认为还需要时日,确保模型安全后,才能真正向世人发布。这也给了ChatGPT和OpenAI率先引发全球关注的机会。不管怎样,目前Claude已经成长为ChatGPT最大的对手,即便是Google,以及作为OpenAI发起人马斯克的大模型,与GPT4和Claude3还是有一段距离的。02安全对策:宪法AI技术从成立之初,Anthropic就有专门的AI安全团队,专门负责降低虚假信息、生物安全滥用、选举干预、隐私等方面的风险,尽可能增强安全性的透明度。Amodei兄妹曾经提到现有的大型语言模型“会说一些可怕、有偏见或不好的话”,比如教用户自杀或杀人,种族主义或性别歧视等等,AI安全研究需要降低甚至排除它们做坏事的可能性。为此,他们在Claude训练中引入了一种叫做“宪法AI(ConstitutionalAI,CAI)”的技术。根据Anthropic的官方解释,在训练过程中,研究人员会定义一些符合人类公序良俗的原则来约束系统的行为,如不得产生威胁人身安全的内容,不得违反隐私或造成伤害等。这些原则包括联合国人权宣言、Apple服务条款的一部分、Anthropic的AI研究实验室原则等等。确保为大模型提供正确的价值观。当然,和世界上任何一种号称要秉持公序良俗的大模型价值观一样,这些原则的选择完全是主观的,并且一定会受到训练它的研究人员的影响。Anthropic也承认这一点,但也表示绝对的公平、正确的价值观肯定是不存在的,只能是尽可能纳入更多元的文化和价值观。该技术的关键在于,研究人员会先训练一个价值观正确的AI,再用它监督训练其他AI,通过AI模型之间的互动与反馈来优化系统,而不是人与模型的互动。该方法被称为基于AI反馈的强化学习(ReinforcementLearningfromAIFeedback,RLAIF),理论上对人类更加可靠与透明。该技术一定程度上牺牲了语言生成的自由度,但理念无疑却是比较受欢迎的,毕竟如今全球对AI的警惕也是越来越高,以马斯克为首的很多人都要求政府严格监管AI,而且这种趋势也正在逐渐形成,各种法规也在陆续出台。值得注意的是,RLAIF在提高大模型安全性的同时,其实还解决了生成式AI互动中的拒绝或回避的问题。在RLAIF之前,行业训练生成式AI的方法都是“基于人类反馈的强化学习”(ReinforcementLearningfromHumanFeedback,RLHF),也就是我们熟知的外包人工给AI做人工筛选、标识、排序等等。但这种人工训练也会产生很多问题,比如人类普遍缺乏积极处理负面要求的能力,这就会导致AI在面对很多负面的问题,和人类的反馈一样,会说,我不知道,我不理解,或者干脆拒绝回答。这也引发一个新问题,不能给出答案意味着没有用,但若是给出答案,又意味着有害,价值观不正确。这也是Anthropic提出RLAIF,并在此基础上训练出“宪法AI”的缘由。在此次Claude3发布时,Anthropic解释说,此前Claude模型经常因为理解不到位,而不必要地拒绝回答。而这一次的Claude3系列,已经在这方面取得了显著改进。在面对可能触及系统安全边界的询问时,大大减少了拒绝回应的情况。如图所示,Claude3模型对请求表现出更细致的理解,能够识别真正的危害,并且因为对上下文理解的增强,拒绝回答无害的提示的频率要要少得多。03OpenAI会收复失地吗作为成立不过两年多的初创公司,眼下无论是规模、估值、收益等等方面,Anthropic都完全无法与OpenAI相提并论。不过,AI安全和人类的利益作为最大的亮点和卖点,这或许会帮Anthropic走出一条与OpenAI不一样的路。虽然短期内难以全面超越OpenAI,但Anthropic的目标并不小,不包括前几轮的投资在内,Anthropic计划在未来筹集50亿美元,以与OpenAI竞争,并进入十几个行业。Anthropic的投资人团队非常强大,包括Skype联合创始人JaanTallinn、Google、Salesforce、Zoom、SK和其他投资方。其中Google用3亿美元换取了该公司10%的股份。这种关系被很多人看作最初微软和OpenAI之间的合作关系,即微软出资,用来支持OpenAI的研究。后来的事情大家也都清楚了,如马斯克的诉状中所说,GPT4本质已经变成微软的产品,OpenAI已经变成了微软的闭源子公司,OpenAI在开发且不断完善AGI以最大化微软的利润,而不是造福人类。不过目前Google与Anthropic的关系,仍仅限于Google是Anthropic的技术支持和资金提供方,而且双方在大模型领域还是竞争对手。至于未来是否会朝微软和OpenAI的方向发生变化,一切都很难料。Claude3发布后,立刻吸引了全球的关注,并被称行业称作“全球最强AI模型”,一夜之间就取代了GPT4的位置。有人在狂欢,为AI技术的飞速进步欢欣鼓舞;也有人为AI领域出现了另一个价值观正确、能制衡OpenAI的巨头而欣慰;当然,更多人将目光投向OpenAI,并且对GPT5寄予了很大的希望,认为GPT5极有可能收复失地,在大语言模型主战场扳回一局。GPT5到底能有多强大?去年Altman在公开的演讲中,提到OpenAI已经开发出了比GPT4更强大、更难以想象的东西,远超人们的期待...PC版:https://www.cnbeta.com.tw/articles/soft/1422484.htm手机版:https://m.cnbeta.com.tw/view/1422484.htm

封面图片

交行副行长钱斌:生成式 AI 在算力算法、数据安全等领域面临痛点

交行副行长钱斌:生成式AI在算力算法、数据安全等领域面临痛点12月9日,交通银行党委委员、副行长钱斌在由上海金融科技产业联盟主办的第五届上海金融科技国际论坛分论坛上致辞表示,人工智能涌现出新效能,为金融领域创新发展开辟了新手段、新赛道。钱斌指出,生成式AI在算力算法、数据安全、人才等领域面临着诸多痛点和难点。比如,如何实现大规模算力模式下的绿色低碳供给,如何提供适合大模型的大规模、高质量、实时性数据,如何将模型的公平性、价值观与人类更有效地对齐,如何培养复合型的金融科技人才。“这些既是技术挑战,也是管理问题,需要产业各界通力合作,协同解决。”(澎湃新闻)

封面图片

苏纳克:英国必须更大力向海外推广自由开放价值观

苏纳克:英国必须更大力向海外推广自由开放价值观(早报讯)英国首相苏纳克将在他首次重要外交政策演说中强调,英国必须在世界舞台上做得更多,以捍卫英国自由与开放的价值观。法新社报道,上任一个月的苏纳克星期一(11月28日)将参加在市政厅举行的大伦敦市市长宴会,并在这个年度盛会上致辞。根据唐宁街10号发布的演说摘要,苏纳克将告诉与会的英国政要,“自由和开放永远是谋发展的最强大力量。”“无所作为绝不能达成目标。”他认为英国的“对手和竞争者已制定长期计划”,这句话主要是针对中国和俄罗斯。苏纳克将强调,“面对这些挑战,我们不能只顾及短期利益或抱有一厢情愿的想法。我们必须飞跃进化,这表示我们将更加坚定地捍卫我们的价值观,以及给我们带来繁荣的开放信念。”他还会说,这表示英国必须拥有一个强大经济,“因为这是我们在海外展现实力的基础”。在今年夏天的一次演讲中,尚未成为英国首相的苏纳克把。苏纳克当时誓言,如果他当选,他一定会遏制中国的影响力。发布:2022年11月28日10:24AM

封面图片

OpenAI CTO深度访谈 剧透GPT-5发布时间

OpenAICTO深度访谈剧透GPT-5发布时间OpenAICTO穆拉提分享OpenAI近况与AI行业动向。穆拉提在达特茅斯学院(图源:达特茅斯学院)在这场访谈中,穆拉提分享了自己从航天行业、汽车行业、VR/AR再到加入OpenAI的丰富职业生涯,并根据自己在行业最前沿的所见所闻,分析了AI治理、AI对教育的影响、AI对工作的影响等问题。她在访谈中透露,明年或后年就会出现博士水平的智能系统,这或许指的就是GPT-5。她更是抛出一个极具争议性的观点,有些创意工作本不该存在,而AI很快便会取代这些职位。这一观点在网上引发轩然大波,认为OpenAI吃了饭就砸锅,并不理解创造力意味着什么。穆拉提认为OpenAI的成就离不开深度神经网络、大量数据和大量算力这3个因素的叠加,虽然他们还在研究背后的原理,但实践证明深度学习真的行得通。她称AI安全和AI能力是一体两面的,聪明的模型才能理解我们给它设定的护栏。从工程的角度上来看,AI能力的提升并不会降低模型的安全性。OpenAI对模型的安全性负有很大责任,但要实现风险的有效管控,社会和政府的参与也是必不可少的。OpenAI正积极与政府和监管机构合作,共同解决AI安全问题。在场的观众也向穆拉提抛出了尖锐的问题。穆拉提在回应观众对于模型价值观的问题时提到,OpenAI目前已经通过人类反馈强化学习将人类价值观融入AI系统,但未来的重点会是在基础价值体系上,给客户提供高度定制化的模型价值体系。观众还就OpenAI最近的侵权疑云和内容创作者的许可和补偿问题询问穆拉提的看法。穆拉提再次强调OpenAI并未刻意模仿斯嘉丽的声音,她挑选声音的决策过程是完全独立的。至于版权内容,OpenAI目前在尝试以聚合数据池的形式,让创作者提供版权内容到数据池中,整体评估创意内容对模型表现的贡献,并给予相应的报酬。但这一技术颇具难度,实际落地还需要一段时间。与OpenAICEO萨姆·阿尔特曼(SamAltman)不同,穆拉提之前的公众认知度较低。她在1998年出生于阿尔巴尼亚,之后到加拿大和美国求学。她2018年便加入OpenAI,是OpenAI的早期成员之一。作为OpenAI的CTO,她领导了OpenAI在ChatGPT、DALL·E、Codex和Sora方面的工作,同时还监管公司的研究、产品和安全团队。微软首席执行官萨蒂亚·纳德拉(SatyaNadella)评价穆拉提时说到,她既具备技术专长,也颇有商业头脑,并对OpenAI的使命有深刻认识。以下是对穆拉提在达特茅斯学院深度访谈的完整编译(为提高可读性,智东西调整了部分问答的顺序,并在不违背原意的前提下进行了一定的增删修改):01.干过航天、汽车、VR/AR等行业,发现自己对AI最感兴趣杰弗里·布莱克本:大家都想听听你的近况和你正在构建的东西,这真是太吸引人了。不过也许我们应该从你的故事开始。你毕业后去了特斯拉一段时间,然后是OpenAI。你能简短地和我们描述一下那个时期吗,还有你加入早期的OpenAI的故事。米拉·穆拉提:我大学毕业之后其实在航空领域短暂工作过,但之后我意识到航空领域的发展相当缓慢。我对特斯拉的使命非常感兴趣,也对构建可持续交通的未来需要面临的创新挑战感兴趣,因此我决定加入特斯拉。在参与ModelS和ModelX的工作后,我意识到自己也不想在汽车行业工作。我想要做一些能真正推动社会发展的事情,同时解决一些非常困难的工程挑战。我在特斯拉的时候对自动驾驶汽车、计算机视觉、AI这些技术和它们在自动驾驶汽车上的应用很感兴趣。我那时候想更深入地了解AI的其它领域。于是我加入了一家初创公司,在那里领导工程和产品团队,将AI和计算机视觉应用于空间计算领域,研究计算的下一个界面。当时我认为计算的交互界面会是VR和AR,但现在我的想法不一样了。那时候我认为,如果我们可以用手与非常复杂的信息交互,无论是公式、分子还是拓扑概念,我们便可以更直观地了解这些东西,扩展自己的学识。然而事实证明,当时谈VR还为时过早。但这给了我许多机会,能了解不同领域的AI技术。我想我的职业生涯一直都处于技术和应用的交叉点。这给了我一个不同的视角,能大致了解AI的发展程度以及它可以应用到什么领域。杰弗里·布莱克本:所以在特斯拉的自动驾驶研究中,你看到了机器学习、深度学习的可能性,看到了它的发展方向。米拉·穆拉提:是的。但我并没有看得很清楚。杰弗里·布莱克本:你给马斯克工作过吗?米拉·穆拉提:是的,特别是在最后一年。但那时我们还不太明确AI的发展方向。当时,我们仍然只是将AI应用于特定的应用场景里,而非通用的场景。VR和AR也是如此。而我不想只是将这些技术应用于具体问题。我想做更多的研究,了解背后的原理,然后开始将这些技术应用到其他事物上。我就在这个阶段加入了OpenAI,OpenAI的使命对我非常有吸引力。当时它是一个非营利组织。现在使命没有变,但结构变了。当我6年前加入时,它是一个致力于构建安全AGI(通用人工智能)的非营利组织。当时OpenAI是DeepMind之外唯一一个做相关研究的公司。这就是我在OpenAI旅程的开始。02.3大技术进步让ChatGPT成为可能,实践证明模型能深入理解数据杰弗里·布莱克本:明白了,所以你从那时起你就一直在构建很多东西。也许你可以为在场的观众提供一些AI的基础知识。从机器学习、深度学习到现在的AI,这些概念都是相互关联的,但也各有不同。这些转变是如何发生的呢,又是如何让ChatGPT、DALL·E或者Sora这样的产品成为可能的呢?米拉·穆拉提:其实我们的产品并不是全新的,在某种意义上我们的产品是建立在过去几十年人类共同的努力的基础上的。其实AI就开始于达特茅斯学院。在过去几十年中,神经网络、大量数据和大量算力的结合带来了真正具有变革性的AI系统或模型,它们能够执行一般性任务。尽管我们不清楚其为何成功,但是深度学习真的行得通。我们也试图通过研究和工具来理解这些系统的实际运作方式。不过根据我们过去几年研究AI技术时的经验,我们知道这条路行得通。我们也见证了它们逐渐进步的轨迹。以GPT-3为例,这是一个大约三年半前部署的大型语言模型。其目标是预测下一个token,基本上是下一个单词的预测。我们发现,如果我们给这个模型预测下一个token的任务,并用大量数据训练这个模型,给它大量计算资源时,我们还能获得一个真正理解语言的模型,而且其理解水平与人类相似。它通过阅读大量书籍和互联网的信息,形成了自己对这些数据的模式的理解,而不仅仅是简单地记忆。我们还发现,这种模型不仅可以处理语言,还可以处理不同类型的数据,如代码、图像、视频和声音。它并不在乎我们输入什么数据。我们发现,数据、计算和深度学习的结合运作得非常好,通过增加数据类型和计算量,这些AI系统的性能会不断提高。这便是所谓的扩展法则(ScalingLaws)。它不是实际的法则,而是模型能力提高的统计学预测。这就是推动今天AI进步的动力。杰弗里·布莱克本:你们为什么选择了聊天机器人作为第一款产品呢?米拉·穆拉提:就产品而言,我们其实是从API开始的,而不是聊天机器人。因为我们不知道如何将GPT-3商业化。商业化AI技术实际上非常困难。我们最初专注于技术的开发和研究,我们认为只要构建了一个优秀的模型,商业伙伴就会自然地拿它去构建产品。但后来我们发现这实际上非常困难,这也是为什么我们开始自己开发产品。于是我们开始自己构建一个聊天机器人,我们试图理解为...PC版:https://www.cnbeta.com.tw/articles/soft/1436153.htm手机版:https://m.cnbeta.com.tw/view/1436153.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人