墙国破除迷信破除到AI模型领域

墙国破除迷信破除到AI模型领域 我做了一个算卦APP,接入了百度千帆大模型的API。想让API显示自动算卦,结果遭到和谐,并表示“无法对本次抽出的卦进行评价。 “占卜是一种迷信行为,没有科学位有效性或可靠性。应该相信科学和理性思考,破除迷信,树立科学的世界观、人生观和价值观。” By:匿名投稿

相关推荐

封面图片

墙国破除迷信破除到AI模型领域。我做了一个算卦APP,接入了百度千帆大模型的API。想让API显示自动算卦,结果遭到和谐,并表示

墙国破除迷信破除到AI模型领域。我做了一个算卦APP,接入了百度千帆大模型的API。想让API显示自动算卦,结果遭到和谐,并表示“无法对本次抽出的卦进行评价。\n占卜是一种迷信行为,没有科学位有效性或可靠性。应该相信科学和理性思考,破除迷信,树立科学的世界观、人生观和价值观。” by 匿名投稿 吃瓜俱乐部 @ChiGuaClub

封面图片

传奇兄妹挑战奥特曼 全球最强AI大模型一夜易主

传奇兄妹挑战奥特曼 全球最强AI大模型一夜易主 此次Claude 3一次性发了三个模型:Claude 3 Haiku、Claude 3 Sonnet与Claude 3 Opus,能力从低到高,能让客户有更多选择。为了更直观地看不同模型的特点,官方贴出了Claude 3模型与多个能力基准相当的的同行模型的比较:从这个对比上可以看到Claude在多项AI系统常用评估标准能力中的领先。三个模型中最强的Opus,所有能力皆表现优异,尤其是在研究生级别专家推理(GPQA)、数学、编码等赛道,算得上遥遥领先,完全碾压GPT-4,以及Gemini 1.0 Ultra。不过,在关注技术领先性之外,此次Claude3的发布还有哪些值得思考的亮点?01出走OpenAI的分歧者Anthropic再次重点强调了Claude大模型的安全性,这也是Anthropic的价值观。提到这一点,就不得不说Anthopic的创立。Anthropic的创始人Dario Amodei和Daniela Amodei兄妹俩,二人原本都是OpenAI的员工。在OpenAI刚刚成立时,原来在Stripe担任CTO的Greg Brockman加入OpenAI后,先是从Google将Dario挖了过来负责AI安全,随着OpenAI的发展,Dario一路做到OpenAI研究副总裁的位置。接着Brockman将妹妹Daniela也从Stripe挖到了OpenAI,Daniela同样也是做到了OpenAI安全和政策副总裁的位置。兄妹俩是西方社会非常典型的理想主义者,尤其是妹妹,一直关注穷人、腐败、地球环境等等全球议题。他们加入OpenAI的原因,除了Brockman的原因,最重要的是,当初OpenAI的定位是开源的非营利机构,目标是要为人类构建安全的AGI。不过,随着马斯克的离开和随后微软的加入,OpenAI的定位和价值观都开始发生变化。Dario和Daniela,以及OpenAI的很多员工开始与Altman的理念发生分歧,后来兄妹俩,加上曾在OpenAI负责GPT-3模型的Tom Brown一共7个人从OpenAI离开,并在2021年1月成立了Anthropic。Anthropic的意思是“与人类有关的”,从名字就可以看到Anthropic的目标和愿景。Amodei兄妹一直强调,他们的团队有着高度一致的AI安全愿景,创始团队七个人的共同特点是重视AI安全,包括语言模型的可解释性、可控可靠,想让模型更安全,更符合人类价值观,目标是“建立有用、诚实和无害的系统”。这些话术听上去并不陌生,因为这就是OpenAI最初广为人知的愿景的2.0版。但在卖身微软后,商业变成了OpenAI的第一要义,加上对于AI风险不加节制的态度,和宫斗后组织结构上的巨大变化,也让OpenAI和Altman的形象逐渐变得负面。虽然Anthropic的成立时间要比OpenAI晚很多,但Claude的发布时间并不比ChatGPT晚多少,甚至开发完成的时间比ChatGPT更早。根据外媒的报道,Claude之所以没有在第一时间对外发布的最重要原因,是因为Amodei兄妹担心安全问题,认为还需要时日,确保模型安全后,才能真正向世人发布。这也给了ChatGPT和OpenAI率先引发全球关注的机会。不管怎样,目前Claude已经成长为ChatGPT最大的对手,即便是Google,以及作为OpenAI发起人马斯克的大模型,与GPT4和Claude3还是有一段距离的。02安全对策:宪法AI技术从成立之初,Anthropic就有专门的AI安全团队,专门负责降低虚假信息、生物安全滥用、选举干预、隐私等方面的风险,尽可能增强安全性的透明度。Amodei兄妹曾经提到现有的大型语言模型“会说一些可怕、有偏见或不好的话”,比如教用户自杀或杀人,种族主义或性别歧视等等,AI安全研究需要降低甚至排除它们做坏事的可能性。为此,他们在Claude训练中引入了一种叫做“宪法AI(Constitutional AI,CAI)”的技术。根据Anthropic的官方解释,在训练过程中,研究人员会定义一些符合人类公序良俗的原则来约束系统的行为,如不得产生威胁人身安全的内容,不得违反隐私或造成伤害等。这些原则包括联合国人权宣言、Apple服务条款的一部分、Anthropic的AI研究实验室原则等等。确保为大模型提供正确的价值观。当然,和世界上任何一种号称要秉持公序良俗的大模型价值观一样,这些原则的选择完全是主观的,并且一定会受到训练它的研究人员的影响。Anthropic也承认这一点,但也表示绝对的公平、正确的价值观肯定是不存在的,只能是尽可能纳入更多元的文化和价值观。该技术的关键在于,研究人员会先训练一个价值观正确的AI,再用它监督训练其他AI,通过AI模型之间的互动与反馈来优化系统,而不是人与模型的互动。该方法被称为基于AI反馈的强化学习(Reinforcement Learning from AI Feedback,RLAIF),理论上对人类更加可靠与透明。该技术一定程度上牺牲了语言生成的自由度,但理念无疑却是比较受欢迎的,毕竟如今全球对AI的警惕也是越来越高,以马斯克为首的很多人都要求政府严格监管 AI,而且这种趋势也正在逐渐形成,各种法规也在陆续出台。值得注意的是,RLAIF在提高大模型安全性的同时,其实还解决了生成式AI互动中的拒绝或回避的问题。在RLAIF之前,行业训练生成式AI的方法都是“基于人类反馈的强化学习”(Reinforcement Learning from Human Feedback,RLHF),也就是我们熟知的外包人工给AI做人工筛选、标识、排序等等。但这种人工训练也会产生很多问题,比如人类普遍缺乏积极处理负面要求的能力,这就会导致AI在面对很多负面的问题,和人类的反馈一样,会说,我不知道,我不理解,或者干脆拒绝回答。这也引发一个新问题,不能给出答案意味着没有用,但若是给出答案,又意味着有害,价值观不正确。这也是Anthropic提出RLAIF,并在此基础上训练出“宪法AI”的缘由。在此次Claude3发布时,Anthropic解释说,此前Claude模型经常因为理解不到位,而不必要地拒绝回答。而这一次的Claude 3系列,已经在这方面取得了显著改进。在面对可能触及系统安全边界的询问时,大大减少了拒绝回应的情况。如图所示,Claude 3模型对请求表现出更细致的理解,能够识别真正的危害,并且因为对上下文理解的增强,拒绝回答无害的提示的频率要要少得多。03OpenAI会收复失地吗作为成立不过两年多的初创公司,眼下无论是规模、估值、收益等等方面,Anthropic都完全无法与OpenAI相提并论。不过,AI安全和人类的利益作为最大的亮点和卖点,这或许会帮Anthropic走出一条与OpenAI不一样的路。虽然短期内难以全面超越OpenAI,但Anthropic的目标并不小,不包括前几轮的投资在内,Anthropic计划在未来筹集50亿美元,以与OpenAI竞争,并进入十几个行业。Anthropic的投资人团队非常强大,包括Skype联合创始人Jaan Tallinn、Google、Salesforce、Zoom、SK和其他投资方。其中Google用3亿美元换取了该公司10%的股份。这种关系被很多人看作最初微软和OpenAI之间的合作关系,即微软出资,用来支持OpenAI的研究。后来的事情大家也都清楚了,如马斯克的诉状中所说,GPT4本质已经变成微软的产品,OpenAI已经变成了微软的闭源子公司,OpenAI在开发且不断完善AGI以最大化微软的利润,而不是造福人类。不过目前Google与Anthropic的关系,仍仅限于Google是Anthropic的技术支持和资金提供方,而且双方在大模型领域还是竞争对手。至于未来是否会朝微软和OpenAI的方向发生变化,一切都很难料。Claude3发布后,立刻吸引了全球的关注,并被称行业称作“全球最强AI模型”,一夜之间就取代了GPT4的位置。有人在狂欢,为AI技术的飞速进步欢欣鼓舞;也有人为AI领域出现了另一个价值观正确、能制衡OpenAI的巨头而欣慰;当然,更多人将目光投向OpenAI,并且对GPT5寄予了很大的希望,认为GPT5极有可能收复失地,在大语言模型主战场扳回一局。GPT5到底能有多强大?去年Altman在公开的演讲中,提到OpenAI已经开发出了比GPT4更强大、更难以想象的东西,远超人们的期待... PC版: 手机版:

封面图片

【周鸿祎关于大模型的2023年100条语录】

【周鸿祎关于大模型的2023年100条语录】 1、2024大模型发展四大预测:大模型不会垄断,不会成为操作系统,将会无处不在。不像操作系统全世界就那么几套; 大模型一方面追求“大”,另一方面也会追求“小”,汽车上可能会部署出来更多的大模型; 多模态将成为国产大模型的标配;国内会出现很多垂直大模型,走进百行千业,向产业化方向发展。 2、不要高估大模型现在的能力,也不要低估大模型未来的潜力。 3、建立 AI 信仰:相信 Al是真 Al、相信Al是工业革命级技术、相信 AI将重塑所有业务、相信不拥抱AI的公司和个人都将被淘汰。 4、All in AI 要思考的三个问题:对上对下一一组织内部所有人是否都在用AI?对内一内部业务流程被改造会怎么样?对外一一产品和服务被AI加持会怎么样? 5、未来衡量公司前景要看“含 AI量”:业务中有多少环节被 AI 优化、被 AI 赋能、被AI改造。 6、我是做安全出身的,本来应该是最悲观的人,因为我们看到的往往都是技术带来的负面效应。但在大模型这件事上,我是坚定的发展派。 7、中国不发展大模型才是最大的不安全,虽仍存差距,中国大模型发展速度已是奇迹。 8、大模型不是风口和泡沫。即使是风口,也得吹五年到十年。对创业者来说,还有十年红利期。 9、场景红利是中国大模型弯道超车的关键,大模型真正的机会是结合场景发展垂直大模型。 10、大模型现在还很「高大上」,要把它拉下神坛,真正的走进千家万户,影响百行干业,这才是大模型引发工业革命的道路。 11、大模型的未来不会成为操作系统,而是会成为个人电脑,成为数字化系统的标配。 12、未来大模型在中国的发展之路:不会有垄断,不会只有3-5个大模型,大模型将无处不在。 13、开源就像是 AK47:价格便宜,火力足,分量够,能够实现「科技平权」。 14、大模型领域,巨头一定会用全家桶的思路,把自己的全家桶产品装上它们的大模型。用户会就近使用,所以存量市场在未来很难有大的改变。 15、80% 去中心化的企业级市场,蕴含着巨大的机会。 16、大模型能产生知识模糊、制造知识幻觉,可以看成创造力的展现。在此之前,世界上所有的动物只有人类会瞎编。 17、国家大战略是产业数字化。互联网企业要甘当配角,顺势而为,把数字化能力和大模型能力赋能传统企业,特别是制造业,帮助他们实现数字化、智能化。 18、行业大模型可能是一个幻觉。不会出现公有服务的行业大模型,但很多企业仍然会做私有的行业大模型。 19、垂直大模型是创业者的金光大道。 20、在企业里面做大模型,要忘掉 ChatGPT 这个榜样。 21、大模型的六个垂直的趋势:行业垂直化、企业垂直化、专业垂直化、小型垂直化、分布式垂直化、专有垂直化。 22、把大模型看低一点,就是企业业务系统的智能化的升级。企业业务系统分成很多垂直的部分,大模型也应该做到专业垂直。 23、企业里不一定需要GPT4 这样的全才、通才或者天才,而是需要有垂直领域经验和技能的人才,这就是垂直模型要干的事情。 24、(创业者)不要等到大模型无所不能才开始做,只要想清楚了产品应用的场景,现在就能做。 25、大模型创业要快速行动,first move,just do it。 26、大模型最常用的功能只有两个:知识问答、写作生成。应该先把大模型这两个功能找到各种细化的垂直场景应用。 27、大模型不是万能的,很多业务系统是不能被取代的。创业者千万不要介入旧系统的改造之中,陷入其中可能长期无法交付。 28、大模型要跟现有的系统做一定的隔离,尽量少发生 API,函数调用的联系。 29、人工智能应当作为副驾驶,不要让它来做出不可撤销的决定。 30、坚持 AI 普惠的原则,大模型发展要以人为本。 31、做大模型的创业,不要给企业宣扬有了这个东西就会裁员。 32、能用程序解决的问题千万不要用自然语言去解决问题。不要去迷信 LUI,未来 CUI、GUI将成为主流。 33、构建企业级大模型,应该遵循安全、向普、可信、可控。 34、永远让人在决策的回路上,而不能让大模型决策。 35、大模型技术的三大发展方向:机器人、自动驾驶、科学研究。 36、大模型是工业革命级别的技术创新,美国AIlin Al,正掀起一轮新的产业革命。 37、大模型企业级场景应用要炼就“九阳神功”一:私有化部署千亿通用大模型。二:AI生产力工具集。三:个性化定制数字员工。四:数据工厂、知识工厂、模型工厂。五:基础大模型。六:训练垂直模型。七:智能体工场。八:业务连接与协作平台。九:全面AI化。 38、做大模型要坚持长期主义,肩负起担当,保持理想主义。 39、绝大多数人这辈子的使命是用好 Al,而不是做Al。 40、数字人最重要的是能够有自己的人设,最后能够自主学习,能够连接外围系统。 41、未来的数字人不是简单的对口型的形象,也不是简单的念稿的机器,而是能够真正跟每个人进行对话、交流,进行帮助、讨论。 42、不是只有当老板才有助理。我们做人工智能,最重要的是让每个人都可以有一堆 AI 助理为自己所用。 43、每个企业员工都可以有自己的数字专家、数字助手。 44、数字永生这个概念离我们并不遇远,我们可能模拟出来一个伊隆,马斯克,一个爱因斯坦,一个周鸿祎,数字人模拟他们的说话口吻、思维方式、知识和积累,使得我们可以跟他们去交流。 45、数字人可以让我们换一种读书的方式,不是死读书,而是直接和书里的人产生交流。 46、人工智能不是新物种,是新工具。 47、怎么保证大模型不说错话,训练另外一个 大模型来训练这个大模型,这不是个笑话。 48、中国已经进入“百模大战”,各家做大模型基础能力都差不多,比拼的是谁对普通人来说更好用。 49、大模型发展 3个月,相当于历史上的技术发展30年。 50、大模型不会造成大规模失业,反而提升效率。 51、通用技术才能引发工业革命,像水电一样输送到办公E族。 52、大模型价值不仅仅在于使用量,在于未来把 AI能力通用化、泛化、垂直化。 53、未来在职场上,熟练掌握 AI 有时候要比职场经验更有优势。 54、大模型能让小白变成专家,能帮助一个普通的坏蛋写出出色的钓鱼软件,与此同时也能扮演“正义助手”。 55、我们不能把大模型当作黑盒子,了解工作原理,才能从根本上解决安全问题。 56、AI 进化应该以人为本,大模型应该成为人类的朋友和助手。 57、大模型不是玩具,不是搜索引擎、不是聊天机器人、这些都是它亲民推广的伪装,背后强大的超级大脑代表着超级人工智能时代的来临。 58、大模型出来前,所有自动驾驶都只是辅助驾驶。 59、只有有了多模态全面的能力,才预示着大模型真正地走上一个新的台阶。 60、谁真正通过大模型把人类的语言做了重新的编码、学习、训练,也就对人类掌握的知识有了一个重新的压缩和蒸馏。 61、GPT 的模型、算法、路线是已知的,但是出现很多现象 OpenAI 的人也没法解释,比如智力的突变,语言及逻辑的迁移,像是从猿到人的变化。 62、大模型帮我们解锁了很多原来只有专业人士才能解锁的技能,比如写代码、绘画,让有才华但缺乏专业训练的人也可以发挥自己才华。 63、超级人工智能不应该先解决娱乐问题,应该反向解决常温超导和可控核聚变问题,帮助人类实现能源自由。 64、搜索不会犯错,是因为搜索不智能,真正的人工智能一定会犯错,它的错误来自海量知识在推理过程中产生的突变。 65、在大模型面前,人类自认为独有的特质不存在了:想象力、创造力。 66、不必质疑大模型的创作是模仿和借鉴,人类写东西哪个不是模仿和借鉴呢? 67、我们老说眼见为实,耳听为虚。现在来看,未来互联网上大量的内容会不会都是AI生成的?所以希望大家正确地使用文生视频能力。 68、数字人是未来人工智能大模型对我们每个人和对每个企业来说最合适的入口。 69、未来,有不同人设,不同经历,不同角色的数字人可以在人工智能驱动下,一起来帮人们做脑力激荡,完成共同的目标。 70、未来数字人会继续迭代,调用大模型的能力。拥有大模型不具备的长期记忆力。同时,数字人可以有自己的目标、规划和分解能力,使得它可以不断地调用各种垂直的模型完成任务。 71、未来人工智能的发展不仅仅是大模型核心能力的增加,外部功能的包装,人工智能跟每个人的工作、生活贴得更近,每个人能更自如地使用人工智能。 72、大模型会一本正经胡说八道,恰是大模型真正智能的体现,也是最可怕的地方。因为人才会犯错误,才会胡编乱造,能描绘不存在的东西。 73、大模型的训练过程分成三层:知识铺垫、基于人工反馈的强化学习、价值观的校正纠偏,很像一个小孩从小到大学习的过程。 74、用人类聊天素材训练出来的机器人不只是“人工智障”,更是“人工杠精”。 75、任何行业的APP、软件、网站、应用,都值得用大模型的能力重塑一遍。搭不上这班车就会被淘汰。 76、大模型将作为“发电厂”把大数据加工成“水”和“电”,通过API接口以SaaS服务的方式输出给千行百业,全面提升人类社会智能化水平。 77、大模型可以极大地提高劳动生产率。用的人越多,教它的技能越多,它就能进入更多新的领域。 78、未来每个行业、每个公司、甚至每个人都会有自己的私有化的大模型。 79、OpenAI在ChatGPT的研发上做到了“四大一强”:大模型、大数据、大算力、大标注、强算法。 80、我们中国人的工程化能力很强,我们模仿能力也很强,后来居上也不是不可能。 81、一人捅破窗户纸,千军万马独木桥。从0到1难,但中国公司技术打磨很强。剩下就是时间,问题。 82、数据获取和清洗、人工知识训练和场景是大模型未来发展的三个关键。 83、“机器人造机器人”可能会从大模型具备写软件能力时开始。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人