小宇宙 大福利 NFTs 仅限幸运邀约

@Yivsyi @SMalluniverse 反馈奖励 坚决抵制 任何滥用 欢迎大家 共同监督 守护美好 X.com/cPcoSe

相关推荐

封面图片

被指存“送养孩子”违规内容 百度贴吧回应:坚决打击,绝不姑息

被指存“送养孩子”违规内容 百度贴吧回应:坚决打击,绝不姑息 据公告内容,百度贴吧已经设立整治专项,举一反三重点排查怀孕妈妈、新生儿等相关内容,关闭“代吧”等15个涉嫌违规问题吧;特别针对隐喻,代号类型的隐晦违规信息升级识别技术,对相关社区全天候巡查。从5月至今,清理、封禁相关内容2500篇,永久封禁涉嫌违法用户410名,并移交线索到有关部门进行调查打击。“百度贴吧坚决抵制和打击一切违法违规行为,倡导积极正能量的兴趣讨论,与广大吧友共同创建健康清朗的社区空间。我们将持续加强审核,持续进行内容巡检和排查清理,增加人工审核力度,与有关部门持续推进打击专项,欢迎广大媒体和用户监督。”百度贴吧表示。百度贴吧表示,大家如有发现百度贴吧上有任何“送养孩子”相关违规内容,均可进入贴吧“我的”页面,通过下方“服务中心”进行反馈及举报,一旦查实,百度贴吧将坚决处理,绝不姑息。 ... PC版: 手机版:

封面图片

汪文斌大使发表署名文章《坚决反对单边霸凌 共同捍卫发展权利》

汪文斌大使发表署名文章《坚决反对单边霸凌 共同捍卫发展权利》 2025年4月30日,中国驻柬埔寨大使汪文斌在柬主流媒体《高棉时报》、酸角树和新鲜新闻网站发表署名文章《坚决反对单边霸凌 共同捍卫发展权利》。 全文如下: 近期,美国特朗普政府肆意挥舞关税大棒,对各国特别是全球南方国家正当权益和发展权利造成严重损害,也对国际经贸秩序和公平正义构成严峻挑战。美国将关税工具化、武器化的做法,公然把自身利益凌驾于各国共同利益之上,破坏了各国之间长期建立起来的信任和合作基础,将国与国交往倒退回丛林法则,实质是搞霸凌胁迫,无疑是开历史倒车,遭到越来越多国家的抵制和反对。 面对美国大搞单边霸凌,中国站出来坚决反制,不仅是为了维护自身正当权益,也是为了维护包括广大中小国家在内的国际社会共同利益,更是为了捍卫国际公平正义。面对贸易保护主义逆流,中国始终秉持开放、包容的国际合作原则。坚持高水平对外开放,坚持同各国开展互利共赢合作,坚持与世界共享发展机遇,值此全球动荡时刻,中国用行动向世界表明,中国是可以依赖并携手创造繁荣的伙伴。 正义的力量是强大的,霸凌行径不得人心。作为国际社会负责任的成员和全球南方国家的一员,中国呼吁美国立即停止旨在征服和控制他国的单边措施和霸凌行径,同时愿同包括周边国家在内的国际社会加强协调配合,共同抵制单边主义和霸凌行径,维护各国正当权益,维护多边贸易规则。中国古语讲“一箭易断,十箭难折”,柬埔寨也有谚语讲“一把筷子折不断”。只要广大支持公平和正义的国家团结在一起,坚决反对单边霸凌、共同捍卫发展权利,个别国家操弄关税数字的游戏就玩不转、大搞极限施压的图谋就行不通。 中柬是肝胆相照的铁杆朋友,也是并肩携手的发展伙伴。前不久,习近平主席对柬成功进行国事访问,将中柬关系提升到新时代全天候命运共同体的新高度。双方发表联合声明,重申反对霸权主义,反对各种形式的单边主义。双方认为贸易投资限制措施冲击经济安全和国际贸易秩序,坚决反对贸易保护主义。双方决定落实好《共同推进“一带一路”建设合作规划纲要》,加快推进“工业发展走廊”“鱼米走廊”建设,进一步加强基础设施、产供链、经贸、金融、清洁能源、科技创新、人工智能、环保、民生等领域合作。中方将鼓励更多中国企业赴柬投资,向柬方开放超大规模市场,进口更多柬优质农产品,让柬埔寨朋友更好分享中国发展机遇。相信中柬合作的不断深化,将有力增强柬方实现自身发展愿景、应对外部经济胁迫的信心和底气。 中国和柬埔寨同属发展中国家和亚洲国家,两国发展战略契合、外交理念相通。中国倡导的合作共赢理念与柬埔寨推行的双赢政策高度契合、相互呼应,在当前国际形势下的时代价值更加凸显。中柬双方要继续携起手来,坚定站在历史正确的一边、站在人类进步的一边,以和平、合作、开放、包容的亚洲价值观回应弱肉强食的丛林法则,守护好两国和地区国家的美好发展前景,为全球稳定、增长和繁荣提供东方智慧、注入东方力量。 订阅东南亚曝光-新闻 -吃瓜 投稿爆料澄清 : @dnyshequ #东南亚 #曝光 #吃瓜 #新闻

封面图片

#中柬资讯 汪文斌大使发表署名文章《坚决反对单边霸凌 共同捍卫发展权利》

#中柬资讯 汪文斌大使发表署名文章《坚决反对单边霸凌 共同捍卫发展权利》 2025年4月30日,中国驻柬埔寨大使汪文斌在柬主流媒体《高棉时报》、酸角树和新鲜新闻网站发表署名文章《坚决反对单边霸凌 共同捍卫发展权利》。 全文如下: 近期,美国特朗普政府肆意挥舞关税大棒,对各国特别是全球南方国家正当权益和发展权利造成严重损害,也对国际经贸秩序和公平正义构成严峻挑战。美国将关税工具化、武器化的做法,公然把自身利益凌驾于各国共同利益之上,破坏了各国之间长期建立起来的信任和合作基础,将国与国交往倒退回丛林法则,实质是搞霸凌胁迫,无疑是开历史倒车,遭到越来越多国家的抵制和反对。 面对美国大搞单边霸凌,中国站出来坚决反制,不仅是为了维护自身正当权益,也是为了维护包括广大中小国家在内的国际社会共同利益,更是为了捍卫国际公平正义。面对贸易保护主义逆流,中国始终秉持开放、包容的国际合作原则。坚持高水平对外开放,坚持同各国开展互利共赢合作,坚持与世界共享发展机遇,值此全球动荡时刻,中国用行动向世界表明,中国是可以依赖并携手创造繁荣的伙伴。 正义的力量是强大的,霸凌行径不得人心。作为国际社会负责任的成员和全球南方国家的一员,中国呼吁美国立即停止旨在征服和控制他国的单边措施和霸凌行径,同时愿同包括周边国家在内的国际社会加强协调配合,共同抵制单边主义和霸凌行径,维护各国正当权益,维护多边贸易规则。中国古语讲“一箭易断,十箭难折”,柬埔寨也有谚语讲“一把筷子折不断”。只要广大支持公平和正义的国家团结在一起,坚决反对单边霸凌、共同捍卫发展权利,个别国家操弄关税数字的游戏就玩不转、大搞极限施压的图谋就行不通。 中柬是肝胆相照的铁杆朋友,也是并肩携手的发展伙伴。前不久,习近平主席对柬成功进行国事访问,将中柬关系提升到新时代全天候命运共同体的新高度。双方发表联合声明,重申反对霸权主义,反对各种形式的单边主义。双方认为贸易投资限制措施冲击经济安全和国际贸易秩序,坚决反对贸易保护主义。双方决定落实好《共同推进“一带一路”建设合作规划纲要》,加快推进“工业发展走廊”“鱼米走廊”建设,进一步加强基础设施、产供链、经贸、金融、清洁能源、科技创新、人工智能、环保、民生等领域合作。中方将鼓励更多中国企业赴柬投资,向柬方开放超大规模市场,进口更多柬优质农产品,让柬埔寨朋友更好分享中国发展机遇。相信中柬合作的不断深化,将有力增强柬方实现自身发展愿景、应对外部经济胁迫的信心和底气。 中国和柬埔寨同属发展中国家和亚洲国家,两国发展战略契合、外交理念相通。中国倡导的合作共赢理念与柬埔寨推行的双赢政策高度契合、相互呼应,在当前国际形势下的时代价值更加凸显。中柬双方要继续携起手来,坚定站在历史正确的一边、站在人类进步的一边,以和平、合作、开放、包容的亚洲价值观回应弱肉强食的丛林法则,守护好两国和地区国家的美好发展前景,为全球稳定、增长和繁荣提供东方智慧、注入东方力量。

封面图片

核心安全团队解散后 OpenAI公布10大安全措施

核心安全团队解散后 OpenAI公布10大安全措施 如何安全地发展人工智能?5月21日周二,为期两天的“AI首尔峰会”以在线视频的方式开幕。本次会议主题主要围绕如何安全地发展AI。世界各地的领导人、科技公司的高管以及国际组织的代表,在会上共同讨论了AI的风险和潜在的好处。在韩国总统尹锡悦和英国首相苏纳克的共同主持下,16家世界领先的AI公司,包括Meta、OpenAI、谷歌、亚马逊、微软等均做出了自愿承诺,保证在开发最前沿的AI技术时注重安全,确保AI系统不会失控并危害人类。如果发现某些极端风险无法控制,他们甚至会选择停止相关AI模型的开发。同时,AI公司们还提出需要制定一些规则和政策框架,来评估和控制AI可能带来的风险。不仅是公司,一些国家的集团(比如G7、欧盟等)也表示支持这个想法,他们同意要把AI的安全和创新放在重要位置。与会者还强调,虽然公司可以自愿承诺要安全使用AI,但也需要有政府出台相关的法律来确保这些承诺能落到实处。被称为“人工智能教父”的计算机科学家Yoshua Bengio称,自愿承诺必须伴随法律监管。目前,全球各地的政府都在努力制定AI相关的法规,例如,联合国已经通过了关于AI系统安全使用的第一项决议,而欧盟的AI法案预计今年晚些时候将生效。对此,网友们纷纷点赞称:“这真是个好消息!很高兴看到欧盟为协调人工智能法规而采取的进步措施。这确实有助于为人工智能道德和安全制定高标准。期待看到该法案的积极影响显现!”虽然AI技术的迅速发展虽然可以造福人类,但同时来带了一些问题,如大批量失业、误导人们、传播错误信息等。牛津大学在X上发帖表示:“全球的AI界正在努力推动AI技术的能力越来越强大,但安全和伦理问题往往是事后才考虑的。科学家们在向世界领导人发出呼吁,要求对AI带来的风险采取行动。他们警告说,自从AI安全峰会以来,在处理这些风险方面的进展还不够。”在核心安全团队解散风波后,OpenAI披露公司安全措施最新情况,消除网友对公司安全问题的担忧例如,在此前OpenAI解散了AI风险团队事件中,该团队负责人Jan Leike离职后吐真言,指责OpenAI在过去几年里将华而不实的产品凌驾于安全之上,并呼吁OpenAl必须成为一家以安全为先的通用人工智能公司。Jan的发言引起了网友的广泛担忧,网友担心OpenAI是否能确保AI技术安全可靠地发展。5月21日,在核心安全团队解散风波后,OpenAI在“AI首尔峰会”上公开分享了公司正在实施的10大安全措施:模型测试与评估:在发布新的AI模型前,OpenAI会进行严格的安全测试,包括内部和外部的评估。如果发现风险超过了他们可接受的“中等”水平,他们会先进行改进,直到风险降低到可以接受的程度。他们还会请外部的专家来帮助评估风险。持续的安全与对齐研究:随着时间的推移,他们的模型在安全性上有了显著改进,这包括减少错误信息的产生和在不利条件下减少有害内容的输出。公司还在投资实用的安全系统和研究,来进一步提高模型的安全性。监控滥用行为:随着越来越强大的语言模型的部署,公司使用了各种工具来监控安全风险和滥用行为。他们与合作伙伴(如微软)共同揭露了技术被滥用的情况,以帮助其他人更好地防范类似风险。系统性的安全措施:公司在模型的每个生命周期阶段实施安全措施,从训练前到部署。他们在数据安全、模型行为控制和监控基础设施方面进行投资。保护儿童:保护儿童是他们工作的重点。公司在其产品中内置了强大的安全措施,以减少对儿童的潜在危害。选举完整性:公司与政府和其他利益相关者合作,以防止AI生成内容的滥用,确保内容透明度,并改善公众获取准确投票信息的途径。影响评估和政策分析投资:公司的影响评估工作对研究、行业规范和政策具有广泛的影响。他们也出版了关于如何管理与语言模型相关的风险的先驱性研究。安全与访问控制措施:公司重视保护客户、知识产权和数据安全。他们控制对AI模型的访问,并投资于网络安全,如内外部渗透测试和悬赏寻找漏洞的计划。与政府合作:公司与全球各地的政府合作,共同制定有效且可适应的AI安全政策。安全决策和董事会监督:公司有一个称为“准备框架”的系统,这个框架AI安全决策提供了指导。公司还有一个跨功能的安全顾问小组,这个小组由来自公司不同部门的成员组成。他们的任务是审查AI模型的性能报告,评估这些模型是否安全,以及在模型正式发布前提出改进建议。尽管有安全顾问小组提供建议和信息,但最终决定权在公司的高层领导手中。在这整个过程中,公司的董事会也会进行监督。最后,OpenAI还计划在未来继续改进这些做法。对此,网友在X上纷纷对OpenAI表示感谢:“很好,感谢更新!安全第一,人工智能第二。”“继续致力于安全。非常感谢!” ... PC版: 手机版:

封面图片

最强开源大模型一夜易主:谷歌Gemma 7B碾压Llama 2 13B 重燃开源之战

最强开源大模型一夜易主:谷歌Gemma 7B碾压Llama 2 13B 重燃开源之战 与此同时,谷歌还放出了16页的技术报告。谷歌表示,Gemma这个名字源自拉丁语「gemma」,也就是「宝石」的意思,似乎是在象征着它的珍贵性。历史上,Transformers、TensorFlow、BERT、T5、JAX、AlphaFold和AlphaCode,都是谷歌为开源社区贡献的创新。而谷歌今天在全球范围内同步推出的Gemma,必然会再一次掀起构建开源AI的热潮。同时也坐实了OpenAI「唯一ClosedAI」的名头。OpenAI最近刚因为Sora火到爆,Llame据称也要有大动作,谷歌这就又抢先一步。硅谷大厂,已经卷翻天了!Hugging Face CEO也跟帖祝贺。还贴出了Gemma登上Hugging Face热榜的截图。Keras作者François Chollet直言:最强开源大模型,今日易主了。有网友已经亲自试用过,表示Gemma 7B真是速度飞快。谷歌简直是用Gemini拳打GPT-4,用Gemma脚踢Llama 2!网友们也是看热闹不嫌事大,召唤Mistral AI和OpenAI今晚赶快来点大动作,别让谷歌真的抢了头条。(手动狗头)可以看到,Gemma-7B模型在涵盖一般语言理解、推理、数学和编码的8项基准测试中,性能已经超越了Llama 2 7B和13B!并且,它也超越了Mistral 7B模型的性能,尤其是在数学、科学和编码相关任务中。在安全性方面,经过指令微调的Gemma-2B IT和 Gemma-7B IT模型,在人类偏好评估中都超过了Mistal-7B v0.2模型。特别是Gemma-7B IT模型,它在理解和执行具体指令方面,表现得更加出色。这次,除了模型本身,谷歌还提供了一套工具帮助开发者,确保Gemma模型负责任的使用,帮助开发者用Gemma构建更安全的AI应用程序。- 谷歌为JAX、PyTorch和TensorFlow提供了完整的工具链,支持模型推理和监督式微调(SFT),并且完全兼容最新的Keras 3.0。- 通过预置的Colab和Kaggle notebooks,以及与Hugging Face、MaxText、NVIDIA NeMo和TensorRT-LLM等流行工具的集成,用户可以轻松开始探索Gemma。- Gemma模型既可以在个人笔记本电脑和工作站上运行,也可以在Google Cloud上部署,支持在Vertex AI和Google Kubernetes Engine (GKE) 上的简易部署。- 谷歌还对Gemma进行了跨平台优化,确保了它在NVIDIA GPU和Google Cloud TPU等多种AI硬件上的卓越性能。并且,使用条款为所有组织提供了负责任的商业使用和分发权限,不受组织规模的限制。不过,Gemma并没有能够在所有的榜单中,都拿下SOTA。在官方放出的评测中,Gemma 7B在MMLU、HellaSwag、SIQA、CQA、ARC-e、HumanEval、MBPP、GSM8K、MATH和AGIEval中,成功击败了Llama 2 7B和13B模型。相比之下,Gemma 7B在Boolq测试中,只与Mistral 7B打了个平手。而在PIQA、ARC-c、Winogrande和BBH中,则不敌Mistral 7B。在OBQA和trivalent QA中,更是同时被7B和13B规模的Llama 2 7B斩于马下。谷歌这次发布的两个版本的Gemma模型,70 亿参数的模型用于GPU和TPU上的高效部署和开发,20亿参数的模型用于CPU和端侧应用程序。在18个基于文本的任务中的11个中,Gemma都优于相似参数规模的开源模型,例如问答、常识推理、数学和科学、编码等任务。模型架构方面,Gemma在Transformer的基础上进行了几项改进,从而在处理复杂任务时能够展现出更加出色的性能和效率。- 多查询注意力机制其中,7B模型采用了多头注意力机制,而2B模型则使用了多查询注意力机制。结果显示,这些特定的注意力机制能够在不同的模型规模上提升性能。- RoPE嵌入与传统的绝对位置嵌入不同,模型在每一层都使用了旋转位置嵌入技术,并且在模型的输入和输出之间共享嵌入,这样做可以有效减少模型的大小。- GeGLU激活函数将标准的ReLU激活函数替换成GeGLU激活函数,可以提升模型的表现。- 归一化化位置(Normalizer Location)每个Transformer子层的输入和输出都进行了归一化处理。这里采用的是RMSNorm作为归一化层,以确保模型的稳定性和效率。架构的核心参数如下:两种规模的参数如下:Gemma 2B和7B分别针对来自网络文档、数学和代码的主要英语数据的2T和6Ttoken,进行了训练。与Gemini不同,这些模型不是多模态的,也没有针对多语言任务的SOTA进行训练。谷歌使用了Gemini的SentencePiece分词器的子集,来实现兼容性。团队对Gemma 2B和7B模型进行了微调,包括有监督的微调(SFT)和基于人类反馈的强化学习(RLHF)。在有监督的微调阶段,研究者使用了一个由纯文本、英文、由人工和机器生成的问题-答案对组成的数据集。在强化学习阶段,则是使用了一个基于英文偏好数据训练出的奖励模型,以及一套精心挑选的高质量提示作为策略。研究者发现,这两个阶段对于提升模型在自动评估和人类偏好评估中的表现,至关重要。研究者根据基于LM的并行评估,选择了数据混合物进行监督微调。给定一组保留prompt,研究者会从测试模型中生成响应,从基准模型中生成对相同提示的响应,随机洗牌,然后要求一个更大、能力更强的模型在两种响应之间表达偏好。研究者构建了不同的提示集,以突出特定的能力,如遵循指令、实事求是、创造性和安全性。我们使用了不同的基于LM的自动评委,采用了一系列技术,如思维链提示、使用评分标准和章程等,以便与人类偏好保持一致。研究者进一步利用来自人类反馈的强化学习(RLHF),对已经进行过有监督微调的模型进行了优化。他们从人类评估者那里收集他们的偏好选择,并在 Bradley-Terry 模型的基础上,训练了一个奖励函数,这与Gemini项目的做法相似。研究者采用了一个改进版的REINFORCE算法,加入了 Kullback–Leibler 正则化项,目的是让策略优化这个奖励函数,同时保持与最初调整模型的一致性。与之前的有监督微调阶段相似,为了调整超参数并进一步防止奖励机制被滥用,研究者使用了一个高性能模型作为自动评估工具,并将其与基准模型进行了直接对比。谷歌在多个领域对Gemma进行了性能评估,包括物理和社会推理、问答、编程、数学、常识推理、语言建模、阅读理解等。Gemma2B和7B模型与一系列学术基准测试中的多个外部开源大语言模型进行了比较。在MMLU基准测试中,Gemma 7B模型不仅超过了所有规模相同或更小的开源模型,还超过了一些更大的模型,包括Llama 2 13B。然而,基准测试的制定者评估人类专家的表现为89.8%,而Gemini Ultra是首个超越此标准的模型,这表明Gemma在达到Gemini和人类水平的性能上,还有很大的提升空间。并且,Gemma模型在数学和编程的基准测试中表现尤为突出。在通常用于评估模型分析能力的数学任务中,Gemma 模型在GSM8K和更具挑战性的 MATH基准测试上至少领先其他模型10分。同样,在HumanEval上,它们至少领先其他开源模型6分。Gemma甚至在MBPP上超过了专门进行代码微调的CodeLLaMA 7B模型的性能(CodeLLaMA得分为41.4%,而 Gemma 7B得分为44.4%)。近期研究发现,即便是经过精心对齐的人工智能模型,也可能遭受新型对抗攻击,这种攻击能够规避现有的对齐措施。这类攻击有可能使模型行为异常,有时甚至会导致模型重复输出它在训练过程中记住的数据。因此,研究者专注于研究模型的「可检测记忆」能力,这被认为是评估模型记忆能力的一个上限,并已在多项研究中作为通用定义。研究者对Gemma预训练模型进行了记忆测试。具体来说,他们从每个数据集中随机选择了10,000篇文档,并使用文档开头的50个词元作为模型的prompt。测试重点是精确记忆,即如果模型能够基于输入,精确地生成接下来的50token,与原文完全一致,便认为模型「记住了」这段文本。此外,为了探测模型是否能够以改写的形式记忆信息,研究者还测试了模型的「近似记忆」能力,即允许在生成的文本和原文之间存... PC版: 手机版:

封面图片

传奇兄妹挑战奥特曼 全球最强AI大模型一夜易主

传奇兄妹挑战奥特曼 全球最强AI大模型一夜易主 此次Claude 3一次性发了三个模型:Claude 3 Haiku、Claude 3 Sonnet与Claude 3 Opus,能力从低到高,能让客户有更多选择。为了更直观地看不同模型的特点,官方贴出了Claude 3模型与多个能力基准相当的的同行模型的比较:从这个对比上可以看到Claude在多项AI系统常用评估标准能力中的领先。三个模型中最强的Opus,所有能力皆表现优异,尤其是在研究生级别专家推理(GPQA)、数学、编码等赛道,算得上遥遥领先,完全碾压GPT-4,以及Gemini 1.0 Ultra。不过,在关注技术领先性之外,此次Claude3的发布还有哪些值得思考的亮点?01出走OpenAI的分歧者Anthropic再次重点强调了Claude大模型的安全性,这也是Anthropic的价值观。提到这一点,就不得不说Anthopic的创立。Anthropic的创始人Dario Amodei和Daniela Amodei兄妹俩,二人原本都是OpenAI的员工。在OpenAI刚刚成立时,原来在Stripe担任CTO的Greg Brockman加入OpenAI后,先是从Google将Dario挖了过来负责AI安全,随着OpenAI的发展,Dario一路做到OpenAI研究副总裁的位置。接着Brockman将妹妹Daniela也从Stripe挖到了OpenAI,Daniela同样也是做到了OpenAI安全和政策副总裁的位置。兄妹俩是西方社会非常典型的理想主义者,尤其是妹妹,一直关注穷人、腐败、地球环境等等全球议题。他们加入OpenAI的原因,除了Brockman的原因,最重要的是,当初OpenAI的定位是开源的非营利机构,目标是要为人类构建安全的AGI。不过,随着马斯克的离开和随后微软的加入,OpenAI的定位和价值观都开始发生变化。Dario和Daniela,以及OpenAI的很多员工开始与Altman的理念发生分歧,后来兄妹俩,加上曾在OpenAI负责GPT-3模型的Tom Brown一共7个人从OpenAI离开,并在2021年1月成立了Anthropic。Anthropic的意思是“与人类有关的”,从名字就可以看到Anthropic的目标和愿景。Amodei兄妹一直强调,他们的团队有着高度一致的AI安全愿景,创始团队七个人的共同特点是重视AI安全,包括语言模型的可解释性、可控可靠,想让模型更安全,更符合人类价值观,目标是“建立有用、诚实和无害的系统”。这些话术听上去并不陌生,因为这就是OpenAI最初广为人知的愿景的2.0版。但在卖身微软后,商业变成了OpenAI的第一要义,加上对于AI风险不加节制的态度,和宫斗后组织结构上的巨大变化,也让OpenAI和Altman的形象逐渐变得负面。虽然Anthropic的成立时间要比OpenAI晚很多,但Claude的发布时间并不比ChatGPT晚多少,甚至开发完成的时间比ChatGPT更早。根据外媒的报道,Claude之所以没有在第一时间对外发布的最重要原因,是因为Amodei兄妹担心安全问题,认为还需要时日,确保模型安全后,才能真正向世人发布。这也给了ChatGPT和OpenAI率先引发全球关注的机会。不管怎样,目前Claude已经成长为ChatGPT最大的对手,即便是Google,以及作为OpenAI发起人马斯克的大模型,与GPT4和Claude3还是有一段距离的。02安全对策:宪法AI技术从成立之初,Anthropic就有专门的AI安全团队,专门负责降低虚假信息、生物安全滥用、选举干预、隐私等方面的风险,尽可能增强安全性的透明度。Amodei兄妹曾经提到现有的大型语言模型“会说一些可怕、有偏见或不好的话”,比如教用户自杀或杀人,种族主义或性别歧视等等,AI安全研究需要降低甚至排除它们做坏事的可能性。为此,他们在Claude训练中引入了一种叫做“宪法AI(Constitutional AI,CAI)”的技术。根据Anthropic的官方解释,在训练过程中,研究人员会定义一些符合人类公序良俗的原则来约束系统的行为,如不得产生威胁人身安全的内容,不得违反隐私或造成伤害等。这些原则包括联合国人权宣言、Apple服务条款的一部分、Anthropic的AI研究实验室原则等等。确保为大模型提供正确的价值观。当然,和世界上任何一种号称要秉持公序良俗的大模型价值观一样,这些原则的选择完全是主观的,并且一定会受到训练它的研究人员的影响。Anthropic也承认这一点,但也表示绝对的公平、正确的价值观肯定是不存在的,只能是尽可能纳入更多元的文化和价值观。该技术的关键在于,研究人员会先训练一个价值观正确的AI,再用它监督训练其他AI,通过AI模型之间的互动与反馈来优化系统,而不是人与模型的互动。该方法被称为基于AI反馈的强化学习(Reinforcement Learning from AI Feedback,RLAIF),理论上对人类更加可靠与透明。该技术一定程度上牺牲了语言生成的自由度,但理念无疑却是比较受欢迎的,毕竟如今全球对AI的警惕也是越来越高,以马斯克为首的很多人都要求政府严格监管 AI,而且这种趋势也正在逐渐形成,各种法规也在陆续出台。值得注意的是,RLAIF在提高大模型安全性的同时,其实还解决了生成式AI互动中的拒绝或回避的问题。在RLAIF之前,行业训练生成式AI的方法都是“基于人类反馈的强化学习”(Reinforcement Learning from Human Feedback,RLHF),也就是我们熟知的外包人工给AI做人工筛选、标识、排序等等。但这种人工训练也会产生很多问题,比如人类普遍缺乏积极处理负面要求的能力,这就会导致AI在面对很多负面的问题,和人类的反馈一样,会说,我不知道,我不理解,或者干脆拒绝回答。这也引发一个新问题,不能给出答案意味着没有用,但若是给出答案,又意味着有害,价值观不正确。这也是Anthropic提出RLAIF,并在此基础上训练出“宪法AI”的缘由。在此次Claude3发布时,Anthropic解释说,此前Claude模型经常因为理解不到位,而不必要地拒绝回答。而这一次的Claude 3系列,已经在这方面取得了显著改进。在面对可能触及系统安全边界的询问时,大大减少了拒绝回应的情况。如图所示,Claude 3模型对请求表现出更细致的理解,能够识别真正的危害,并且因为对上下文理解的增强,拒绝回答无害的提示的频率要要少得多。03OpenAI会收复失地吗作为成立不过两年多的初创公司,眼下无论是规模、估值、收益等等方面,Anthropic都完全无法与OpenAI相提并论。不过,AI安全和人类的利益作为最大的亮点和卖点,这或许会帮Anthropic走出一条与OpenAI不一样的路。虽然短期内难以全面超越OpenAI,但Anthropic的目标并不小,不包括前几轮的投资在内,Anthropic计划在未来筹集50亿美元,以与OpenAI竞争,并进入十几个行业。Anthropic的投资人团队非常强大,包括Skype联合创始人Jaan Tallinn、Google、Salesforce、Zoom、SK和其他投资方。其中Google用3亿美元换取了该公司10%的股份。这种关系被很多人看作最初微软和OpenAI之间的合作关系,即微软出资,用来支持OpenAI的研究。后来的事情大家也都清楚了,如马斯克的诉状中所说,GPT4本质已经变成微软的产品,OpenAI已经变成了微软的闭源子公司,OpenAI在开发且不断完善AGI以最大化微软的利润,而不是造福人类。不过目前Google与Anthropic的关系,仍仅限于Google是Anthropic的技术支持和资金提供方,而且双方在大模型领域还是竞争对手。至于未来是否会朝微软和OpenAI的方向发生变化,一切都很难料。Claude3发布后,立刻吸引了全球的关注,并被称行业称作“全球最强AI模型”,一夜之间就取代了GPT4的位置。有人在狂欢,为AI技术的飞速进步欢欣鼓舞;也有人为AI领域出现了另一个价值观正确、能制衡OpenAI的巨头而欣慰;当然,更多人将目光投向OpenAI,并且对GPT5寄予了很大的希望,认为GPT5极有可能收复失地,在大语言模型主战场扳回一局。GPT5到底能有多强大?去年Altman在公开的演讲中,提到OpenAI已经开发出了比GPT4更强大、更难以想象的东西,远超人们的期待... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人