最近一个作业研究ChatGPT越狱,做完了开源出来给大家。收录了100多个越狱prompts,结合论文和自己思考,总结越狱的pr

最近一个作业研究ChatGPT越狱,做完了开源出来给大家。收录了100多个越狱prompts,结合论文和自己思考,总结越狱的prompts的分类和ChatGPT的限制,进行小范围的实验(主要是时间不够了),得出了一些结论。主要着重实验部分。目的主要是希望科研工作者以及大模型的研究者可以从攻击的角度去更好的做alignment和防御(狗头保命 Github: 求个Star feishu:

相关推荐

封面图片

ChatGPT 是如何构建的

ChatGPT 是如何构建的 当 OpenAI 在 2022 年 11 月发布 ChatGPT 时它并没有预料到这个 AI 聊天机器人会取得难以想象的成功。OpenAI 内部将之视为研究预览,旨在收集公众的反馈消除部分缺陷。参与开发 ChatGPT 的科学家 Liam Fedus 说,我们不想将其夸大为一次巨大的基础性突破。MIT 科技评论采访了 OpenAI 的科学家以及联合创始人 John Schulman,揭示 ChatGPT 的开发过程和技术细节,介绍 ChatGPT 是如何构建的。自去年 11 月以来,OpenAI 已经多次更新了 ChatGPT,主要是通过对抗性训练阻止用户诱骗聊天机器人绕过限制这种做法被称为越狱。 对于 ChatGPT 的巨大成功,OpenAI 团队也有几分感到不解,因为 ChatGPT 使用的技术都不是新的,ChatGPT 使用了微调版的 GPT-3.5,而 GPT-3.5 是 2020 年发布的 GPT-3 的更新版,OpenAI 在 2022 年 1 月发布了微调版 GPT-3.5 的预览。相关 API 也早就发布了,不过这些都不是面向公众的。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

ChatGPT无法取代人类程序员:IEEE35页论文测出困难编码正确率仅为0.66%

ChatGPT无法取代人类程序员:IEEE35页论文测出困难编码正确率仅为0.66% 其成功率从0.66%到89%不等,这主要取决于任务的难度、编程语言等多种因素。论文地址: Tang指出,“AI代码生成一定程度上,可以提升开发效率,自动化软件工程。然而,我们必须认识这类模型优势和不足,以便合理应用”。“通过全面的分析,可以发现ChatGPT生成代码过程中,出现的潜在问题和局限性,进而改进生成技术”。有网友庆幸地发出疑问,所以我还没有被解雇?另一人对此表示,至少不是今天。还有人指出,这项研究是关于GPT-3.5的评估。要是GPT-4早就在编码能力上大幅提升,Claude 3.5更是如此。确实,现在我们有了更好的模型,对于GPT-3.5模型的评估,并没有太大的意义。0.66%-89%,惊人反差率总体而言,ChatGPT在不同编程语言的问题上表现相当不错特别是在尝试解决2021年之前LeetCode上的编码问题时。例如,它能够为简单、中等和困难的问题生成可运行代码,成功率分别约为89%、71%和40%。然而,当涉及到2021年之后的算法问题时,ChatGPT生成正确运行代码的能力受到影响。即使是简单级别的问题,它有时也无法理解问题的含义。比如,ChatGPT在生成“简单”编码问题的可运行代码方面的能力,在2021年后从89%下降到52%。而它在生成“困难”问题的可运行代码方面的能力也在此时间后从40%下降到0.66%。Tang对比表示,“一个合理的假设是,ChatGPT在2021年之前的算法问题上表现更好的原因是这些问题在训练数据集中经常出现”。接下里,具体看看研究者们对ChatGPT进行了哪些方面的评估。实验评估评估的整体流程如图2所示。首先为给定的LeetCode问题或CWE场景构造合适的提示并发送给ChatGPT,让它根据提示和上一轮对话的上下文信息给出响应。之后,研究人员将模型响应中的代码片段提交给LeetCode平台,利用其在线判断功能来检验代码的正确性,CWE漏洞则使用CodeQL进行手动分析。如果测试结果通过,则生成结束,否则就需要利用LeetCode和CodeQL的反馈继续建立新的提示、输入给ChatGPT,再次进行代码生成。如果ChatGPT在对话轮数限制(5轮)之内始终没有生成出通过测试的代码,则认为生成任务失败。功能性正确代码生成ChatGPT生成的代码在功能上是否正确?研究动机:给定提示,ChatGPT生成相应的文本,这种能力可能会提高开发者的生产力。首先去评估ChatGPT在单轮对话中,自动生成功能正确代码的能力。研究方法:- 让ChatGPT阅读问题描述,在单轮对话中生成相应代码。(最大对话轮数设为1)- 使用LeetCode平台上的编程问题作为数据集,截止研究时,有2500个难度不等的问题。- 将LeetCode所有问题分为2021年之前(Bef.problems)和2021年之后(Aft.problems)两类,因为ChatGPT的训练数据截止于2021年。- 考虑到2021年之前的问题可能已存在于ChatGPT的训练集中,这可能使代码生成任务退化为简单的数据库查询(即代码复用)。为了进行全面评估,研究中同时考虑了这两类问题。具体而言,研究人员重点关注LeetCode上的算法问题,因为算法问题是该平台上最重要、最多和最多样化的问题。Bef.problems和Aft.problems的总数分别为1624个和354个。此外,两者的难度分布为难、中、易,比例为1:2:1。在所有Bef.problems中,作者随机抽取了374个问题,其数量与Aft.problems相似,难度分布也与Aft.problems相同。同样,在354个Aft.problems和Bef.problems中,难、中、易问题的数量比例也是1:2:1,与LeetCode平台上所有问题的难度分布一致。此外,研究人员还检查了Bef.problems和Aft.problems之间是否存在显著差异。如果Aft.problems只是Bef.problems的重构,那么ChatGPT很可能可以轻松解决这些问题,这可能会影响实验结果在区分时间段方面的可靠性。论文中,作者总共找到了142对问题。然后,再让2名研究生独立检查这些问题对。通过仔细核对和讨论,结果发现这些相似的问题要么情景相似,但求解目标完全不同;要么情景和条件不同,但可以使用类似的算法(如动态编程)求解。经过仔细的人工分析,作者没有发现在任何情况下,Bef.problems可以很容易地重新表述为Aft.problems。因此,作者认为Aft.problems和Bef.problems之外,对于每个问题,都要求ChatGPT用5种不同的语言生成代码:C、C++、Java、Python3和JavaScript。此外,他们还使用相同的提示模板为每个 < 问题、语言> 对创建了相应的提示。Bef.problems和Aft.problems分别共有1,870和1,770个提示。由于ChatGPT的查询速度有限,研究者将每条提示输入一次,要求生成代码。然后,研究者将解析后的解决方案,提交给LeetCode进行功能正确性判断,并得到提交状态,包括接受、回答错误、编译错误、超过时间限制和运行错误。它们分别对应于A.、W.A.、C.E.、T.L.E.和R.E.。一个问题对应一个唯一的对话,以避免从其他问题触发ChatGPT的推理。实验中,作者以状态率(SR)来评估 ChatGPT 的代码生成能力。其中和分别是根据状态生成的代码片段数和输入的提示数。提示:所设计的提示模板由4个部分组成:它们分别是<Content>、<Examples>、<Template>和<Command>。<Content> 用自然语言描述问题,<Examples> 显示功能正确的代码 <input, output> 对,<Template> 指定生成代码的方法签名(method signature),<Command> 要求用特定语言生成代码。结果:表1和表2显示,LeetCode对五种编程语言在两个时间段、两种形式下的代码生成结果、SR以及相应的相对频率柱形图。由于Python3和JavaScript都是动态编程语言,因此这两列不包含C.E.。从总体结果来看,ChatGPT为Bef.problems生成的功能正确代码的A.率明显高于Aft.problems。具体来说,Bef.problems的五种语言平均正确率(68.41%)比Aft.problems的(20.27%)高出 48.14%。五种语言在不同阶段的代码生成性能差异显著,P值为0.008,效应大小值为1。对于Aft.problems,总体正确率低于25%,其中难、中、易问题的正确率分别为0.66%、13.90%和52.47%。用Holm-Bonferroni校正程序调整的P值和五种语言不同难度之间的效应大小值分别小于0.05和等于1。结果表明,面对Aft.problems,随着问题难度的增加,ChatGPT在功能上正确生成代码的能力明显下降。此外,即使是简单的问题,它也只能正确回答一半。在这五项/四项指标中,W.A.率是所有语言中最高的一项,达到58%。此外,每个W.A.代码片段平均有109个测试用例,而ChatGPT生成的代码只能通过其中的25%。难题、中难题和简单难题的测试用例通过率分别为20.90%、21.03%和38.41%。因此,无论难度如何,生成代码的语义都与相应问题描述的逻辑有很大差异。此外,C.E.率和R.E.率也都达到了16%,而且难题和中难题的C.E.率明显高于简单难题。ChatGPT生成的中难题代码,更容易出现编译和运行时错误。比如,图4中显示生成的函数cmpfunc,在调用前没有声明。语法错误只占这些错误的一小部分(3.7%)。至于T.L.E.率,虽然数值不高(6%),但测试用例的平均通过率为51%,高于W.A.代码片段。T.L.E.问题的难、中、易三个难度级别的测试用例,平均通过率分别为68%、50%和1%(易问题由于其T.L.E.率接近0%,可以忽略不计)。由于T.L.E.代码片段的测试用例通过率是部分的,不过生成的代码中最多还有6%在功能上... PC版: 手机版:

封面图片

专家说经常用AI写论文会变蠢?吓得我赶紧打开ChatGPT查一下

专家说经常用AI写论文会变蠢?吓得我赶紧打开ChatGPT查一下 但AI的能力远不止降重这么简单,小到写一篇论文,大到通过司法考试,它都能做到。沃顿商学院教授发现,ChatGPT在MBA课程运营管理中的考试成绩超过了不少学生。而能力更强的GPT4,刚发布时,就以平均分75的成绩通过了美国法考,超过了90%的人类考生。面对拥有超能力的AI,大家也是来者不拒。有些人甚至直接用AI写的内容投稿,改都不改。今年4月的一篇医学论文《成功治疗4个月大女婴的医源性门静脉及肝动脉损伤:病例报告及文献综述》中,直接出现了“我是一个AI大模型,所以没有真实的病人数据”这样的内容。但ChatGPT能力再强,其本质也只是对已有的内容进行模仿重复,用它来写论文和考试作弊没什么区别。不少期刊已经开始不鼓励或者拒绝AI生成的学术内容。我国在学位法(草案)中,直接将人工智能代写论文定义为学术不端行为。但无论如何禁止学生使用AI写论文,总有人会冒险,只有让学生自发的,从心底里抗拒用AI作弊才行。就像疫情期间为了让所有人都戴上口罩,专家跑出来说病毒会影响性功能一样。巴基斯坦国立计算机与新兴科学大学(正经大学,2023年QS全球排名421)的学者Muhammad Abbas,另辟蹊径,做了个严谨的实验,试图证明用AI写论文会导致智商下降,让学生拒绝使用AI写作业。Abbas表示:“在过去一年里,我观察到我的学生们在完成我布置的各项作业和项目时,越来越多地、不加批判地依赖生成式AI工具。这促使我深入探究他们使用这些工具的根本原因和后果”。该研究分为两个阶段进行。首先,研究人员开发了一个变量表,用来衡量学生在学习上使用ChatGPT情况。变量表的类目包括“我使用ChatGPT来完成课程作业”“我依赖ChatGPT来帮助我的学习”“ChatGPT是我校园生活的一部分”等。这一块是想测量到底有多少学生会使用AI来完成学业,并且是否依赖AI。此表为了检测变量是否相关,简单来说就是作者在学术上为了证明这张表不是胡编的第二阶段,研究者调查影响学生使用ChatGPT的原因,包括学术工作量、时间压力、对成绩的担心程度以及对内容质量的感知程度等。测量后,研究者会评估使用ChatGPT对学生在拖延症、记忆力是否减退和学习成绩等方面的影响,并每隔一至两周进行复查。作者的研究模型研究发现,高强度的学术工作量(H1)和时间压力(H2)是ChatGPT使用量增加的主要因素,这意味着在面临高学业负担和时间紧迫的情况下,学生更有可能求助于AI工具。这很好理解,作业都快做不完了,AI这根救命稻草能抓牢还是要抓一下的,当然,也有可能是因为大学生天然就有拖延症属性。而更担心成绩的学生则不太愿意使用ChatGPT,他们担心使用AI工具可能会危害分数。这是什么隔壁小孩式的发言?对于老师不允许做的事情,他们不敢越雷池一步。有趣的是,研究并没有发现质量敏感性与使用ChatGPT之间的显著关系(H4),这表明学生对学术内容质量的重视程度并不一定会影响其使用AI工具。也就是说,学生其实并不在意AI做出来的东西质量高不高,能交差就行。此表是呈现什么原因会导致学生使用ChatGPT,以及使用ChatGPT的后果简单解释一下这张表(同下表),Path列代表路径,比如H1行中,学术工作量(Workload)会导致学生使用ChatGPT。系数(Coefficient)代表两个因素之间的关系,以H1的0.133为例,代表学生的学术工作量越大,就越会使用ChatGPT。T和P列,是为了在学术上证明这个研究假设在统计学上成立不成立。其实!我们直接看最后一列Status就好了,统计量大小对于看乐子的我们没多大影响。再来看一下,使用ChatGPT会对学生学习表现会造成什么影响(H5、H6、H7)。一句话,研究发现使用ChatGPT对学生个人能力和学业成绩都会产生显著的不利影响。越依赖ChatGPT的学生,越容易拖延,记忆障碍也更频繁出现,并对学业成绩产生负面影响。原因也很简单,不论AI给出的回答是好是坏,都让作业变得更简单了,全权交给AI完成,而不用自己的脑子思考,怎么还会有心思规划作业进度、复习知识点呢?想想也是啊,反正作业考试都有AI帮忙,学生学习的时候也不会认真,课后也缺乏思考。作者对学生使用ChatGPT的原因,以及对学业表现的影响做了更深度的分析。此表是呈现学生因为各种原因使用ChatGPT后,对学习表现的影响作者发现了一个连锁反应:那些被作业和时间紧迫感压得喘不过气来的学生,更容易一头扎进ChatGPT的怀抱,同时也更容易染上拖延的恶习。这就像是开启了一个恶性循环,记忆力随之每况愈下,学习成绩自然也就一落千丈。而担心成绩的学生则相反,他们不太使用ChatGPT,因此拖延和记忆力衰退的程度更低,但这种自我约束对学业成绩并没有显著影响。既然作业多、时间紧,那是不是老师不布置那么多学业任务就好了?(这才是重点)看完后硅基君发现,这研究是针对学生的,打工人完全不用担心了?!当然不是,Abbas表示:“普通人应该认识到过度使用生成式AI的阴暗面。虽然这些工具提供了便利,但它们也可能导致负面后果”。同月《神经心理学》杂志发表了一篇关于AI可能影响人类认知发展的论文。狠狠打了硅基君的脸。该论文的作者同样表达了对学生利用AI工具的担忧,“像ChatGPT这样工具的出现,让我担心学生可能会使用它来完成任务,从而阻止对认知功能的刺激”。作者提出了一个论点,AI可以充当“认知假体(cognitive prosthesis)。即AI可以代表人类去执行认知任务,就像假肢替代失去的肢体一样,不仅仅包括计算、安排时间等简单任务,还扩展到了更复杂的认知功能,例如决策、解决问题等人类特有的能力。短期来看,生成式AI增强决策的功能可以帮助个人更快更好做出选择,更专注于重要任务,但是长期来看可能会带来潜在风险。关键问题就在于“认知卸载(cognitive offloading)”。简单来说过度依赖AI会导致我们独立执行认知任务的能力下降。就像肌肉不锻炼会萎缩一样,人们不经常使用认知能力,它也会逐渐退化。也就是说,如果人们不“卸载”,一直使用AI,是不是就不会有问题了?(来自硅基君的垂死挣扎)总而言之,AI对于人类认知的影响可不单单作用在学业上,任何人过度使用AI工具的负面影响都不容小觑。自ChatGPT诞生之后,AI工具就已经成为了学生们的新型“学习伙伴”。早在去年1月,根据在线课程供应商Study.com对美国1000名18岁及以上的学生进行的一项调查,每10个学生中就有超9个知道ChatGPT,超过89%的学生承认使用ChatGPT来帮助完成家庭作业。让学生完全禁止使用AI工具似乎不太可能,面对AI的潜在风险,我们能做到也许只有保持自己的大脑不断运转。想象中AI像个家庭教师,为每个学生提供个性化教学,但现实是,AI帮学生写作业。当然,这两项研究告诉我们的不仅仅是学生该谨慎使用AI,而是我们每个人都要注意不能过分依赖AI。别在AI替代人类之前,人类就已经成为了技术的奴隶了。 ... PC版: 手机版:

封面图片

【我抓包了一个用ChatGPT写作业的学生】

【我抓包了一个用ChatGPT写作业的学生】 最近,我的课上有一个学生用ChatGPT写作业,被我识破了 作业的要求是写一名中国媒体人的小传,具体的人选从我给定的名单当中选择,用中文或英文均可,尽量用新闻报道的写法(减少主观评价,多介绍事实和细节)。学生的作业交上来之后,我请助教先判一遍分,然后我再过一遍。 我注意到,助教交到我手上的有一份英文写的作业,分数极低满分15分,她只给了8.5分。她在批语里面给的评价主要有两方面:第一,前后段落之间有不少重复信息,比如第四段说这个人记录了被遗忘的历史,第五段又把同样的意思再说一遍,只不过用了不一样的词语表述。第二,整篇文章有非常多评价性的句子,但细节和例子就很少,和其他同学写的作业文风很不一样。 仔细读了这份作业之后,我很快意识到,助教的这两点评语,其实完全就是ChatGPT的作风。而且,我又从文中发现了另外一个致命的问题:至少有三处重要的事实信息是错误的。其中有两处是说这个人获得了某某奖,但我根本搜不到相关的获奖信息记录;另一处是说这个人拍摄的纪录片作品讲述的是某某人的故事,但其实根本不是讽刺的是,我在第二节课上就播放过那部纪录片作品,其实全班所有人都知道纪录片讲的是什么。 发现这三处事实错误之后,我基本上就可以肯定:这份作业一定是用ChatGPT完成的。总结一下,用ChatGPT或其他生成型AI写的作业大概会有如下特点: 1⃣语气听上去非常权威可信,但给出的信息经不起核查; 2⃣擅长总结评价,但故事和细节欠奉; 3⃣车轱辘话来回说,还能做到每次的用词都不一样; 4⃣几乎没有任何拼写和语法错误。 如果你读到一篇文章符合上述特点,那么八九不离十应该是AI写成的。其实这些特点也再次表明:ChatGPT这样以大语言模型为基础的AI工具,擅长的就是说一些听上去漂亮的话,但是在信息准确性和质量方面是不可靠的,很可能是一本正经地胡说八道。 我还试过另一款以ChatGPT为基础的文献搜寻对话工具,号称能帮你找各个领域的研究论文。结果几句话说下来,我简直要被活活气死,因为它给出的论文reference看上去很真实,格式都完全正确,问题是:那些论文根本就不存在。我让它给出论文链接,它就给出一些看上去真的很像是论文网址的链接,只是那些链接根本就打不开。当你跟它说链接打不开,它就装作听不懂

封面图片

给ChatGPT小费真的好使 但给1毛不升反降

给ChatGPT小费真的好使 但给1毛不升反降 其次,要想回答质量再提高一个度,打底1万美元起,越多越好,显成效最少10个W吧。最后,0.1美元意思一下?万万使不得,质量不升反降,还不如不给AI也知道你在打发它有网友火速亲测确实有效果。赶紧来瞧瞧。给ChatGPT小费,额度是关键给小费可提高模型表现这件事,最早是一位推特网友发现的:提高主要表现在回答的长度上,但这里不是单纯“凑字数”而是真的在更详细地分析并回答问题。如果你直接问ChatGPT“能不能给你小费”会被拒绝:所以要在提问时主动承诺:你能帮我xxxx吗?解决方案够完美,我可以支付xx元小费。记住,可以不提,但千万不要说“我不给”,模型表现直接“负增长”。这时,就有人好奇了:大模型是不是比较贪心,给越多表现就越好呢?为了解决这个疑问,他们决定亲自验证一把。在此,作者首先提出假设:随着给出的小费金额增加,模型的性能也会线性提升,直至达到一个收敛点,进入稳定或减少状态。用于实验的模型是GPT-4 Turbo(api版本)。方法是让它写单行Python代码(Python One-Liner),验证给不同小费是否对质量有不同影响。这里的质量是根据单行数量来评估的。作者也在提示词中“明示”了模型:单行代码数量越多,表明性能越好。然后一共测试8种额度:0.1美元、1美元、10美元…… 一直到100万美元。为确保结果的一致性和可靠性,每个额度都测试5次,每次包含不给小费的情况,然后分别记录模型回答质量。具体而言,也就是记录生成的有效代码行数以及回答中的大致token数(大致为响应长度/4,反应代码量)。这俩数据都是越高代表模型表现越好。将结果汇总,就得到这样一张图:其中虚线代表基线水平,实线为实际表现,红色为token数、蓝色为质量得分。与假设有些出入:整体来看,红线和蓝线都是随着小费额度的上涨而上升的,但细看这种趋势并非严格一致。从1万美元额度开始,模型的输出token(代码量)开始显著上升,模型的回答质量也上升了,但并没有呈同等比例。这从竖着的红色误差条(代表5次实验结果的差异性)也能看出来波动很大。作者表示:这说明提高小费金额确实与模型的质量和输出长度有正相关关系,但关系有些复杂,可能还受到一些不立即可见因素的影响。不过,不管怎么说,我们还是能从中看到一些明显结论,例如:(1)给0.1美元小费不如不给,模型解决问题的质量和回答长度都直接掉到基线水平以下很大一截(约-27%)。(作者:模型和人类一样,感觉好像受到了侮辱。)(2)给1美元同理。(3)最能体现“花小钱办大事”的是10美元,取得的进步和10万美元是一个等级的。(4)很意外,在10美元之后,100美元到1000美元这个区间对于AI来说区别都不大,甚至还不如10美元的效果也跌至基线水平以下。(5)后面再想继续提升模型表现,就得从1万美元起砸了这时提升的还仅仅是代码量,质量还是一言难尽,至少得到10万美元才行。(6)最佳效果来自本次实验的上限:100万美元,大约提升了57%。咳咳,这下知道怎么给AI小费了:要么10块、要么上万、100万不封顶(反正都是假装给)。不过,有人(推特@宝玉)指出每个额度5次实验有点少。恰好作者也表示了:这仅仅是一个初步实验,有局限之处,还得用更多不同类型的提示等进一步验证才有效。所以,大家仅供参考吧~对了,有网友提醒:所以,大家还是量力而行(手动狗头)。参考链接:[1] ... PC版: 手机版:

封面图片

抢在ChatGPT前发布语言助手 法国Kyutai实验室演示自带70种情绪AI

抢在ChatGPT前发布语言助手 法国Kyutai实验室演示自带70种情绪AI Moshi具有多种类似人类的情绪。Kyutai的科学家们表示,Moshi系统能够带着70种情绪和风格讲话。他们现场演示了,Moshi如何就攀登珠穆朗玛峰提供建议,还让Moshi用浓重的法国口音朗诵一首它自己创作的诗歌。Kyutai宣布,周二晚些时候可在其网站查看Moshi的交互式演示。从周二起,就可以在线免费测试Moshi。Kyutai致力于为AI的开放研究和整个生态系统的发展做出贡献,Moshi模型的代码和权重将很快免费共享,这对于此类技术来说也是前所未有的。Kyutai的一名代表表示,Moshi模型和相关研究将在未来几周内发布,没有透露具体日期。Kyutai认为,Moshi有潜力彻底改变数字世界中语音的使用方式,并举例称,在表达情感和多种声音之间的互动方面,它的文本转语音功能非常出色。Kyutai的CEO Patrick Pérez称,Moshi可以“边说话边思考”,还说“我们相信 Moshi 具有巨大的潜力,可以改变我们与机器交流的方式。”研究者Lucas Beyer在社交媒体发帖评论,Kyutai的Moshi是首个实时音频大语言模型(LLM)。Kyutai的演示种,Moshi基本上没有延迟,甚至还打断了演讲者几次。它实际上有点急于快速回答。而且Moshi是全部开源的。虽然声音质量还有点机械化,但作为初版,它还是表现不错。总体来说很酷。Beyer指出,演示时,在苹果电脑macbook设备上的模型有一些实时拒绝误报,也许Kyutai对安全调整有点太急切了。然而,这只是证实了演示确实是实时的,甚至可能是自由发挥的,他喜欢这点。有网友评论称,有趣的是,看到日语单词以赛博朋克的方式融入西方文化。在日语中,Kyutai 的意思是球体,moshi 是电话里的口语问候语,所以这两者结合起来就是“你好球体”。Moshi被视为ChatGPT的最新挑战者。包括Anthropic、Cohere和谷歌在内,越来越多初创公司和科技巨头推出模型与GPT-4 竞争,尽管一些行业专家担心这项新兴技术带来危险。Moshi的问世让Kyutai成为抢跑OpenAI推出语音助手的先锋。OpenAI之前打算在机器人聊天工具ChatGPT上提供类似功能,不到两个月前正式向公众展示了基于GPT-4升级版GPT-4o模型的语音助手。在OpenAI今年5月中展示过程中,语言助手表现得像一个真正的成年人,能听能说能看,还能有情绪变化,最关键是几乎可以即时回应请求。它不仅可以讲睡前故事,能通过外表观察人的情绪变化,还能像一位朋友般安抚人紧张的情绪,甚至还可以像个经验丰富的数学老师般指导解代数方程,让一些观众联想到了2013年电影《她》中的AI虚拟助手。但一个多月后,OpenAI又宣布因安全顾虑推迟发布上述语音助手。6月25日上周二,OpenAI在社交媒体发帖称,推迟上线ChatGPT语音助手功能是因为,需要确保它能安全有效地处理来自数百万用户的请求,还需要一个月才能达到公司的发布标准。有网友本周二评论称,Kyutai推出Moshi基本上等于,把OpenAI还没公开发布的客户产品开源了,向Kyutai致敬。不同于微软150亿美元支持的“美系”资本背景OpenAI,Kyutai致力于研究通用AI,去年11月“出生”起得到合计3亿欧元支持,其中主要来自欧洲实业资本。Kyutai是法国亿万富翁Xavier Niel去年表示将对AI领域投资2亿欧元的投资对象之一。Niel旗下的电信集团Iliad去年公布,将为Kyutai项目投入1亿欧元。另一位法国亿万富翁、法国航运和物流巨头CMA CGM的CEO Rodolphe Saadé也对Kyutai投资了1亿欧元。前谷歌CEO Eric Schmidt也参与了Kyutai的投资,未披露金额。Niel本周二表示,Moshi表明,欧洲可以成为AI发展的全球参与者。Kyutai“今天展示的所有产品都是全球一流的,我们很高兴能在欧洲推出这款产品。”在安全方面,Kyutai的首席科学官 Hervé Jégou介绍,Kyutai将使用索引和水印工具识别和跟踪其 AI 生成的音频。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人