【Ripple CTO谈AI:如果你需要真实答案,请不要使用它】

【RippleCTO谈AI:如果你需要真实答案,请不要使用它】2023年05月28日04点30分老不正经报道,Ripple首席技术官DavidSchwartz表示,AI驱动的聊天机器人ChatGPT和生成式AI程序背后的类似大型语言模型(LLM)提供了不真实的答案,只是看起来正确而已。因此,它们不应用于寻找“严肃”问题的真实答案。此外,在不久的将来,人工智能将能够生成从未发生过的恐怖袭击的现场录像。

相关推荐

封面图片

【Ripple CTO:ChatGPT 的答案只是看起来正确】

【RippleCTO:ChatGPT的答案只是看起来正确】Ripple首席技术官DavidSchwartz在社交媒体上发文称,人工智能驱动的聊天机器人ChatGPT和生成式AI程序背后的类似大型语言模型(LLM)提供了不真实的答案,这些答案只是看起来正确,他认为ChatGPT的工作是为用户提供看起来与此类问题通常获得的输出尽可能相似的输出。在与现实世界中的实际事物相对应的意义上,是否真的“真实”根本不是一个考虑因素。此前著名律师史蒂夫弗拉德克(SteveVladeck)分享了ChatGPT生成伪造法庭案件文件的例子并建议永远不要使用ChatGPT或类似工具进行法律研究。

封面图片

下午察:李玟被AI复活了

下午察:李玟被AI复活了人工智能(AI)的进步,让去年过世的华语流行乐坛天后李玟“复活”了。最近,一部有关李玟的AI生成视频在微博疯传。视频中,李玟妆发完整,脸部表情也相当自然,她开口第一句话就说:“嘿你们好吗?我是CoCo李玟。我知道你们可能会感到惊讶,甚至有些不真实,但请相信我,这是一个充满着爱和感激的时刻,因为我有机会通过这段视频与你们相聚……”字里行间充满着对粉丝的疼惜。李玟去年7月因抑郁症轻生离世,终年48岁。2024年3月20日8:41PM

封面图片

【RippleCTO谈AI:如果你需要真实答案,请不要使用它】Ripple首席技术官DavidSchwartz表示,AI驱动的聊天机器人ChatGPT和生成式AI程序背后的类似大型语言模型(LLM)提供了不的答案,只是看起来正确而已。因此,它们不应用于寻找“严肃”问题的答案。此外,在不久的将来,人工智能将能够生成从未发生过的恐怖袭击的现场录像。

封面图片

你能识别这四张图片中哪些是 AI 生成的吗?答案是全部。你可以在 pixiv 上查找它们的作者来源,对 AI 生成的色情图片的质

你能识别这四张图片中哪些是AI生成的吗?答案是全部。你可以在pixiv上查找它们的作者来源,对AI生成的色情图片的质量、数量和多样性感到惊叹。图像的信息复杂度较低,易于AI进行学习,而色情内容往往具有很强的规律,是图像信息中复杂度较低的类型。因此,AI生成的色图,不管是二维还是三维的风格,质量都非常惊人。低端的,只展示简单裸露身体的图片,在这些大量生产的完美天使面前,将很快被淘汰。接下来AI也可能很快占领简单的色情视频,包括MMD类,因为这些视频的内容也高度具有规律和重复性。在互联网色情中没有真实人物表演,加入了科技,脱下了社会道德压力,未知将会走向何处。现在是真正的“只有买卖,而且没有杀害”了。——本条信息的文字部分由AI生成

封面图片

谷歌CEO提醒不要仓促推出AI技术 需要合理监管

谷歌CEO提醒不要仓促推出AI技术需要合理监管“我们还没有找到所有答案,而技术日新月异,”他说。“这会让我晚上睡不着吗?绝对如此。”SundarPichai尽管行业深感紧迫,但Pichai还是提醒那些正卷入这场竞争的公司。对于OpenAI更为直接的方式以及推出ChatGPT,他看到了经验教训。他说,有人指出,不能推出如此强大的技术,因为社会没有时间适应。“我认为这个观点合理。我认为有些负责任的人试图弄清楚如何使用这项技术,就像我们一样。”对于生成类AI的风险,他提出了所谓的深度伪造(deepfake)视频。他说,此类隐患说明了监管的必要性。“制作深伪视频对社会造成伤害,后果是必然的,”他说。“任何与AI打交道一段时间的人都会意识到,这是一种截然不同且如此深刻的东西,我们需要社会规范来考虑如何适应。”...PC版:https://www.cnbeta.com.tw/articles/soft/1355295.htm手机版:https://m.cnbeta.com.tw/view/1355295.htm

封面图片

研究认为AI产生的幻觉能影响搜索结果和其他AI 形成危险的反馈循环

研究认为AI产生的幻觉能影响搜索结果和其他AI形成危险的反馈循环一位研究人员在试图举例说明人工智能聊天机器人产生幻觉的虚假信息时,无意中影响了搜索结果的排名,导致另一个聊天机器人产生幻觉。这一事件表明,随着人工智能增强型搜索引擎的普及,有必要采取进一步的保障措施。信息科学研究员丹尼尔-格里芬(DanielS.Griffin)今年早些时候在自己的博客上发布了两个聊天机器人提供错误信息的例子,涉及有影响力的计算机科学家克劳德-香农(ClaudeE.Shannon)。格里芬还附上了免责声明,指出聊天机器人提供的信息是不真实的,以阻止机器搜索器索引这些信息,但这还不够。格里芬最终发现,包括微软必应和GoogleBard在内的多个聊天机器人都把他发布的幻觉信息当成了真实信息,并将其排在了搜索结果的前列。当被问及有关香农的具体问题时,机器人以格里芬的警告为基础,进行了一致但虚假的叙述,将一篇香农从未写过的论文归因于香农。更令人担忧的是,必应和巴德的搜索结果并没有表明它们的来源是一位法学硕士。这种情况类似于人们断章取义或断章取义地引用资料来源,从而导致错误的研究。格里芬的案例证明,生成式人工智能模型有可能以可怕的规模自动纠正这种错误。微软随后在必应中纠正了这一错误,并假设在处理网上人类撰写材料相对较少的主题时,更有可能出现这一问题。这一先例具有危险性的另一个原因是,它为不良分子提供了一个理论蓝图,使他们可以故意利用LLM,通过影响搜索结果来传播错误信息。众所周知,黑客通过调整欺诈性网站来获得搜索结果的最高排名,从而传播恶意软件。该漏洞与六月份的一项警告不谋而合,该警告指出,随着网络上出现更多由LLM生成的内容,这些内容将被用于训练未来的LLM。由此产生的反馈循环可能会在一种被称为"模型崩溃"的现象中极大地削弱人工智能模型的质量和可信度。使用人工智能的公司应确保培训持续优先考虑人工制作的内容。保留知名度较低的信息和少数群体制作的材料有助于解决这一问题。...PC版:https://www.cnbeta.com.tw/articles/soft/1388601.htm手机版:https://m.cnbeta.com.tw/view/1388601.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人