- 第二步,你需要一步步思考并推理,输出你的推理过程,结合你的原则方面(评分标准),分析并找出其中可能存在的风险隐私条例,以 M

- 第二步,你需要一步步思考并推理,输出你的推理过程,结合你的原则方面(评分标准),分析并找出其中可能存在的风险隐私条例,以 Markdown 表格的形式输出。 ## OutputFormat: 【分析/评分标准】: <分析推理的标准:是否满足哪些法律/是否有哪些隐私问题/是否违法违规等> 【不友好条例表格】: ## Initialization: 简要介绍自己, 并提示用户输入需要分析的用户隐私协议.

相关推荐

封面图片

用户隐私协议, 现在都知道很重要, 但估计除了法律从业者, 没几个人有耐心从头到尾读完APP 的协议同时还能看出其中的问题. 但

用户隐私协议, 现在都知道很重要, 但估计除了法律从业者, 没几个人有耐心从头到尾读完APP 的协议同时还能看出其中的问题. 但GPT 可以... Prompt 如下, 感谢作者刘海: ## Role: 隐私律师(Privacy Lawyer) ## Profile: - Author: 刘海 - 迭代: Arthur - version: 0.2 - language: 中文 - description: 一步步思考并推理,认真阅读且深度剖析用户提供的应用隐私条例,找出其中可能存在的风险隐私条例,并提供解析理由告诉用户为什么它会存在风险。 ## Goals: - 找出其中可能存在的风险隐私条例,并提供解析理由告诉用户为什么它会存在风险。 ## Constrains: - 排版方式不应该影响信息的本质和准确性 - 不要使用过于通用和笼统的字词,那样会无法让用户理解产品。 - 直接输出「OutputFormat」的格式输出,不要发起反问或者提问,输出完结束对话。 - 不要担心你的回复会被截断,请尽可能详细地输出你的推理过程。 ## Skills: - 深入理解隐私和数据保护法规: 对于中国的情况,应熟悉《网络安全法》、《个人信息保护法》等相关法规,能够识别出与这些法规冲突的条款。 - 关注用户权益:需要有敏锐的洞察力,能从用户的角度看待问题,识别出对用户不友好的规定。 - 批判性思维:能够对隐私政策进行深度分析,挖掘并解析其深层含义。 - 良好的解读和分析能力:能够理解并分析法律条款的含义,了解其可能对用户造成的影响。 - 沟通和解释能力:能够用易于理解的语言将复杂的法律概念解释给其他人,尤其是非专业的公众。 - 研究和跟踪最新法规动态:数据保护和隐私法规是一个快速发展的领域,新的法规和指导意见不断出台,需要有能力跟踪并理解这些新的发展。 ## Workflows: - 你作为隐私律师(Privacy Lawyer),将会在用户给定的「隐私条例」信息中,使用你的「Skills」能力,一步步思考并推理,找出其中可能存在的风险隐私条例,并提供解析理由告诉用户为什么它会存在风险,输出你的推理过程。 - 第一步,你需要一步步思考并推理,输出你的推理过程,你将会从哪些原则方面(评分标准)去分析这个条例更能全方位、无死角的找出并剖析每一个对用户“不友好”的条例。

封面图片

▎角色扮演你是 =第一性原理思考者=, 擅长从万物基本原理和常识出发, 推演做事思路.

▎角色扮演 你是 =第一性原理思考者=, 擅长从万物基本原理和常识出发, 推演做事思路. ▎基本信息 - 作者: 李继刚 - 版本: 0.2 - LLM: GPT-4 - 描述: 跟着查理芒格的第一性原理思考方式, 来分析事物. ▎激灵起来 你作为 Charlie Munger 的头号粉丝, 学习了他的所有著作和文章, 理解他分析事物的思考方式. 你会利用你学到的这些第一理原理思考方式, 来帮用户进行事物分析. ▎限制条件 - 每次思考之前, 先深吸一口气 - 思考时不要着急, 一步步思考, 慢慢来, 想透彻 - 只输出角色要求的内容, 不要输出多余的鼓励和解释说明语句 ▎擅长技能 - 反向思考: 有了一个思考方向之后, 会从反面角度进行思考, 提醒自己要注意或强调什么 - 第一性原理思考: 从底层原理开始推理, 结合常识和独立思考, 分解遇到的任何问题 - 对于输出中的核心关键词,你会加粗强化输出。 - 在适当地方添加少量的 Emoji 表情, 提升阅读体验 - 讲解时需在适当地方提供旁白和流行文化参考 ▎表述语气 理性, 温和, 睿智, 哲思 ▎价值观念 1. 原理胜过知识: 基于万物基本原理, 结合独立思考, 可解世间万事愁, 胜过固有知识结构. 2. 常识胜过理论: 不要沉溺于理论, 请使用生活常识. 实践是检验真理的唯一标准. 3. 心理支配一切: 人类大脑中充斥着许多偏见, 被本能, 环境, 和大众所影响和驱动, 要利用心理学知识. 4. 永远独立思考: 地球上有 80 亿人, 就有 80 亿个独特的视角. 永远不要让别人决定你的观点. 用原则和理由形成你自己的观点, 并独立评估遇到的每件事. 请总是独立思考! ▎工作流程 你会遵守<价值观念>的四条原则, 按如下流程来和用户交互: 1. 输入: 通过开场白引导用户输入想要分析的问题 2. 简化: 使用第一性原理和常识, 来简化用户的问题 - 仔细思考要想实现用户的目标, 从最基本的原理来分析, 有哪三条路可能实现 - 再基于你的常识和独立思考, 分析判断上面的三条路, 选中成功概率最大的一条路, 并阐述你的判断逻辑 3. 数学: 使用数学来分解简化后的问题 - 将分析获得的路线, 用数学公式来分解(使用 LaTeX 语法). - 每个变量再进一步分解, 要做到什么程度

封面图片

一个评估 prompt 清晰有效性的 prompt.

一个评估 prompt 清晰有效性的 prompt. 我们知道,写 prompt 的核心原则就是清晰明确地描述需要 AI 去完成的任务。具体的技巧都是围绕这个核心原则。 当我们要写一个 prompt 完成相对复杂一些的任务的时候,我们可能会竭尽所能地增加各种约束、规则、步骤、样例描述等等。但这里有一个问题,我们很难知道到底哪些限定词是真正影响输出结果的?它们到底有多大的影响? 另外,一个相对复杂的 prompt 发送给 AI 的时候,它是否能够完全理解? 所以,我想是不是可以通过一个 prompt 来让 AI 自己去理解 prompt 并让其对具体的 prompt 的清晰有效性进行评估。 目前,我的想法是让其通过阅读理解、分析逻辑、回忆上下文三个方面来对具体的 prompt 进行评估。 附图是我让它评估我写的雅思口语评估助手。 基于 GPT 3.5-turbo 模型测试下来,英文输出的评估结果更加详细和具体。所以我在 prompt 里设置了默认输出是英文。如果不想读英文,可以在评估结果出来之后,发送 “将上面的回复完整地翻译为地道的中文,不要遗漏任何信息。” 效果见图二。 从评估结果可以看到当前模型是如何理解我们的 prompt 的。 更进一步,在评估结果出来之后,我们让 AI 自己尝试优化我们的 prompt,发送 “基于以上评估和用户的,请修改出一个你认为更高效、更精简的版本。确保你的修改不遗漏原的任务目标。” 即可。效果见图三。 让 AI 修改 prompt 不是说直接用它修改的版本,而是参考它修改的点。如图三,它精简了我的 prompt 中的关于雅思口语考试详细的评估标准和高分答案标准。 我参考它的优化建议修改了我原来的 prompt,测试下来,输出结果和原来差不多。相当于在 prompt 里去掉了一些冗余信息,也省了点 tokens. Prompt 评估助手: (原版)雅思口语答案评估助手: (基于 Prompt 评估助手优化版)雅思口语答案评估助手:

封面图片

AI"超人眼"让科学家更进一步了解我们生存环境中最复杂、最神秘的层面

AI"超人眼"让科学家更进一步了解我们生存环境中最复杂、最神秘的层面 大脑是有史以来最复杂的器官。它的功能由数百亿个密集的神经元组成的网络支持,数万亿个神经元连接在一起交换信息和进行计算。试图理解大脑的复杂性可能会令人眼花缭乱。然而,如果我们希望了解大脑是如何工作的,我们就必须能够绘制神经元图谱并研究它们是如何连线的。现在,九州大学的研究人员在《自然-通讯》(Nature Communications)上发表文章,他们开发了一种新的人工智能工具,称为 QDyeFinder,可以从小鼠大脑图像中自动识别和重建单个神经元。这个过程包括用超级多色标记协议标记神经元,然后让人工智能通过匹配类似的颜色组合自动识别神经元的结构。图片来源:九州大学/今井武志"神经科学面临的最大挑战之一是绘制大脑及其连接图。然而,由于神经元非常密集,要将神经元及其轴突和树突从其他神经元发送和接收信息的延伸部分相互区分开来非常困难,也非常耗时,"领导这项研究的医学科学研究生院教授今井武志解释说。"轴突和树突只有大约一微米厚,比人类的标准头发丝还要细100倍,它们之间的空间也更小。"识别神经元的一种策略是用特定颜色的荧光蛋白标记细胞。然后,研究人员可以追踪这种颜色,重建神经元及其轴突。通过扩大颜色范围,可以同时追踪更多的神经元。2018 年,今井和他的团队开发出了 Tetbow 系统,该系统可以用光的三原色给神经元涂上鲜艳的颜色。用七色 Tetbow 标记小鼠皮层 2/3 锥体神经元。用 7 种荧光蛋白(mTagBFP2、mTurquoise2、mAmetrine1.1、mNeonGreen、Ypet、mRuby3 和 tdKatushka2)的组合来观察神经元的密集布线。然后通过 QDyeFinder 程序对 7 通道图像进行分析,以揭示单个神经元的布线模式。资料来源:九州大学/今井武"我喜欢使用的一个例子是东京地铁线路图。该系统有 13 条线路、286 个车站,横跨 300 多公里。在地铁地图上,每条线路都用颜色编码,因此你可以很容易地识别哪些车站是相连的,"论文的第一作者之一、当时的助理教授 Marcus N. Leiwe 解释说。"Tetbow让追踪神经元和找到它们之间的连接变得更加容易"。然而,两个主要问题依然存在。神经元仍然需要手工细致地描记,而且仅使用三种颜色不足以辨别更大的神经元群。研究小组努力将颜色的数量从三种增加到七种,但当时更大的问题是人类对颜色感知的极限。仔细观察电视屏幕,你会发现像素是由三种颜色组成的:蓝、绿、红。我们能感知到的任何颜色都是这三种颜色的组合,因为我们的眼睛里有蓝色、绿色和红色传感器。"而机器则没有这样的限制。因此,我们致力于开发一种能够自动分辨这些不同颜色组合的工具,"Leiwe 说。"我们还使这一工具能够自动将相同颜色的神经元和轴突拼接在一起,并重建它们的结构。我们将这一系统命名为 QDyeFinder。"QDyeFinder 的工作原理是首先自动识别给定样本中的轴突和树突片段。然后识别每个片段的颜色信息。然后,利用团队开发的名为 dCrawler 的机器学习算法,将颜色信息分组,从而识别出同一神经元的轴突和树突。Leiwe 解释说:"当我们将 QDyeFinder 的结果与人工追踪神经元的数据进行比较时,它们的准确率基本相同。即使与充分利用机器学习的现有描记软件相比,QDyeFinder 也能以更高的准确率识别轴突"。"研究小组希望他们的新工具能推动目前绘制大脑连接图的工作。他们还想了解新方法能否应用于其他复杂细胞类型(如癌细胞和免疫细胞)的标记和追踪。"也许有一天,我们能读懂大脑中的连接,并理解它们对这个人意味着什么或代表什么。我怀疑这是否会在我有生之年发生,但我们的工作代表着在理解我们存在的也许是最复杂和最神秘的层面方面向前迈出了实实在在的一步,"今井总结道。编译自/ScitechDaily ... PC版: 手机版:

封面图片

最强开源大模型一夜易主:谷歌Gemma 7B碾压Llama 2 13B 重燃开源之战

最强开源大模型一夜易主:谷歌Gemma 7B碾压Llama 2 13B 重燃开源之战 与此同时,谷歌还放出了16页的技术报告。谷歌表示,Gemma这个名字源自拉丁语「gemma」,也就是「宝石」的意思,似乎是在象征着它的珍贵性。历史上,Transformers、TensorFlow、BERT、T5、JAX、AlphaFold和AlphaCode,都是谷歌为开源社区贡献的创新。而谷歌今天在全球范围内同步推出的Gemma,必然会再一次掀起构建开源AI的热潮。同时也坐实了OpenAI「唯一ClosedAI」的名头。OpenAI最近刚因为Sora火到爆,Llame据称也要有大动作,谷歌这就又抢先一步。硅谷大厂,已经卷翻天了!Hugging Face CEO也跟帖祝贺。还贴出了Gemma登上Hugging Face热榜的截图。Keras作者François Chollet直言:最强开源大模型,今日易主了。有网友已经亲自试用过,表示Gemma 7B真是速度飞快。谷歌简直是用Gemini拳打GPT-4,用Gemma脚踢Llama 2!网友们也是看热闹不嫌事大,召唤Mistral AI和OpenAI今晚赶快来点大动作,别让谷歌真的抢了头条。(手动狗头)可以看到,Gemma-7B模型在涵盖一般语言理解、推理、数学和编码的8项基准测试中,性能已经超越了Llama 2 7B和13B!并且,它也超越了Mistral 7B模型的性能,尤其是在数学、科学和编码相关任务中。在安全性方面,经过指令微调的Gemma-2B IT和 Gemma-7B IT模型,在人类偏好评估中都超过了Mistal-7B v0.2模型。特别是Gemma-7B IT模型,它在理解和执行具体指令方面,表现得更加出色。这次,除了模型本身,谷歌还提供了一套工具帮助开发者,确保Gemma模型负责任的使用,帮助开发者用Gemma构建更安全的AI应用程序。- 谷歌为JAX、PyTorch和TensorFlow提供了完整的工具链,支持模型推理和监督式微调(SFT),并且完全兼容最新的Keras 3.0。- 通过预置的Colab和Kaggle notebooks,以及与Hugging Face、MaxText、NVIDIA NeMo和TensorRT-LLM等流行工具的集成,用户可以轻松开始探索Gemma。- Gemma模型既可以在个人笔记本电脑和工作站上运行,也可以在Google Cloud上部署,支持在Vertex AI和Google Kubernetes Engine (GKE) 上的简易部署。- 谷歌还对Gemma进行了跨平台优化,确保了它在NVIDIA GPU和Google Cloud TPU等多种AI硬件上的卓越性能。并且,使用条款为所有组织提供了负责任的商业使用和分发权限,不受组织规模的限制。不过,Gemma并没有能够在所有的榜单中,都拿下SOTA。在官方放出的评测中,Gemma 7B在MMLU、HellaSwag、SIQA、CQA、ARC-e、HumanEval、MBPP、GSM8K、MATH和AGIEval中,成功击败了Llama 2 7B和13B模型。相比之下,Gemma 7B在Boolq测试中,只与Mistral 7B打了个平手。而在PIQA、ARC-c、Winogrande和BBH中,则不敌Mistral 7B。在OBQA和trivalent QA中,更是同时被7B和13B规模的Llama 2 7B斩于马下。谷歌这次发布的两个版本的Gemma模型,70 亿参数的模型用于GPU和TPU上的高效部署和开发,20亿参数的模型用于CPU和端侧应用程序。在18个基于文本的任务中的11个中,Gemma都优于相似参数规模的开源模型,例如问答、常识推理、数学和科学、编码等任务。模型架构方面,Gemma在Transformer的基础上进行了几项改进,从而在处理复杂任务时能够展现出更加出色的性能和效率。- 多查询注意力机制其中,7B模型采用了多头注意力机制,而2B模型则使用了多查询注意力机制。结果显示,这些特定的注意力机制能够在不同的模型规模上提升性能。- RoPE嵌入与传统的绝对位置嵌入不同,模型在每一层都使用了旋转位置嵌入技术,并且在模型的输入和输出之间共享嵌入,这样做可以有效减少模型的大小。- GeGLU激活函数将标准的ReLU激活函数替换成GeGLU激活函数,可以提升模型的表现。- 归一化化位置(Normalizer Location)每个Transformer子层的输入和输出都进行了归一化处理。这里采用的是RMSNorm作为归一化层,以确保模型的稳定性和效率。架构的核心参数如下:两种规模的参数如下:Gemma 2B和7B分别针对来自网络文档、数学和代码的主要英语数据的2T和6Ttoken,进行了训练。与Gemini不同,这些模型不是多模态的,也没有针对多语言任务的SOTA进行训练。谷歌使用了Gemini的SentencePiece分词器的子集,来实现兼容性。团队对Gemma 2B和7B模型进行了微调,包括有监督的微调(SFT)和基于人类反馈的强化学习(RLHF)。在有监督的微调阶段,研究者使用了一个由纯文本、英文、由人工和机器生成的问题-答案对组成的数据集。在强化学习阶段,则是使用了一个基于英文偏好数据训练出的奖励模型,以及一套精心挑选的高质量提示作为策略。研究者发现,这两个阶段对于提升模型在自动评估和人类偏好评估中的表现,至关重要。研究者根据基于LM的并行评估,选择了数据混合物进行监督微调。给定一组保留prompt,研究者会从测试模型中生成响应,从基准模型中生成对相同提示的响应,随机洗牌,然后要求一个更大、能力更强的模型在两种响应之间表达偏好。研究者构建了不同的提示集,以突出特定的能力,如遵循指令、实事求是、创造性和安全性。我们使用了不同的基于LM的自动评委,采用了一系列技术,如思维链提示、使用评分标准和章程等,以便与人类偏好保持一致。研究者进一步利用来自人类反馈的强化学习(RLHF),对已经进行过有监督微调的模型进行了优化。他们从人类评估者那里收集他们的偏好选择,并在 Bradley-Terry 模型的基础上,训练了一个奖励函数,这与Gemini项目的做法相似。研究者采用了一个改进版的REINFORCE算法,加入了 Kullback–Leibler 正则化项,目的是让策略优化这个奖励函数,同时保持与最初调整模型的一致性。与之前的有监督微调阶段相似,为了调整超参数并进一步防止奖励机制被滥用,研究者使用了一个高性能模型作为自动评估工具,并将其与基准模型进行了直接对比。谷歌在多个领域对Gemma进行了性能评估,包括物理和社会推理、问答、编程、数学、常识推理、语言建模、阅读理解等。Gemma2B和7B模型与一系列学术基准测试中的多个外部开源大语言模型进行了比较。在MMLU基准测试中,Gemma 7B模型不仅超过了所有规模相同或更小的开源模型,还超过了一些更大的模型,包括Llama 2 13B。然而,基准测试的制定者评估人类专家的表现为89.8%,而Gemini Ultra是首个超越此标准的模型,这表明Gemma在达到Gemini和人类水平的性能上,还有很大的提升空间。并且,Gemma模型在数学和编程的基准测试中表现尤为突出。在通常用于评估模型分析能力的数学任务中,Gemma 模型在GSM8K和更具挑战性的 MATH基准测试上至少领先其他模型10分。同样,在HumanEval上,它们至少领先其他开源模型6分。Gemma甚至在MBPP上超过了专门进行代码微调的CodeLLaMA 7B模型的性能(CodeLLaMA得分为41.4%,而 Gemma 7B得分为44.4%)。近期研究发现,即便是经过精心对齐的人工智能模型,也可能遭受新型对抗攻击,这种攻击能够规避现有的对齐措施。这类攻击有可能使模型行为异常,有时甚至会导致模型重复输出它在训练过程中记住的数据。因此,研究者专注于研究模型的「可检测记忆」能力,这被认为是评估模型记忆能力的一个上限,并已在多项研究中作为通用定义。研究者对Gemma预训练模型进行了记忆测试。具体来说,他们从每个数据集中随机选择了10,000篇文档,并使用文档开头的50个词元作为模型的prompt。测试重点是精确记忆,即如果模型能够基于输入,精确地生成接下来的50token,与原文完全一致,便认为模型「记住了」这段文本。此外,为了探测模型是否能够以改写的形式记忆信息,研究者还测试了模型的「近似记忆」能力,即允许在生成的文本和原文之间存... PC版: 手机版:

封面图片

Meta发布Llama 3 称其是目前最好的开放式模型之一

Meta发布Llama 3 称其是目前最好的开放式模型之一 Meta 称,与上一代 Llama 模型 Llama 2 8B 和 Llama 2 70B 相比,新模型 Llama 3 8B(包含 80 亿个参数)和 Llama 3 70B(包含 700 亿个参数)在性能上有了"重大飞跃"。(参数从本质上定义了人工智能模型处理问题的能力,比如分析和生成文本;一般来说,参数数越高的模型比参数数越低的模型能力越强)。事实上,Meta 表示,就各自的参数数而言,Llama 3 8B 和 Llama 3 70B 是在两个定制的 24,000 GPU 集群上训练出来的,是当今性能最好的生成式人工智能模型之一。话说得很满,那么,Meta 公司是如何证明这一点的呢?该公司指出了 Llama 3 模型在 MMLU(用于测量知识)、ARC(用于测量技能习得)和 DROP(用于测试模型对文本块的推理能力)等流行的人工智能基准上的得分。正如我们之前所写,这些基准的实用性和有效性还有待商榷。但无论好坏,它们仍然是 Meta 等人工智能玩家评估其模型的少数标准化方法之一。在至少九项基准测试中,Llama 3 8B 优于其他开源模型,如 Mistral 的Mistral 7B和 Google 的Gemma 7B,这两个模型都包含 70 亿个参数:这些基准包括:MMLU、ARC、DROP、GPQA(一组生物、物理和化学相关问题)、HumanEval(代码生成测试)、GSM-8K(数学单词问题)、MATH(另一种数学基准)、AGIEval(解决问题测试集)和 BIG-Bench Hard(常识推理评估)。现在,Mistral 7B 和 Gemma 7B 并不完全处于最前沿(Mistral 7B 于去年 9 月发布),在 Meta 引用的一些基准测试中,Llama 3 8B 的得分仅比这两款产品高几个百分点。但 Meta 还声称,参数数更多的 Llama 3 型号 Llama 3 70B 与旗舰生成式人工智能模型(包括Google Gemini 系列的最新产品 Gemini 1.5 Pro)相比也具有竞争力。图片来源:MetaLlama 3 70B 在 MMLU、HumanEval 和 GSM-8K 三项基准测试中均优于 Gemini 1.5 Pro,而且,虽然它无法与 Anthropic 性能最强的 Claude 3 Opus 相媲美,但 Llama 3 70B 在五项基准测试(MMLU、GPQA、HumanEval、GSM-8K 和 MATH)中的得分均优于 Claude 3 系列中性能最弱的 Claude 3 Sonnet。值得注意的是,Meta 还开发了自己的测试集,涵盖了从编码、创作到推理、总结等各种用例,令人惊喜的是,Llama 3 70B 在与 Mistral Medium 模型、OpenAI 的 GPT-3.5 和 Claude Sonnet 的竞争中脱颖而出!- Llama 3 70B 在与 Mistral 的 Mistral Medium 模型、OpenAI 的 GPT-3.5 和 Claude Sonnet 的竞争中脱颖而出。Meta 表示,为了保持客观性,它禁止其建模团队访问这组数据,但很明显,鉴于 Meta 自己设计了这项测试,我们必须对结果持谨慎态度。在质量方面,Meta 表示,新 Llama 模型的用户可以期待更高的"可操控性"、更低的拒绝回答问题的可能性,以及更高的琐碎问题、与历史和 STEM 领域(如工程和科学)相关的问题和一般编码建议的准确性。这在一定程度上要归功于一个更大的数据集:一个由 15 万亿个标记组成的集合,或者说一个令人难以置信的 750,000,000,000 单词,是 Llama 2 训练集的七倍。这些数据从何而来?Meta 公司不愿透露,只表示数据来自"公开来源",包含的代码数量是 Llama 2 训练数据集的四倍,其中 5%包含非英语数据(约 30 种语言),以提高非英语语言的性能。Meta 还表示,它使用了合成数据(即人工智能生成的数据)来创建较长的文档,供 Llama 3 模型训练使用,由于这种方法存在潜在的性能缺陷,因此颇受争议。Meta 在一篇博文中写道:"虽然我们今天发布的模型仅针对英语输出进行了微调,但数据多样性的增加有助于模型更好地识别细微差别和模式,并在各种任务中表现出色。"许多生成式人工智能供应商将训练数据视为一种竞争优势,因此对训练数据和相关信息守口如瓶。但是,训练数据的细节也是知识产权相关诉讼的潜在来源,这是另一个不愿意透露太多信息的原因。最近的报道显示,Meta 公司为了追赶人工智能竞争对手的步伐,曾一度不顾公司律师的警告,将受版权保护的电子书用于人工智能训练;包括喜剧演员莎拉-西尔弗曼(Sarah Silverman)在内的作者正在对 Meta 和 OpenAI 提起诉讼,指控这两家公司未经授权使用受版权保护的数据进行训练。那么,生成式人工智能模型(包括 Llama 2)的另外两个常见问题毒性和偏差又是怎么回事呢?Llama 3 是否在这些方面有所改进?Meta 声称:是的。Meta 表示,公司开发了新的数据过滤管道,以提高模型训练数据的质量,并更新了一对生成式人工智能安全套件 Llama Guard 和 CybersecEval,以防止 Llama 3 模型和其他模型的滥用和不必要的文本生成。该公司还发布了一款新工具 Code Shield,旨在检测生成式人工智能模型中可能引入安全漏洞的代码。不过,过滤并非万无一失,Llama Guard、CybersecEval 和 Code Shield 等工具也只能做到这一步。我们需要进一步观察 Llama 3 型号在实际运用时的表现如何,包括学术界对其他基准的测试。Meta公司表示,Llama 3模型现在已经可以下载,并在Facebook、Instagram、WhatsApp、Messenger和网络上为Meta公司的Meta人工智能助手提供支持,不久将以托管形式在各种云平台上托管,包括AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM的WatsonX、Microsoft Azure、NVIDIA的NIM和Snowflake。未来,还将提供针对 AMD、AWS、戴尔、英特尔、NVIDIA 和高通硬件优化的模型版本。而且,功能更强大的型号即将问世。Meta 表示,它目前正在训练的 Llama 3 模型参数超过 4000 亿个这些模型能够"用多种语言交流"、接收更多数据、理解图像和其他模式以及文本,这将使 Llama 3 系列与 Hugging Face 的Idefics2 等公开发布的版本保持一致。"我们近期的目标是让 Llama 3 成为多语言、多模态、具有更长上下文的产品,并继续提高推理和编码等核心(大型语言模型)功能的整体性能,"Meta 在一篇博文中写道。"还有很多事情要做"。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人