谷歌利用 YouTube 开发其下一代人工智能

谷歌利用YouTube开发其下一代人工智能据透露,谷歌的研究人员一直在利用YouTube开发其下一个大型语言模型“双子座Gemini”,该模型展示了在其他任何模型中都看不到的多模态能力。而OpenAI也已经秘密地使用了YouTube的数据来训练其一些人工智能模型,但谷歌能够拥有YouTube更全面的视频数据。人工智能开发者在寻找用于训练和改进模型的高质量数据方面面临着新的障碍。从Reddit到StackExchange再到DeviantArt的主要网站出版商正越来越多地阻止开发者为该目的下载数据。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

相关推荐

封面图片

Google的下一代人工智能模型Gemini 1.5已基本准备就绪

Google的下一代人工智能模型Gemini1.5已基本准备就绪Gemini1.5有很多改进:Gemini1.5Pro(Google系统中的通用模型)与该公司最近才推出的高端GeminiUltra能力不相上下,而且在87%的基准测试中,它都优于Gemini1.0Pro。它采用了一种越来越常见的技术,即"专家混合"(MoE),这意味着当你发送查询时,它只运行整个模型的一部分,而不是一直处理整个模型。这种方法能让用户更快地使用模型,也能让Google更高效地运行模型。但是,Gemini1.5中的一个新功能让整个公司都特别兴奋:Gemini1.5有一个巨大的上下文窗口,这意味着它可以处理更大的查询,一次查看更多的信息。这个窗口高达100万个tokens,而OpenAI的GPT-4为12.8万个,目前的GeminiPro为3.2万个。"这大约相当于是10或11个小时的视频,数万行代码"。上下文窗口意味着可以一次性向人工智能机器人询问所有内容。GoogleCEO皮查伊还表示,研究人员正在测试一个1000tokens的上下文窗口--这就好比是将《权力的游戏》的整个系列同时播出,或者把整个《指环王》三部曲都放进这个上下文窗口中。这允许在查询时添加大量个人上下文和信息,就像我们极大地扩展了查询窗口一样。目前,Gemini1.5只能通过Google的顶点人工智能(VertexAI)和人工智能工作室(AIStudio)提供给企业用户和开发人员。最终,它将取代Gemini1.0,而Gemini专业版的标准版本--每个人都可以在gemini.google.com和公司的App中使用的版本将是1.5专业版,拥有128000个tokens的上下文窗口,而需要支付额外的费用才能获得百万级的权限。Google还在测试该模式的安全性和道德底线,尤其是新增加的上下文窗口。当全球企业都在试图制定自己的人工智能战略--以及是与OpenAI、Google还是其他公司签署开发者协议时,Google正在为打造最好的人工智能工具而展开一场激烈的竞赛。就在本周,OpenAI公布了ChatGPT的"记忆能力",同时似乎准备进军网络搜索领域。到目前为止,Gemini似乎给人留下了深刻印象,尤其是对于那些已经进入Google生态系统的人来说,但各方都还有很多工作要做。最终,所有这些1.0、1.5、Pro、Ultras和企业之争对用户来说并不重要。人们将只需要感受AI,这就像使用智能手机,而不必总是关注手机里面的处理器是怎么工作的。...PC版:https://www.cnbeta.com.tw/articles/soft/1418373.htm手机版:https://m.cnbeta.com.tw/view/1418373.htm

封面图片

下一代人工智能芯片尝试模仿人脑以节省电能

下一代人工智能芯片尝试模仿人脑以节省电能胡萨姆-阿姆鲁奇(HussamAmrouch)开发出了一种可用于人工智能的架构,其功能是同类内存计算方法的两倍。据《自然》(Nature)杂志报道,这位慕尼黑工业大学(TUM)的教授利用被称为铁电场效应晶体管(FeFET)的特殊电路应用了一种新的计算模式。几年内,这可能会被证明适用于生成式人工智能、深度学习算法和机器人应用。基本理念很简单:以前的芯片只在晶体管上进行计算,而现在它们也是数据存储的位置。这样既省时又省力。慕尼黑工业大学(TUM)人工智能处理器设计教授胡萨姆-阿姆鲁奇(HussamAmrouch)说:"因此,芯片的性能也得到了提升。"未来的芯片必须比早期的芯片更快、更高效。因此,它们的发热速度不能太大。如果要支持无人机飞行等场景的实时计算等应用,这一点至关重要。对于计算机来说,这样的任务极其复杂且耗能。HussamAmrouch教授为能源密集型应用开发强大的人工智能芯片。图片来源:AndreasHeddergott/TUM对芯片的这些关键要求可以用数学参数TOPS/W来概括:"每秒每瓦特的太赫兹运算量"。这可以看作是未来芯片的重要技术指标:当提供一瓦(W)功率时,处理器每秒(S)能执行多少万亿次运算(TOP)。博世与弗劳恩霍夫IMPS合作开发的新型人工智能芯片在生产过程中得到了美国GlobalFoundries公司的支持,可提供885TOPS/W。这使得它比同类人工智能芯片(包括三星公司的MRAM芯片)的功能强大一倍。而目前普遍使用的CMOS芯片的运行速度在10-20TOPS/W之间。最近发表在《自然》杂志上的研究结果证明了这一点。受人脑启发的芯片架构研究人员从人类那里借鉴了现代芯片架构的原理。阿姆鲁奇说:"在大脑中,神经元负责处理信号,而突触则能够记住这些信息,他描述了人类如何能够学习和回忆复杂的相互关系。"为此,芯片使用了"铁电"(FeFET)晶体管。这种电子开关具有特殊的附加特性(施加电压时极性反转),即使在切断电源的情况下也能存储信息。此外,它们还能保证在晶体管内同时存储和处理数据。阿姆鲁奇认为:"现在,我们可以构建高效的芯片组,用于深度学习、生成式人工智能或机器人等应用,例如,在这些应用中,数据必须在生成的地方进行处理。"面向市场的芯片之路研究人员的目标是利用这种芯片运行深度学习算法,识别太空中的物体,或处理无人机在飞行过程中产生的数据,而不会出现时滞。不过,慕尼黑工业大学慕尼黑机器人与机器智能综合研究所(MIRMI)的教授认为,要实现这一目标还需要几年时间。他认为,适合实际应用的首款内存芯片最快也要三到五年后才能问世。其中一个原因是工业界的安全要求。例如,在汽车行业使用这种技术之前,仅有可靠的功能是不够的。它还必须符合该行业的特定标准。硬件专家阿姆鲁奇说:"这再次凸显了与计算机科学、信息学和电气工程等不同学科的研究人员开展跨学科合作的重要性。"他认为这是MIRMI的一大优势。...PC版:https://www.cnbeta.com.tw/articles/soft/1396473.htm手机版:https://m.cnbeta.com.tw/view/1396473.htm

封面图片

抢抓下一代人工智能发展浪潮 东风公司为未来汽车 “造脑”

抢抓下一代人工智能发展浪潮东风公司为未来汽车“造脑”6月4日,从东风公司研发总院获悉,今年初,东风公司在汽车行业内首次提出“具身智能体”这一未来汽车概念,并发布汽车具身智能体架构,目前相关技术研究正加速推进。东风公司研发总院智能化技术总工程师李红林表示,未来汽车具身智能具备三种能力特征:共情能力(Sensibility)、前瞻能力(Proactivity)和适应能力(Adaptability)。汽车将化身超级私人助理,不仅能执行驾驶任务,还能执行非驾驶任务。据介绍,目前东风公司研发总院正通过脱敏后的视频、图片、文本及车辆运行数据进行多模态大模型与大语音模型研发,以构建针对具体应用场景的汽车具身智能体。明年底,基于具身智能技术,东风公司将打造一款带有专属角色的车型;预计到2026年底,东风公司将实现可执行驾驶任务和非驾驶任务中的具身智能体应用。

封面图片

英伟达和AMD的下一代人工智能GPU将主要搭配HBM3内存

英伟达和AMD的下一代人工智能GPU将主要搭配HBM3内存关于HBM3内存,有一个普通的细节不为很多人所知。正如TrendForce所强调的那样,HBM3将以不同的形式出现。据报道,低端HBM3将以5.6至6.4Gbps的速度运行,而高端变体将超过8Gbps。高端变体将被称为"HBM3P、HBM3A、HBM3+和HBM3Gen2"。机构预计,HBM行业的市场份额必将大幅上升,而SK海力士则处于领先地位。预计未来的人工智能GPU,如AMDMI300InstinctGPU和英伟达的H100,都将采用下一代HBM3工艺,而SKHynix在这方面占据了先机,因为它已经进入了制造阶段,并收到了英伟达本身的样品请求。美光(Micron)最近也宣布了其未来的HBM4内存设计计划,但预计要到2026年才会实现,因此即将推出的代号为"GB100"的英伟达BlackwellGPU很可能会采用速度更快的HBM3变体,时间大约在2024-2025年之间。采用第五代工艺技术(10纳米)的HBM3E内存预计将于2024年上半年开始量产,三星/SK海力士预计都将加紧生产。SKhynix率先推出12层HBM3内存,每层24GB容量,向客户提供样品三星和美光(Micron)等竞争对手也在加足马力,有多篇报道都围绕着这两家公司。据说,三星建议英伟达通过其部门负责晶圆和内存的采购。与此同时,据报道美光已与台积电合作,成为英伟达人工智能GPU的内存供应商。在之前的报道中,我们根据TrendForce披露的数据讨论了人工智能产业的前景。据预测,从2023年到2027年,人工智能服务器出货量预计将增长15.4%,复合年增长率(CAGR)预计为12.2%。出货量的大幅增长最终将导致公司之间的竞争加剧,最终推动创新。...PC版:https://www.cnbeta.com.tw/articles/soft/1374607.htm手机版:https://m.cnbeta.com.tw/view/1374607.htm

封面图片

OpenAI和谷歌利用了YouTube视频转录来训练其人工智能模型

OpenAI和谷歌利用了YouTube视频转录来训练其人工智能模型就在几天前,YouTube首席执行官尼尔-莫汉(NealMohan)在接受彭博社采访时表示,OpenAI据称使用YouTube视频来训练其新的文本到视频生成器Sora将违反该平台的政策。据《纽约时报》报道,OpenAI使用其Whisper语音识别工具转录了超过100万小时的YouTube视频,然后用于训练GPT-4。TheInformation此前曾报道,OpenAI曾使用YouTube视频和播客来训练这两个人工智能系统。据报道,OpenAI总裁格雷格-布罗克曼(GregBrockman)也是这个团队的成员之一。Google发言人马特-布莱恩特(MattBryant)告诉《纽约时报》,根据Google的规定,"未经授权采集或下载YouTube内容"是不被允许的,同时他还表示,公司并不知道OpenAI使用过此类内容。不过,该报道称,Google有人知道但没有对OpenAI采取行动,因为Google自己也正在使用YouTube视频训练自己的人工智能模型。但Google告诉《纽约时报》,它只使用同意参加实验项目的创作者的视频。《纽约时报》的报道还称,Google在2022年6月调整了其隐私政策,以更广泛地涵盖使用公开内容(包括Google文档和Google工作表)来训练其人工智能模型和产品。布赖恩特告诉《纽约时报》,只有在选择使用Google实验功能的用户允许的情况下,Google才会这样做,而且该公司"并没有根据这一语言变化开始对其他类型的数据进行训练"。相关文章:YouTubeCEO表示OpenAI用其视频训练Sora将违反平台服务条款...PC版:https://www.cnbeta.com.tw/articles/soft/1426406.htm手机版:https://m.cnbeta.com.tw/view/1426406.htm

封面图片

谷歌 2024 年 I/O 开发者大会前瞻:人工智能成焦点

谷歌2024年I/O开发者大会前瞻:人工智能成焦点谷歌2024年I/O开发者大会将于美国东部时间5月14日13时(北京时间5月15日1时)举行,本届大会的焦点将是人工智能。大会还将举办超过10场与生成式人工智能相关的开发人员“技术分论坛”,主题包括人工智能大模型Gemma最新的进展、学习如何使用Gemini进行多模态检索增强生成。本届I/O开发者大会上,谷歌还将会发布新款Android15移动操作系统,预计Android15将会带来许多全新的人工智能功能,谷歌甚至有可能为Android15发布一款新的大语言模型。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人