苹果发布人工智能模型MGIE 可根据自然语言输入编辑图片

苹果发布人工智能模型MGIE 可根据自然语言输入编辑图片 该模型能够编辑图像的各个方面。全局照片增强可包括亮度、对比度或锐利度,或应用素描等艺术效果。局部编辑可以修改图像中特定区域或对象的形状、大小、颜色或纹理,而 Photoshop 风格的修改则包括裁剪、调整大小、旋转和添加滤镜,甚至是更改背景和混合图像。用户对一张披萨照片的输入可能是"让它看起来更健康"。利用常识推理,模型可以添加蔬菜配料,如西红柿和香草。全局优化输入请求的形式可以是"增加对比度,模拟更多光线",而 Photoshop 风格的修改可以是要求模型将人物从照片背景中移除,将图像的焦点转移到拍摄对象的面部表情上。苹果公司与加州大学的研究人员合作创建了 MGIE,并在 2024 年国际学习表征会议(ICLR)上发表了一篇论文。该模型可在 GitHub 上获取,包括代码、数据和预训练模型。这是苹果公司几个月来在人工智能研究领域取得的第二次突破。12 月底,苹果公司透露,通过发明一种创新的闪存利用技术,它在 iPhone 和其他内存有限的苹果设备上部署大型语言模型 (LLM) 方面取得了长足进步。在过去的几个月里,苹果一直在测试一种可以与 ChatGPT 竞争的"Apple GPT"。据彭博社的马克-古尔曼(Mark Gurman)称,人工智能工作是苹果公司的一个优先事项,该公司正在为大型语言模型设计一个"Ajax"框架。The Information和分析师杰夫-普(Jeff Pu)都声称,苹果将在2024 年底左右在 iPhone 和 iPad 上推出某种生成式人工智能功能,也就是 iOS 18 上市的时候。据古尔曼称,iOS 18 据说将包括一个增强版 Siri,具有类似 ChatGPT 的生成式人工智能功能,并有可能成为 iPhone 历史上"最大的"软件更新。 ... PC版: 手机版:

相关推荐

封面图片

苹果调整百度人工智能模型时遭遇障碍

苹果调整百度人工智能模型时遭遇障碍 据两位知情人士透露,苹果公司和中国搜索巨头百度公司正在合作,为明年在中国销售的 iPhone 添加人工智能功能。但两家公司遇到了障碍,如果不解决,可能会损害苹果公司在美国以外第二大市场提升 iPhone 销量的希望。苹果和百度工程师们正改进百度的大语言模型,使其更适合 iPhone 用户。但据一位直接了解该项目的人士透露,该模型在理解提示词和对 iPhone 用户提出的常见场景做出准确回应方面遇到了困难。此外,百度公司希望保留进行人工智能搜索的 iPhone 用户数据,但这与 Apple Intelligence 和私有云计算的设计方式截然相反。 The Information-电报频道- #娟姐新闻:@juanjienews

封面图片

Shutterstock授权苹果公司使用数百万张图片来训练其人工智能模型

Shutterstock授权苹果公司使用数百万张图片来训练其人工智能模型 此前曾有消息称,苹果公司与多家出版商就类似的人工智能大型语言模型 (LLM) 培训进行了谈判,并使用了来自新闻文章的内容。据称,Conde Nast IAC 和 NBC 等大型媒体都曾与苹果公司洽谈过内容授权事宜。预计苹果公司将在今年 6 月的WWDC 大会上宣布一些重大消息,努力在其操作系统中加入更多人工智能技术。虽然在人工智能整合方面,苹果经常被认为落后于竞争对手,但它自己也进行了一些创新。在过去的一年里,苹果设备用户可能已经注意到了苹果"机器学习"技术的微小改进。例如,预测文本在适应特定用户偏好的词汇方面变得越来越准确,Siri翻译常用短语的能力也得到了提高。据传,苹果公司的下一代处理器将包含更强大的神经引擎。苹果公司全球营销高级副总裁格雷格-乔斯维克(Greg Joswiak)在社交媒体上调侃说,下一届 WWDC 大会将是"绝对令人难以置信的",暗示这次大会将主要围绕iOS18 和其他苹果操作系统中新增的人工智能类型功能展开。苹果在使用人工智能技术方面面临的最大挑战是维持其用户隐私标准,而其他大型人工智能技术公司并不关心这个问题。 苹果公司最近透露,它打算开发可以尽可能使用本地设备算力的模型。 ... PC版: 手机版:

封面图片

苹果公司寻求Photobucket数十亿张图片的授权以训练人工智能模型

苹果公司寻求Photobucket数十亿张图片的授权以训练人工智能模型 生成式人工智能的兴起刺激了对多样化数据集的需求,而像 Photobucket 这样的公司能够提供大量的视觉数据,训练人工智能根据文本提示生成内容。在 ChatGPT 于 2022 年底推出后不久,苹果公司就与 Shutterstock 达成了数百万张图片的授权协议,据信这笔交易的价值在 2500 万美元到 5000 万美元之间。追求"道德来源"和合法明确的数据,标志着苹果与早先随意采集网络数据的做法不同。据报道,苹果公司准备在 6 月份的 WWDC 大会上展示iOS 18及其他主要软件更新所带来的一系列人工智能功能。相关文章:Shutterstock授权苹果公司使用数百万张图片来训练其人工智能模型 ... PC版: 手机版:

封面图片

古尔曼:苹果致力于开发用于生成式人工智能功能的设备端大型语言模型

古尔曼:苹果致力于开发用于生成式人工智能功能的设备端大型语言模型 据彭博社的马克·古尔曼报道,苹果公司正在开发自己的大型语言模型 (LLM),该模型可在设备上运行,以优先考虑速度和隐私。古尔曼在他的“Power On”时事通讯中写道,苹果公司的大语言模型为即将推出的生成式人工智能功能奠定了基础。“所有迹象”似乎表明,它将完全在设备上运行,而不是像大多数现有人工智能服务那样通过云端运行。由于苹果公司的人工智能工具将在设备上运行,因此在某些情况下,可能不如直接基于云的竞争对手,但古尔曼表示,该公司可以通过从谷歌和其他人工智能服务提供商获得技术许可来“填补空白”。

封面图片

苹果挖走谷歌员工组建人工智能团队

苹果挖走谷歌员工组建人工智能团队 苹果公司从谷歌挖来了数十名人工智能专家,并在苏黎世建立了一个秘密的欧洲实验室,并正在组建一个团队,在开发新的人工智能模型和产品方面与竞争对手竞争。根据英国金融时报对数百份领英个人资料以及公开招聘和研究论文的分析,自2018年挖来约翰•詹南德里亚担任其人工智能高管以来,这家公司从竞争对手那里吸引了至少36名专家。虽然苹果公司人工智能团队的大部分人员都在加利福尼亚州和西雅图的办公室工作,但该公司还在苏黎世扩建了一个重要的前哨基地。苹果公司收购了两家当地的人工智能初创企业,虚拟现实集团 FaceShift 和图像识别公司 Fashwell,这促使苹果公司在该市建立了一个研究实验室,被称为“视觉实验室”。驻苏黎世的员工参与了苹果对底层技术的研究,他们的论文集中在更先进的人工智能模型上,这些模型结合了文本和视觉输入,以对查询产生响应。 ()

封面图片

苹果利用谷歌芯片训练其人工智能模型

苹果利用谷歌芯片训练其人工智能模型 当地时间周一,苹果公司宣布了新的 Apple Intelligence 人工智能服务。但在活动结束后,苹果发布的一份技术文件的细则中明确显示出,谷歌公司已成为在人工智能领域又一个赢家。为了构建苹果的基础人工智能模型,该公司的工程师使用了自主开发的框架和一系列硬件,特别是自己的内部图形处理单元 (GPU) 和只能在谷歌云端使用的张量处理单元 (TPU) 芯片。苹果并未透露其对谷歌芯片和软件的依赖程度,以及对英伟达或其他人工智能供应商硬件的依赖程度。 谷歌已经开发 TPU 大约 10 年了,并公开讨论了可用于人工智能训练的两种第五代芯片;谷歌表示,第五代芯片的性能版本提供的性能可与英伟达 H100 人工智能芯片相媲美。通常谷歌的芯片并不直接出售给客户,只能通过谷歌云进行访问。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人