苹果研究人员发布了一个新模型,用户可以用简单的语言描述他们想要修改的照片,而无需触摸照片编辑软件。
苹果研究人员发布了一个新模型,用户可以用简单的语言描述他们想要修改的照片,而无需触摸照片编辑软件。 苹果与加州大学圣巴巴拉分校(University of California, Santa Barbara)合作开发的MGIE模型可以通过文本提示对图像进行裁剪、调整大小、翻转和添加滤镜。 MGIE是mllm引导的图像编辑,可以应用于简单和更复杂的图像编辑任务,比如修改照片中的特定物体,使它们具有不同的形状或更亮。该模型混合了多模态语言模型的两种不同用法。首先,它学习如何解释用户提示。然后,它会“想象”编辑后的样子(例如,要求在照片中添加更蓝的天空,就会增加图像中天空部分的亮度)。 当使用MGIE编辑照片时,用户只需要输入他们想要修改的图片。这篇论文以编辑意大利辣香肠披萨的图片为例。输入提示“让它更健康”,模型则会添加一些蔬菜。一张撒哈拉沙漠老虎的照片看起来很暗,但在告诉模型“增加更多的对比度来模拟更多的光线”后,照片看起来更亮了。 标签: #Apple #AI 频道: @GodlyNews1 投稿: @GodlyNewsBot
在Telegram中查看相关推荐

🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人