(“谢谢Sam和老黄为我们代言”

(“谢谢Sam和老黄为我们代言”KAIST的这个虚拟试穿模型效果太好了,代码、模型权重也都开源了•项目主页:https://idm-vton.github.io/•代码:https://github.com/yisol/IDM-VTON•模型:https://huggingface.co/yisol/IDM-VTON•试用地址:https://huggingface.co/spaces/yisol/IDM-VTON

相关推荐

封面图片

ChatTTS是最近很火的超逼真TTS(文本转语音)模型,重点是开源了O!

ChatTTS是最近很火的超逼真TTS(文本转语音)模型,重点是开源了O!试了下,是真的没有机器味儿啊...太强了现在HuggingFaceSpace上有不少的demo可以体验效果,大家也可以试试:https://huggingface.co/spaces/Dzkaka/ChatTTS•模型下载:https://huggingface.co/2Noise/ChatTTS•GitHub:https://github.com/2noise/ChatTTS

封面图片

MyShell 开源了号称目前全世界效果最好的 TTS 库 MeloTTS

MyShell开源了号称目前全世界效果最好的TTS库MeloTTS代码:https://github.com/myshell-ai/MeloTTS体验:https://huggingface.co/spaces/mrfakename/MeloTTS哥飞给大家介绍下,目前MeloTTS支持英语、西班牙语、法语、中文、日语和韩语,号称是目前最好的高质量多语言文本转语音库。还支持中英混杂,有点优秀哦。

封面图片

哥飞给大家整理了几个可以在线体验 Llama2 的地方

哥飞给大家整理了几个可以在线体验Llama2的地方llama2.ai目前最好用,可选70B、13B、7B模型https://www.llama2.ai/perplexity.ai只有13B和7Bhttps://llama.perplexity.ai/llama2.space只有7Bhttps://www.llama2.space/poe.com有13B和7Bhttps://poe.com/Llama-2-13bhttps://poe.com/Llama-2-7bhuggingface.co暂时找到了13B和7B的,70B的都报错,就没列出来https://huggingface.co/spaces/huggingface-projects/llama-2-13b-chathttps://huggingface.co/spaces/huggingface-projects/llama-2-7b-chathuggingfacechat支持llama270B和llama30Bhttps://huggingface.co/chat

封面图片

Stability AI正式发布了DeepFloyd IF图像生成模型,这是一个有文本编码器和三个级联的diffusion模块组

StabilityAI正式发布了DeepFloydIF图像生成模型,这是一个有文本编码器和三个级联的diffusion模块组合的模型。这个模型的效率要比原有的satblediffusion效率要高很多。我尝试了一下,看起来效果也比SD2.0强一些。划重点,这个模型是认字的生成出来的英文非常工整。文章链接:https://stability.ai/blog/deepfloyd-if-text-to-image-model可以在这里体验模型:https://huggingface.co/spaces/DeepFloyd/IFGithub:https://github.com/deep-floyd/IF模型网站:https://deepfloyd.ai/if

封面图片

游戏开发者看过来!这应该是目前最全的开发 AI 工具大盘点!

游戏开发者看过来!这应该是目前最全的游戏开发AI工具大盘点!这是一个强大的AI游戏开发工具精选集合,覆盖了从资产生成、纹理生成、图像生成,到语音识别、对话模型、NPC的方方面面。独立游戏开发者,或者游戏开发工作室,将AI工具集成到工作流程中,可以极大简化开发过程,提升创造力和沉浸感,并在各个环节释放出更多可能性!语音生成▢CoquiStudio:https://coqui.ai▢Bark:https://github.com/suno-ai/bark▢ReplicaStudios:https://replicastudios.com语音识别▢OpenAIWhisper:https://huggingface.co/openai/whisper-base▢FacebookWav2Vec2:https://huggingface.co/facebook/wav2vec2-large-xlsr-53对话模型▢ChatGPT:https://chat.openai.com▢HuggingChat:https://huggingface.co/chat故事讲述模型▢MPT-7B-StoryWriter-65k+:https://huggingface.co/mosaicml/mpt-7b-storywriter▢Claude100k:https://www.anthropic.com/index/100k-context-windows▢GTP-432k:https://platform.openai.com/docs/models/overview游戏设计▢Ludo.ai:https://ludo.ai搜索引擎▢Haddock:https://www.haddock.aiAINPC▢Inworld:https://inworld.aiPython库▢NeMoGuardrails:https://github.com/NVIDIA/NeMo-Guardrails▢Guidance:https://github.com/microsoft/guidanceC#库▢Python.Net:https://github.com/pythonnet/pythonnet

封面图片

剑指 Sora:Picsart AI 团队联合发布 StreamingT2V 模型,可生成 1200 帧 2 分钟视频

剑指Sora:PicsartAI团队联合发布StreamingT2V模型,可生成1200帧2分钟视频PicsartAIResarch等团队联合发布了StreamingT2V,可以生成长达1200帧、时长为2分钟的视频,同时质量也很不错。并且,作者表示,两分钟并不是模型的极限,就像之前Runway的视频可以延长一样,StreamingT2V理论上可以做到无限长。同时,作为开源世界的强大组件,StreamingT2V可以无缝兼容SVD和animatediff等模型。不但比Sora长,而且免费开源!论文地址:https://arxiv.org/pdf/2403.14773.pdfDemo试用:https://huggingface.co/spaces/PAIR/StreamingT2V开源代码:https://github.com/Picsart-AI-Research/StreamingT2V频道:@kejiqu群组:@kejiquchat

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人