TextGen:实现了多种文本生成模型,包括:UDA、GPT2、Seq2Seq、BART、T5等模型,开箱即用

TextGen:实现了多种文本生成模型,包括:UDA、GPT2、Seq2Seq、BART、T5等模型,开箱即用:本项目参考Google的UDA(非核心词替换)算法和EDA算法,基于TF-IDF将句子中部分不重要词替换为同义词,随机词插入、删除、替换等方法,产生新的文本,实现了文本扩增:本项目基于百度翻译API实现了回译功能,先把中文句子翻译为英文,再把英文翻译为新的中文:本项目基于PyTorch实现了Seq2Seq、ConvSeq2Seq、BART模型的训练和预测,可以用于文本翻译、对话生成、摘要生成等文本生成任务:本项目基于PyTorch实现了T5和CopyT5模型训练和预测,可以用于文本翻译、对话生成、对联生成、文案撰写等文本生成任务:本项目基于PyTorch实现了GTP2模型训练和预测,可以用于文章生成、对联生成等文本生成任务SongNet:本项目基于PyTorch实现了SongNet模型训练和预测,可以用于规范格式的诗词、歌词等文本生成任务:本项目实现了TGLS无监督相似文本生成模型,是一种“先搜索后学习”的文本生成方法,通过反复迭代学习候选集,最终模型能生成类似候选集的高质量相似文本

相关推荐

封面图片

谷歌Chrome 126将集成Gemini Nano模型,实现本地文本生成功能

谷歌Chrome126将集成GeminiNano模型,实现本地文本生成功能在2024年I/O开发者大会上,谷歌宣布其Chrome126浏览器将引入GeminiNano模型,该模型能够在本地执行文本生成等功能,如生成产品评论、社交媒体帖子和其他简介,并针对Chrome浏览器进行了优化,显著提高了加载速度。此外,谷歌还计划在ChromeDevTools中提供Gemini功能,以便开发人员调试和优化应用程序,Gemini将能够解释错误信息并提供编码问题的解决建议。与此相比,微软的Edge浏览器中的人工智能助手Copilot并不在本地运行。关注频道@ZaiHuaPd频道投稿@ZaiHuabot

封面图片

OpenAI正在升级其文本生成模型GPT-3.5-turbo和GPT-4并降低价格

OpenAI正在升级其文本生成模型GPT-3.5-turbo和GPT-4并降低价格例如,函数调用可以帮助创建聊天机器人,通过调用外部工具回答问题,将自然语言转换为数据库查询,并从文本中提取结构化数据。“这些模型已经过微调,可以检测何时需要调用函数……并使用符合函数签名的JSON进行响应,”OpenAI在介绍中写道。“函数调用允许开发人员更可靠地从模型中获取结构化数据。”除了函数调用之外,OpenAI还引入了一种具有极大扩展上下文窗口的GPT-3.5-turbo。上下文窗口以标记或原始文本位衡量,指的是模型在生成任何其他文本之前考虑的文本。具有小上下文窗口的模型往往会“忘记”即使是最近的对话内容,导致他们偏离主题。新的GPT-3.5-turbo提供四倍于普通GPT-3.5-turbo的上下文长度(16000个令牌),价格是原来的两倍——每1000个输入令牌(即输入模型的令牌)0.003美元,每1000个输出令牌0.004美元(模型生成的标记)。OpenAI表示,它一次可以摄取大约20页的文本——明显低于AI初创公司Anthropic的旗舰模型可以处理的数百页文本。(OpenAI正在测试具有32000个令牌上下文窗口的GPT-4版本,但发布范围有限。)从好的方面来说,OpenAI表示它正在将GPT-3.5-turbo(原始版本,而不是具有扩展上下文窗口的版本)的价格降低25%。开发人员现在可以以每1000个输入令牌0.0015美元和每1000个输出令牌0.002美元的价格使用该模型,这相当于每美元大约700页。text-embedding-ada-002的定价也有所降低,这是OpenAI更流行的文本嵌入模型之一。文本嵌入衡量文本字符串的相关性,通常用于搜索(结果按与查询字符串的相关性排序)和推荐(推荐具有相关文本字符串的项目)。Text-embedding-ada-002现在每1000个令牌的价格为0.0001美元,比之前的价格降低了75%。OpenAI表示,减少是通过提高其系统效率实现的——毫无疑问,这是这家初创公司关注的一个关键领域,因为它在研发和基础设施上花费了数亿美元。OpenAI已经表示,在3月初发布GPT-4之后,对现有模型的增量更新是当下主要工作,而不是研发大规模的从头开始的新模型。在最近的一次会议上,首席执行官山姆·奥特曼重申OpenAI尚未开始培训GPT-4的继任者,这表明该公司在开始该模型之前“还有很多工作要做”。了解更多:https://openai.com/blog/function-calling-and-other-api-updates...PC版:https://www.cnbeta.com.tw/articles/soft/1365217.htm手机版:https://m.cnbeta.com.tw/view/1365217.htm

封面图片

Stability AI推出适用于普通电脑的文本生成图像模型SD3 Medium

StabilityAI推出适用于普通电脑的文本生成图像模型SD3MediumStabilityAI今天宣布基于SD3推出了新版本SD3Medium版,该版本只有2B参数,适合在消费级设备上使用。SD3Medium同样免费,属于开放但非开源的模型,如果需要商业性使用应当购买授权。下载链接:关注频道@ZaiHuaPd频道爆料@ZaiHuabot

封面图片

Stability AI 推出 Stable Audio,基于文本生成最长 90 秒音频

StabilityAI推出StableAudio,基于文本生成最长90秒音频StabilityAI公司近日推出StableAudio,可以基于用户输入的文本内容,自动生成音乐或者音频。免费版StableAudio可以生成最长20秒的音乐片段,而用户在购买Pro订阅之后,可以生成最长90秒的音频内容。StabilityAI公司首席执行官表示:“我们希望音乐爱好者和创意专业人士使用StableAudio工具,帮助生成新的内容,并期待能够激发无限的创造力”。https://stability.ai/blog/stable-audio-using-ai-to-generate-music——

封面图片

MobileDiffusion是Google研究的一种新的移动端文本生成图像的方法,专为移动设备设计,是一种高效的潜在扩散模型,

是Google研究的一种新的移动端文本生成图像的方法,专为移动设备设计,是一种高效的潜在扩散模型,能够在半秒内生成高质量的512x512图像。MobileDiffusion的设计遵循潜扩散模型,包括三个组件:文本编码器、扩散UNet和图像解码器。MobileDiffusion通过优化模型架构,包括DiffusionUNet和图像解码器,展现了在计算效率上的出色表现,该技术有望在移动设备上推动快速图像生成体验,拓展了生成模型在提高用户体验和应对隐私问题方面的潜在应用。

封面图片

开源声音与音乐生成模型AudioLDM2 只需提供文本即可生成高质量音频

开源声音与音乐生成模型AudioLDM2只需提供文本即可生成高质量音频项目地址:https://github.com/haoheliu/AudioLDM2相比传统的Concatenative方法,该模型可以生成更流畅连贯的音频。同时,相比基于GAN的方法,它生成的音频质量更高,更符合文本描述的语义。该工具提供了命令行接口和网页应用,非专业用户也可以轻松使用。用户可以选择不同的模型检查点,生成不同风格的音频。同时,调整随机种子也可以生成不同的音频样本。总之,这是一个强大且易用的文本到音频生成工具,可以广泛应用于音乐创作、音效生成、语音合成等领域。它极大地降低了音频内容生成的门槛,对创意行业有重大帮助。该模型的出现,无疑为音频处理领域注入了新的活力,并为相关行业提供了一种全新的解决方案。未来,这个模型的应用领域还可能进一步扩展,为我们的生活带来更多惊喜。...PC版:https://www.cnbeta.com.tw/articles/soft/1380491.htm手机版:https://m.cnbeta.com.tw/view/1380491.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人