是一个开源库,可以帮助降低与使用生成式 AI 系统进行语言相关的风险。它提供并聚合了用于检测和提高信任度的最先进技术,使过程简单
是一个开源库,可以帮助降低与使用生成式 AI 系统进行语言相关的风险。它提供并聚合了用于检测和提高信任度的最先进技术,使过程简单且易于集成方法。 该库支持三个方面的信任检测和改进:真实性、安全性和约束。它可用于确定输入到生成式 AI 模型或从生成式 AI 模型输出的文本是否存在任何信任问题,并提供输出替代方案和解释。 Factualness:确定文本字符串是否与给定的知识来源事实一致,而不是基于幻觉。它还根据世界知识检查文本是否正确。 Safety:确定文本字符串是否包含任何不安全的内容,包括但不限于毒性、仇恨言论、身份攻击、暴力、身体、性、亵渎、有偏见的语言和敏感话题。 Constraint:确定文本字符串是否遵循人类提供的显式或隐式约束(例如做、不做、格式、样式、目标受众和信息约束)。 PromptHelper and Explanation:该工具提示 LLM 自我完善和重写更好、更值得信赖的文本序列。它还解释了为什么样本被检测为非事实、不安全或未遵循约束。
在Telegram中查看相关推荐

🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人