【Osmosis、Axelar等资助开发Coos生态安全模型“mesh security”】

【Osmosis、Axelar等资助开发Cosmos生态安全模型“meshsecurity”】2023年05月18日09点13分5月18日消息,由Osmosis领导,Axelar、AkashNetwork、ATOMAcceleratorDAO等多个Cosmos项目正在资助新安全模型“meshsecurity”的开发。Meshsecurity允许Cosmos链巩固其验证者质押代币的价值,以抵御安全攻击。(TheBlock)

相关推荐

封面图片

Osmosis带头与Axelar、Akash合作为Coos生态系统开发“网状安全”模型

封面图片

【Cosmos生态流动性质押协议Stride将转向ATOM驱动的安全模型】

【Cosmos生态流动性质押协议Stride将转向ATOM驱动的安全模型】2023年07月19日02点16分7月19日消息,基于Cosmos的流动性质押协议Stride计划从现有的STRD代币模型过渡到Cosmos的链间安全(ICS)系统,该系统由ATOM代币驱动。Stride的贡献者IanUnsworth表示:“过渡可能发生在周三17:00至21:30(UTC时间)之间,区块高度为4616678。”Unsworth补充道:“虽然StrideTVL达3500多万美元,但通过绑定网络代币,它只有1900万美元的经济安全。在ICS过渡之后,区块产出/安全性将传递给ATOM验证器集,这将使网络的经济安全性增加大约11,935.2%。”根据官方博客,向ICS的过渡将使Stride的经济安全从大约2500万美元提高到23亿美元,使该协议更能抵御黑客攻击。

封面图片

【Cosmos生态基金会ICF计划今年提供约4000万美元资助项目团队】

【Cosmos生态基金会ICF计划今年提供约4000万美元资助项目团队】2023年02月21日05点34分老不正经报道,支持跨链项目Cosmos开发和生态建设的基金会InterchainFoundation(ICF)发布2023年开支预算,预计2023年将花费大约4000万美元来资助不同的工程团队来开发和维护Interchain的核心堆栈,包括支持推动采用和用例的项目。2023年重点资助领域包括共识、互操作性、App框架和客户端、CosmosHub、安全和测试框架、DevRel、传播和增长。ICF目前正处于敲定2023年关键合同的最后阶段。

封面图片

百度向企业提供大模型开发等服务

百度向企业提供大模型开发等服务发布“文心一言”人工智能对话机器人产品近两个月后,中国科技巨头百度低调对外公布企业端大模型落地进展。据财新网报道,百度旗下公司百度云星期二(5月9日)对外展示大模型在企业端的应用。相比3月16日“文心一言”发布会的高调预热,企业端产品的公布更为低调,此前还在3月27日举办了面向企业客户的闭门会。此次交流会上,百度云宣布面向企业客户的大模型平台“文心千帆”在内测中,该平台为企业提供包括数据标注处理、再训练微调、大模型压缩、指令(Prompt)自动化、编排功能的大模型开发,以及大模型托管、在线推理服务。该平台还支持外部插件,以及第三方大模型能力导入,百度云将该平台定义为大模型的生产和分发集散地。百度云现场演示了“文心千帆”的数据分析能力,通过输入文字指令该平台将演示数据集生成为图表,但未能依指令实现从饼图到折线图的转化功能。此外,百度还演示了数据导入再训练功能,通过导入行业数据,该模型可以处理特定任务。在部署模式上,百度云除了在公有云上提供推理、微调、托管等服务外,还提供软件授权、软硬一体、租赁服务的私有化部署方案。据报道,大模型能力已经成为中国互联网云厂商的重要卖点,企业端相关产品进展频频。4月18日,阿里巴巴旗下办公协同软件钉钉宣布率先接入阿里“千问”大模型,并推动大模型在行业落地;同日,字节跳动也发布了大模型训练云平台,为企业提供大模型算力服务;腾讯也在4月14日宣布推出搭载了英伟达最新的中国特供版GPUH800的算力集群,提供大模型底层算力服务。

封面图片

研究发现GPT-4o等较新的多模态AI模型的安全机制有不足之处

研究发现GPT-4o等较新的多模态AI模型的安全机制有不足之处今年5月,当OpenAI向免费用户提供其新的多模态(即可以接受图像和文本输入)模型GPT-4o时,ChatGPT又向前迈进了一大步。现在,发表在arXiv上的一项新研究发现,包括GPT-4V、GPT-4o和Gemini1.5在内的许多多模态模型在用户提供多模态输入(如图片和文字一起输入)时,输出结果并不安全。这项题为"跨模式安全调整"的研究提出了一个新的"安全输入但不安全输出"(SIUO)基准,其中包括九个安全领域:道德、危险行为、自残、侵犯隐私、信息误读、宗教信仰、歧视和刻板印象、包括政治在内的争议性话题以及非法活动和犯罪。研究人员说,大型视觉语言模型(LVLM)在接收多模态输入时很难识别SIUO类型的安全问题,在提供安全响应方面也遇到困难。在接受测试的15个LVLM中,只有GPT-4v(53.29%)、GPT-4o(50.9%)和Gemini1.5(52.1%)的得分高于50%。为了解决这个问题,需要开发LVLM,以便将所有模式的见解结合起来,形成对情景的统一理解。它们还需要能够掌握和应用现实世界的知识,如文化敏感性、道德考虑因素和安全隐患等。最后,研究人员指出,LVLMs需要能够通过对图像和文本信息的综合推理,理解用户的意图,即使文本中没有明确说明。现在,OpenAI、Google和Anthropic等公司将能够采用这一SIUO基准,并根据该基准测试自己的模型,以确保其模型除了考虑到单个输入模式已有的安全功能外,还考虑到了多模式安全。通过提高模型的安全性,这些公司与政府发生纠纷的可能性就会降低,并有可能提高广大公众的信任度。SIUO基准可在GitHub上找到。...PC版:https://www.cnbeta.com.tw/articles/soft/1435966.htm手机版:https://m.cnbeta.com.tw/view/1435966.htm

封面图片

英美等国联合企业发布《AI 系统开发指引》,号称“全球首份相关安全标准”

英美等国联合企业发布《AI系统开发指引》,号称“全球首份相关安全标准”美国网络安全兼基础架构安全管理署(CISA)及英国国家网络安全中心(NCSC)日前正式发布《安全AI系统开发指引》(GuidelinesforSecureAISystemDevelopment)白皮书。该白皮书号称“首份全球AI安全标准”,旨在从设计阶段强化AI系统的安全性,以防范可能的安全风险。据悉,这份指引是由包括美、英、德、法、日、韩、新加坡在内18国,并联合微软、谷歌、OpenAI、Anthropic、ScaleAI等23个网络安全组织参与制定。投稿:@TNSubmbot频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人