OpenAI修订使用政策,改写原表述“禁止用于有很大风险产生物理伤害的活动,如武器研发、军事战争”为“禁止用于伤害自己或他人,如

OpenAI修订使用政策,改写原表述“禁止用于有很大风险产生物理伤害的活动,如武器研发、军事战争”为“禁止用于伤害自己或他人,如武器的研发和使用”。 《指挥控制与仿真》刊解放军信息工程大学文章《基于大模型的态势认知智能体》(收稿日期2023年8月28日)以伊拉克和利比亚战争为例,试用文心一言(文本交互)讯飞星火(多模态,可输入态势图)作战场态势预测。文章仅属“一个初步的想法和尝试”,纯文本交互的试验效果亦不理想。 (The Intercept,南华早报)

相关推荐

封面图片

OpenAI 悄然删除禁止将 ChatGPT 用于 “军事和战争” 的禁令

OpenAI 悄然删除禁止将 ChatGPT 用于 “军事和战争” 的禁令 在 1 月 10 日之前,OpenAI 的《使用政策》页面一直禁止“具有高身体伤害风险的活动”,包括 “武器开发” 及 “军事和战争”。而新政策保留了不得 “利用我们的服务伤害自己或他人” 的禁令,并以 “开发或使用武器” 来举例,但对 “军事和战争” 用途的全面禁止已不复存在。该公司表示,此次重写旨在使文件 “更清晰”、“更易读”,其中还包括许多其他实质性的语言和格式改动。发言人拒绝透露模糊的“伤害”禁令是否涵盖所有军事用途。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

OPENAI 更新使用政策:删除“禁止将其产品用于军事和战争目的”的措辞

OPENAI 更新使用政策:删除“禁止将其产品用于军事和战争目的”的措辞 OPENAI 本周从其使用政策中删除了“明确禁止将其技术用于军事目的”的措辞。新政策保留了不得“使用其服务伤害自己或他人”的禁令,并以“开发或使用武器”为例,但“军事和战争”这个更全面的禁令已经消失。 OPENAI 发言人表示,“我们的目标是创建一套通用原则,像‘不伤害他人’这样的原则很广泛,很多情况下都具有相关性,此外,我们还特别引用了武器和对他人造成的伤害作为明显的例子。”发言人拒绝透露模糊的“伤害”禁令是否涵盖所有军事用途。 媒体推测,OPENAI 正在研究新的商机,因为并非所有的军事都与战争有关,军事机构深入参与各种基础研究、投资和基础设施建设。例如 OpenAI 的 GPT 平台对于陆军工程师总结某个地区数十年的水利基础设施文献资料非常有用。 、、/ 政策

封面图片

OpenAI 本周悄然从其使用政策中删除了明确禁止将其技术用于军事目的的措辞,该政策旨在规定如何使用 ChatGPT 等强大且非

OpenAI 本周悄然从其使用政策中删除了明确禁止将其技术用于军事目的的措辞,该政策旨在规定如何使用 ChatGPT 等强大且非常流行的工具。 截至 1 月 10 日,OpenAI 的“使用政策”页面在新选项卡中打开其中包括禁止“具有高人身伤害风险的活动”,特别是“武器开发”和“军事和战争”。禁止军事应用的明确措辞似乎排除了国防部或任何其他国家军队的任何官方且极其有利可图的使用。新政策在新选项卡中打开保留了不得“使用我们的服务伤害自己或他人”的禁令,并以“开发或使用武器”为例,但对“军事和战争”使用的全面禁令已经消失。 此次未经宣布的修订是政策页面重大重写的一部分,该公司表示,其目的是使文档“更清晰”和“更具可读性”,其中包括许多其他实质性的语言和格式更改。 via 匿名 标签: #OpenAI #ChatGPT 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

OpenAI 现允许网站阻止其网络爬虫抓取数据,避免数据被用于训练 AI 模型

OpenAI 现允许网站阻止其网络爬虫抓取数据,避免数据被用于训练 AI 模型 OpenAI 在其博客文章中表示,网站运营者可以通过在其网站的文件中禁止 GPTBot 的访问,或者通过屏蔽其 IP 地址,来阻止 GPTBot 从其网站上抓取数据。OpenAI 还表示,“使用 GPTBot 用户代理(user agent)抓取的网页可能会被用于改进未来的模型,并且会过滤掉那些需要付费访问、已知收集个人身份信息(PII)、或者有违反我们政策的文本的来源。”对于不符合排除标准的来源,“允许 GPTBot 访问您的网站可以帮助 AI 模型变得更加准确,并提高它们的通用能力和安全性。” 但是,这并不会追溯性地从 ChatGPT 的训练数据中删除之前从网站上抓取的内容。来源 ,, 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

微软修改政策 禁止美国警察部门使用企业人工智能工具

微软修改政策 禁止美国警察部门使用企业人工智能工具 另外一个新的要点涵盖了"全球范围内的任何执法部门",并明确禁止在移动摄像头上使用"实时人脸识别技术",如车载摄像头和仪表盘摄像头,以试图在"不受控制的野外"环境中识别一个人。在条款发生变化的一周前,为军事和执法部门提供技术和武器产品的制造商Axon公司发布了一款新产品,该产品利用OpenAI的GPT-4生成文本模型对来自车载摄像头的音频进行总结。批评者很快就指出了其中的潜在隐患,比如幻觉(即使是当今最好的生成式人工智能模型也会编造事实)和从训练数据中引入的种族偏见(鉴于有色人种被警察拦下的几率远远高于白人同胞,这一点尤其令人担忧)。目前还不清楚Axon是否通过Azure OpenAI服务使用GPT-4,如果是,更新政策是否是为了应对Axon的产品发布。OpenAI此前曾限制通过其API使用其模型进行面部识别。不过,新条款还是为微软留出了回旋余地。全面禁止使用Azure OpenAI服务仅涉及美国警方,而非国际警方。它也不包括在后台办公室等受控环境中使用固定摄像头进行的面部识别(尽管条款禁止美国警方使用任何面部识别技术)。这与微软和亲密合作伙伴 OpenAI 最近在人工智能执法和国防合同方面的做法不谋而合。今年1月,彭博社(Bloomberg)的报道披露,OpenAI正在与五角大楼(Pentagon)就包括网络安全能力在内的多个项目展开合作这与该初创公司早前禁止向军方提供人工智能的禁令有所不同。另据《The Intercept》报道,微软已提出使用 OpenAI 的图像生成工具 DALL-E,帮助国防部(DoD)构建执行军事行动的软件。Azure OpenAI 服务于今年 2 月在微软的 Azure 政府产品中推出,为包括执法部门在内的政府机构增加了额外的合规性和管理功能。在一篇博客文章中,微软政府部门Microsoft Federal高级副总裁Candice Ling承诺,Azure OpenAI服务将向国防部"提交额外授权",用于支持国防部任务的工作负载。微软和 OpenAI 没有立即回复置评请求。 ... PC版: 手机版:

封面图片

#法庭报导1⃣29岁女社工藏镭射笔罪成 判囚半年 官指可能用作伤害他人

#法庭报导 1⃣29岁女社工藏镭射笔罪成 判囚半年 官指可能用作伤害他人 29岁女社工于2019年10月1日旺角被搜出袋内有镭射笔,事隔两年被起诉,否认在公众地方管有攻击性武器罪,上周被裁定罪成,还柙至今被判囚半年。裁判官崔美霞指,虽然没有证据显示被告曾使用镭射笔,但她带备镭射笔可能用作伤害现场人士,加上有人堵路及进行破坏,情况可迅速恶化,对现场人士造成严重影响。 2⃣10.1荃湾 两人暴动罪成囚4年3个月 申请定罪上诉许可被拒 上诉方不满原审法官练锦鸿在宣告口头裁决后,延误近3个月才向被告交付书面裁决理由书,有违条例的21天规定。但高院法官潘敏琦反驳,该规定是要求在限期内将口述宣告转为文字记录,而非将文本交给控辩双方,批评上诉方说法牵强,其推断并不公平。 3⃣21岁学生非法集结及蒙面罪成 上诉后维持原判 藏武罪获撤销 高等法院法官黄崇厚颁下判词,指作供警为诚实可靠证人,上诉人穿黑衣、管有防毒面罩等物品,属非法集结者,故维持非法集结和违反蒙面法的定罪。就管有攻击性武器罪,法官同意胶纸并非「攻击性武器」或「适合作非法用途的工具」,故裁定有关定罪撤销。 4⃣梁振英控告钟剑华、《立场新闻》诽谤 钟未能缴交陪审团开支 高院裁失陪审团审讯权 梁振英2018年入禀高等法院,循民事途径控告《立场新闻》和香港民研名誉总监、前理大助理教授钟剑华,指《立场新闻》刊登钟的文章,内容诽谤梁振英。双方同意于明年进行陪审团审讯,惟钟一直未能缴交陪审团开支的款项,加上《立场新闻》已无律师代表,今被高等法院法官欧阳桂如裁定失去陪审团审讯的权利。梁振英一方另提及,有关文章涉批评作为全国政协副主席的梁,涉干犯《国安法》,法官指有关文章刊登于2018年,故《国安法》并不适用。 5⃣【立场案】办公室业主称单位收回时好凌乱好多杂物 「睇到立场就憎」 《立场》办公室前业主供称,前年4月与《立场》母公司签了3年租约,今年头就续租事宜多番联络公司不果,看电视才得悉其租客为《立场》。他于6月尾接回单位,发现非常凌乱,「好似畀人摷过嘢咁」,又谓:「我睇到《立场》就好憎佢,点解将个单位搞到咁。」 6⃣社民连工党示威限聚令案 7人申上诉至终院 押后宣判

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人