OpenAI修订使用政策,改写原表述“禁止用于有很大风险产生物理伤害的活动,如武器研发、军事战争”为“禁止用于伤害自己或他人,如

OpenAI修订使用政策,改写原表述“禁止用于有很大风险产生物理伤害的活动,如武器研发、军事战争”为“禁止用于伤害自己或他人,如武器的研发和使用”。 《指挥控制与仿真》刊解放军信息工程大学文章《基于大模型的态势认知智能体》(收稿日期2023年8月28日)以伊拉克和利比亚战争为例,试用文心一言(文本交互)讯飞星火(多模态,可输入态势图)作战场态势预测。文章仅属“一个初步的想法和尝试”,纯文本交互的试验效果亦不理想。 (The Intercept,南华早报)

相关推荐

封面图片

OpenAI 悄然删除禁止将 ChatGPT 用于 “军事和战争” 的禁令

OpenAI 悄然删除禁止将 ChatGPT 用于 “军事和战争” 的禁令 在 1 月 10 日之前,OpenAI 的《使用政策》页面一直禁止“具有高身体伤害风险的活动”,包括 “武器开发” 及 “军事和战争”。而新政策保留了不得 “利用我们的服务伤害自己或他人” 的禁令,并以 “开发或使用武器” 来举例,但对 “军事和战争” 用途的全面禁止已不复存在。该公司表示,此次重写旨在使文件 “更清晰”、“更易读”,其中还包括许多其他实质性的语言和格式改动。发言人拒绝透露模糊的“伤害”禁令是否涵盖所有军事用途。来源 , 频道:@kejiqu 群组:@kejiquchat

封面图片

OPENAI 更新使用政策:删除“禁止将其产品用于军事和战争目的”的措辞

OPENAI 更新使用政策:删除“禁止将其产品用于军事和战争目的”的措辞 OPENAI 本周从其使用政策中删除了“明确禁止将其技术用于军事目的”的措辞。新政策保留了不得“使用其服务伤害自己或他人”的禁令,并以“开发或使用武器”为例,但“军事和战争”这个更全面的禁令已经消失。 OPENAI 发言人表示,“我们的目标是创建一套通用原则,像‘不伤害他人’这样的原则很广泛,很多情况下都具有相关性,此外,我们还特别引用了武器和对他人造成的伤害作为明显的例子。”发言人拒绝透露模糊的“伤害”禁令是否涵盖所有军事用途。 媒体推测,OPENAI 正在研究新的商机,因为并非所有的军事都与战争有关,军事机构深入参与各种基础研究、投资和基础设施建设。例如 OpenAI 的 GPT 平台对于陆军工程师总结某个地区数十年的水利基础设施文献资料非常有用。 、、/ 政策

封面图片

OpenAI 本周悄然从其使用政策中删除了明确禁止将其技术用于军事目的的措辞,该政策旨在规定如何使用 ChatGPT 等强大且非

OpenAI 本周悄然从其使用政策中删除了明确禁止将其技术用于军事目的的措辞,该政策旨在规定如何使用 ChatGPT 等强大且非常流行的工具。 截至 1 月 10 日,OpenAI 的“使用政策”页面在新选项卡中打开其中包括禁止“具有高人身伤害风险的活动”,特别是“武器开发”和“军事和战争”。禁止军事应用的明确措辞似乎排除了国防部或任何其他国家军队的任何官方且极其有利可图的使用。新政策在新选项卡中打开保留了不得“使用我们的服务伤害自己或他人”的禁令,并以“开发或使用武器”为例,但对“军事和战争”使用的全面禁令已经消失。 此次未经宣布的修订是政策页面重大重写的一部分,该公司表示,其目的是使文档“更清晰”和“更具可读性”,其中包括许多其他实质性的语言和格式更改。 via 匿名 标签: #OpenAI #ChatGPT 频道: @GodlyNews1 投稿: @GodlyNewsBot

封面图片

微软修改政策 禁止美国警察部门使用企业人工智能工具

微软修改政策 禁止美国警察部门使用企业人工智能工具 另外一个新的要点涵盖了"全球范围内的任何执法部门",并明确禁止在移动摄像头上使用"实时人脸识别技术",如车载摄像头和仪表盘摄像头,以试图在"不受控制的野外"环境中识别一个人。在条款发生变化的一周前,为军事和执法部门提供技术和武器产品的制造商Axon公司发布了一款新产品,该产品利用OpenAI的GPT-4生成文本模型对来自车载摄像头的音频进行总结。批评者很快就指出了其中的潜在隐患,比如幻觉(即使是当今最好的生成式人工智能模型也会编造事实)和从训练数据中引入的种族偏见(鉴于有色人种被警察拦下的几率远远高于白人同胞,这一点尤其令人担忧)。目前还不清楚Axon是否通过Azure OpenAI服务使用GPT-4,如果是,更新政策是否是为了应对Axon的产品发布。OpenAI此前曾限制通过其API使用其模型进行面部识别。不过,新条款还是为微软留出了回旋余地。全面禁止使用Azure OpenAI服务仅涉及美国警方,而非国际警方。它也不包括在后台办公室等受控环境中使用固定摄像头进行的面部识别(尽管条款禁止美国警方使用任何面部识别技术)。这与微软和亲密合作伙伴 OpenAI 最近在人工智能执法和国防合同方面的做法不谋而合。今年1月,彭博社(Bloomberg)的报道披露,OpenAI正在与五角大楼(Pentagon)就包括网络安全能力在内的多个项目展开合作这与该初创公司早前禁止向军方提供人工智能的禁令有所不同。另据《The Intercept》报道,微软已提出使用 OpenAI 的图像生成工具 DALL-E,帮助国防部(DoD)构建执行军事行动的软件。Azure OpenAI 服务于今年 2 月在微软的 Azure 政府产品中推出,为包括执法部门在内的政府机构增加了额外的合规性和管理功能。在一篇博客文章中,微软政府部门Microsoft Federal高级副总裁Candice Ling承诺,Azure OpenAI服务将向国防部"提交额外授权",用于支持国防部任务的工作负载。微软和 OpenAI 没有立即回复置评请求。 ... PC版: 手机版:

封面图片

#法庭报导1⃣29岁女社工藏镭射笔罪成 判囚半年 官指可能用作伤害他人

#法庭报导 1⃣29岁女社工藏镭射笔罪成 判囚半年 官指可能用作伤害他人 29岁女社工于2019年10月1日旺角被搜出袋内有镭射笔,事隔两年被起诉,否认在公众地方管有攻击性武器罪,上周被裁定罪成,还柙至今被判囚半年。裁判官崔美霞指,虽然没有证据显示被告曾使用镭射笔,但她带备镭射笔可能用作伤害现场人士,加上有人堵路及进行破坏,情况可迅速恶化,对现场人士造成严重影响。 2⃣10.1荃湾 两人暴动罪成囚4年3个月 申请定罪上诉许可被拒 上诉方不满原审法官练锦鸿在宣告口头裁决后,延误近3个月才向被告交付书面裁决理由书,有违条例的21天规定。但高院法官潘敏琦反驳,该规定是要求在限期内将口述宣告转为文字记录,而非将文本交给控辩双方,批评上诉方说法牵强,其推断并不公平。 3⃣21岁学生非法集结及蒙面罪成 上诉后维持原判 藏武罪获撤销 高等法院法官黄崇厚颁下判词,指作供警为诚实可靠证人,上诉人穿黑衣、管有防毒面罩等物品,属非法集结者,故维持非法集结和违反蒙面法的定罪。就管有攻击性武器罪,法官同意胶纸并非「攻击性武器」或「适合作非法用途的工具」,故裁定有关定罪撤销。 4⃣梁振英控告钟剑华、《立场新闻》诽谤 钟未能缴交陪审团开支 高院裁失陪审团审讯权 梁振英2018年入禀高等法院,循民事途径控告《立场新闻》和香港民研名誉总监、前理大助理教授钟剑华,指《立场新闻》刊登钟的文章,内容诽谤梁振英。双方同意于明年进行陪审团审讯,惟钟一直未能缴交陪审团开支的款项,加上《立场新闻》已无律师代表,今被高等法院法官欧阳桂如裁定失去陪审团审讯的权利。梁振英一方另提及,有关文章涉批评作为全国政协副主席的梁,涉干犯《国安法》,法官指有关文章刊登于2018年,故《国安法》并不适用。 5⃣【立场案】办公室业主称单位收回时好凌乱好多杂物 「睇到立场就憎」 《立场》办公室前业主供称,前年4月与《立场》母公司签了3年租约,今年头就续租事宜多番联络公司不果,看电视才得悉其租客为《立场》。他于6月尾接回单位,发现非常凌乱,「好似畀人摷过嘢咁」,又谓:「我睇到《立场》就好憎佢,点解将个单位搞到咁。」 6⃣社民连工党示威限聚令案 7人申上诉至终院 押后宣判

封面图片

OpenAI被解雇员工惊人预警:“超级智能几周,相当于人类几十亿年”

OpenAI被解雇员工惊人预警:“超级智能几周,相当于人类几十亿年” 图片来源:X6月初,利奥波德·阿申布伦纳在博客节目Dwarkesh Podcast中,透露他被开除的真实原因他给几位董事会成员分享了一份OpenAI安全备忘录,结果导致OpenAI管理层不满。同日,阿申布伦纳在社交平台上,发布了一份长达165页的PDF文档。图片来源:X阿申布伦纳将他的这份文件命名为《态势感知》(Situational Awareness)。在文件的开头,他特别指出,虽然自己曾在OpenAI工作,但自己的预测都是基于公开信息、自己的想法、工作期间的八卦等。他还在这份文件的开头特别致敬了前OpenAI首席科学家伊尔亚·苏茨克维(Ilya Sutskever)和其他OpenAI超级对齐团队的成员。他认为目前全世界只有仅仅几百人对AI的发展有真正意义上的感知,这些人大多集中在旧金山地区以及全球各地的AI实验室里,自己便是这几百人中的一员。而那些主流评论家们只看到了炒作和常规的商业模式,他们认为这不过是另一场互联网规模的技术变革。图片来源:《态势感知》阿申布伦纳在文章中指出,AI的进步不会止步于人类水平。例如,在最初学习了人类最好的棋局之后,AlphaGo开始与自己对弈,它很快实现了超越人类的水平,下出了人类永远无法想出的极具创意和复杂性的棋步。在实现AGI后,人类将能够利用先进的AGI系统实现自动化的AI研究,将十年的算法进步压缩到一年内。这意味着我们将迅速从人类水平的AI系统过渡到远超人类的超级智能系统。这可能会将人类10年的算法进展压缩到不到1年的时间里。与现有领先的AI实验室的数百名研究人员和工程师相比,未来的AI实验室可能会拥有成千上万个AGI系统,夜以继日地努力实现算法突破,不断自我完善,加速算法进步的现有趋势。图片来源:《态势感知》他写道:“超级智能的力量和危险将是戏剧性的。”这种转变不仅会带来技术上的飞跃,还将引发一系列伦理和安全问题。阿申布伦纳强调,通过一些新的创新,超级智能在几周内就能获得相当于人类数十亿年的经验。这种前所未有的学习速度将使超级智能在数量和质量上远超人类。他指出:“这些AI系统将能够以我们无法想象的速度进行思考和学习。”阿申布伦纳预测,到本世纪末,我们将拥有数以亿计的超级智能,这些智能体将在数量和质量上远超人类。他写道:“在数以亿计的GPU上运行的超级智能,将能够比人类快几个数量级地‘思考’。”这种超级智能的涌现将带来巨大的技术进步,但也伴随着巨大的风险。图片来源:《态势感知》文章中最引人注目的观点之一是,十亿超级智能将能够将人类研究人员在下个世纪进行的研发工作压缩到几年内。这种压缩效应将极大地加速技术进步,但也可能带来难以预见的后果。阿申布伦纳指出:“超级智能将是人类有史以来最强大的技术也是最强大的武器。它将赋予军事上决定性的优势,或许只有核武器可以相比。”阿申布伦纳强调,智能爆炸和其直接后果将带来人类历史上最为动荡和紧张的局面。他指出:“在这个初期阶段,人类的任务将不是制造酷炫的产品,而是要尽一切可能度过这一时期。”他呼吁建立一个能够严肃对待这些困难抉择的指挥链,以稳定国际局势并管理智能爆炸期间的风险。他进一步提到,尽管对齐技术可能会被滥用,但我们仍需要更好的对齐技术来确保未来模型的基本限制,如遵循指令或遵守法律。这些技术不仅仅是为了防止滥用,更是为了确保AI能够在安全的框架内运行。展望未来,阿申布伦纳认为,我们正处于一个前所未有的快速发展时期,预计在未来四年内,计算能力将再提升约10万倍,带来类似于GPT-2到GPT-4的质的飞跃。他指出,这不仅意味着更好的聊天机器人,更意味着从工具到代理的转变,从一个简单的工具到一个更像是远程助手的存在。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人