Twitch 将解散其安全顾问委员会,并用主播取而代之

根据CNBC发布的一份报告,Twitch决定终止所有现有安全顾问委员会成员的合同。该委员会在本月早些时候得知Twitch不会续签他们的合同,据报道,他们的合同将于5月31日星期五生效终止,并且不会有进一步的薪酬。顾问委员会于2020年5月成立,目的是“加强Twitch在信任和安全问题上的处理方式。”委员会由九名成员组成,包括Twitch主播、管理员和有研究及应对网络骚扰经验的外部专家。该小组协助Twitch制定新的安全政策和产品,同时也充当联络人,能够将Twitch社区的安全问题反馈给决策者。尽管这些合同已经到期,Twitch打算继续保留安全顾问委员会。Twitch信任与安全通讯经理ElizabethBusby在给TheVerge的一份声明中表示,流媒体平台将把委员会的成员扩展到大约180名Twitch大使计划的成员。CNBC写道,Twitch拒绝透露大使们是否会获得报酬。随着过去几年科技公司开始缩减开支,,带薪的道德团队经常被削减。标签:#Twitch#安全顾问委员会频道:@GodlyNews1投稿:@GodlyNewsBot

相关推荐

封面图片

Twitch 解雇了其安全咨询委员会的所有成员

Twitch解雇了其安全咨询委员会的所有成员亚马逊旗下直播平台Twitch周五终止了其安全咨询委员会所有成员的合同,该委员会由行业专家、主播和版主组成,负责就信任和安全问题提供咨询。根据公司网页,该委员会就“起草新政策和政策更新”、“开发产品和功能以提高安全性和适度性”以及“保护边缘群体的利益”向Twitch提供建议。5月6日,委员会成员收到一封电子邮件,称所有现有合同将于2024年5月31日结束,并且他们不会收到2024年下半年的付款,随后委员会成员被召集开会。电子邮件中写道:“展望未来,安全咨询委员会将主要由担任Twitch大使的个人组成。”——

封面图片

美国国土安全部任命 AI 安全顾问委员会

美国国土安全部(DHS)周五宣布成立一个顾问委员会,成员包括OpenAI、微软、谷歌母公司Alphabet和Nvidia的首席执行官,该委员会将就AI在关键基础设施中的作用向政府提供建议。该委员会将为运输部门、管道和电网运营商、互联网服务提供商和其他部门制定建议,以“预防和准备与人工智能相关的对影响国家或经济安全、公共健康或安全的关键服务的干扰”。委员会将于下个月举行首次会议,并计划未来每季度召开一次会议。标签:#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

美国国土安全部任命人工智能安全顾问委员会

美国国土安全部任命人工智能安全顾问委员会美国国土安全部(DHS)周五宣布成立一个顾问委员会,他们将就人工智能在16种关键基础设施中的作用向政府提供建议,包括能源、公用事业、交通、国防、信息技术、食品和农业以及金融服务等重要服务。该委员会将为交通运输部门、管道和电网运营商、互联网服务提供商和其他部门制定建议,以“预防和准备应对与人工智能相关的对影响国家或经济安全、公共健康或安全的关键服务的中断”。该委员会由22名成员组成,其中的科技领袖包括OpenAI首席执行官SamAltman、Anthropic首席执行官DarioAmodei、英伟达首席执行官黄仁勋、IBM首席执行官ArvindKrishna、Adobe首席执行官ShantanuNarayen、微软首席执行官SatyaNadella、Alphabet首席执行官SundarPichai、思科首席执行官ChuckRobbins、AWS首席执行官AdamSelipsky、​​AMD首席执行官苏姿丰以及斯坦福大学教授李飞飞。但意外的是活跃在人工智能领域的Meta公司首席执行官马克·扎克伯格和一向公开倡导人工智能安全性的埃隆·马斯克都没有出现在委员会成员名单中。——

封面图片

Twitch 退出韩国市场前夕遭通讯委员会罚款4.35亿韩元

Twitch退出韩国市场前夕遭韩国通讯委员会罚款4.35亿韩元韩国放送通信委员会周五表示,已对亚马逊旗下网络直播平台Twitch处以4.35亿韩元的罚款,原因是由于该平台2022年宣布暂停在韩国的VOD服务,让用户权益受到损害,违反了韩国电信商业法。此外,韩国放送通信委员会还对Twitch处以1500万韩元的罚款,原因是其没有建立防止非法视频传播的系统。——、

封面图片

马斯克解散了Twitter的信任和安全委员会

马斯克解散了Twitter的信任和安全委员会这些理事会成员向美联社提供了来自Twitter的电子邮件的图片,由于担心遭到报复,他们在匿名的情况下发言。这封署名为"Twitter"的电子邮件说:"我们使Twitter成为一个安全、信息丰富的地方的工作将比以往更快、更积极地进行,我们将继续欢迎你们就如何实现这一目标提出意见。"这个志愿者小组就Twitter如何更好地打击仇恨、骚扰和其他危害提供专业知识和指导,但没有任何决策权,也不审查具体的内容纠纷。"Twitter的信任和安全委员会是一个志愿者团体,多年来,当Twitter工作人员咨询时,他们放弃了自己的时间,就广泛的在线伤害和安全问题提供建议,"委员会成员亚历克斯-霍姆斯在Twitter上说。"在任何时候,它都不是一个管理机构或决策。"总部位于旧金山的Twitter周四在一封电子邮件中确认了与理事会的会议,并承诺与Twitter员工进行"公开对话和问答",其中包括新任信任和安全主管EllaIrwin。就在同一天,三名理事会成员宣布辞职,并在Twitter上发表公开声明,称"与埃隆-马斯克的说法相反,Twitter用户的安全和福祉正在下降。"在马斯克放大了对他们和Twitter过去领导层的批评后,这些前理事会成员很快成为网上攻击的目标,因为他们被指没有采取足够的措施来阻止该平台上的儿童性剥削。"他们多年来拒绝对儿童剥削采取行动,这是一种犯罪!"马斯克在Twitter上说。对该委员会的攻击情形越来越多,导致剩下的一些成员感到担忧,他们在周一向Twitter发送了一封电子邮件,要求该公司停止歪曲其作用。邮件中说,Twitter公司领导人的那些不实指控"正在危及理事会的现任和前任成员"。事实上,信托和安全委员会的咨询小组之一是关注儿童剥削问题的小组。这包括国家失踪和被剥削儿童中心、拉蒂基金会和YAKIN(即青年成人幸存者和需要帮助的人)。...PC版:https://www.cnbeta.com.tw/articles/soft/1335105.htm手机版:https://m.cnbeta.com.tw/view/1335105.htm

封面图片

OpenAI成立新的安全顾问委员会 成员全是自己人

OpenAI成立新的安全顾问委员会成员全是自己人根据OpenAI公司博客上的一篇文章,安全顾问委员会将在接下来90天内负责评估OpenAI得安全流程和保障措施。然后,该委员会将向OpenAI董事会汇报其发现和建议,OpenAI表示,届时将以符合安全和安保的方式公布任何已采纳的建议的更新。OpenAI周二表示,已开始训练新一代旗舰人工智能模型,以期超越目前的GPT-4大模型。“OpenAI最近开始训练其下一个前沿模型,我们预计由此产生的系统将使我们在通往通用人工智能的道路上迈上一个新台阶,”OpenAI写道。“虽然我们很自豪地构建和发布在能力和安全方面都领先的模型,但我们欢迎在这个重要时刻进行深入讨论。”除了Altman,安全顾问委员会的其他成员包括OpenAI董事会成员BretTaylor、AdamD’Angelo和NicoleSeligman,以及首席科学家JakubPachocki、OpenAI早期筹备团队的AleksanderMadry、安全系统负责人LilianWeng、安保负责人MattKnight和“人工智能对齐”(AIAlignment)负责人JohnSchulman。安全不再优先多名高层离职过去几个月,OpenAI的技术团队中有多名安全方面的高层人员离职,这些前员工中有些人对OpenAI在AI安全方面的优先级下降表示担忧。曾在OpenAI担任团队治理工作的DanielKokotajlo在4月辞职,因为他对OpenAI在发布越来越强大的AI时“负责任的行为”失去了信心,他在个人博客上写道。此外,OpenAI的联合创始人兼前首席科学家IlyaSutskever在与Altman及其盟友的长期斗争后,于5月离职,据报道部分原因是Altman急于推出AI驱动的产品而牺牲了安全性能。最近,前DeepMind研究员JanLeike此前在OpenAI负责开发ChatGPT及其前身InstructGPT的过程中,也辞去了安全研究员职务,他在一系列X平台的帖子中表示,他认为OpenAI“未走在解决AI安全和安保问题的正确轨道上”。同时,AI政策研究员GretchenKrueger上周离开OpenAI,她也同意Leike的观点,呼吁公司提高问责制和透明度,并“更加谨慎地使用自己的技术”。媒体报道,除了Sutskever、Kokotajlo、Leike和Krueger,自去年年底以来,至少有五名OpenAI最重视安全的员工要么辞职,要么被迫离开,包括前OpenAI董事会成员HelenToner和TashaMcCauley。两人日前在媒体撰文称,在Altman的领导下,他们相信OpenAI无法实现对自身追究责任。“根据我们的经验,OpenAI的自我治理无法承受利润激励带来的诱惑。”倡导监管?塑造监管此前有媒体报道,负责开发“超级智能”AI系统治理方法的OpenAI超级对齐(Superalignmentteam)团队被承诺获得公司20%的计算资源,但实际上却很少这部分资源。超级对齐团队自那以后被解散,其工作大部分被转交给“人工智能对齐”(AIAlignment)负责人JohnSchulman和OpenAI在12月成立的安全咨询小组。虽然OpenAI一直在倡导AI监管,但也在努力影响塑造这些监管,该公司聘请了一名内部游说者和越来越多的外部律师事务所游说者,仅在美国游说方面该公司2023年第四季度就花费了数十万美元。最近,美国国土安全部宣布Altman将成为其新成立的人工智能安全和安保委员会(ArtificialIntelligenceSafetyandSecurityBoard)的成员,该委员会将为“安全和可靠的AI开发和部署”提供建议,以覆盖美国的关键基础设施。而为了避免由于安全和安保委员会全部为内部高管而被认为是橡皮图章,OpenAI承诺聘请第三方“安全、安保和技术”专家来支持委员会的工作,包括网络安全专家RobJoyce和前美国司法部官员JohnCarlin。然而,除了Joyce和Carlin,OpenAI尚未详细说明该外部专家组的规模和组成,也没有透露该组对委员会的影响力和权力的限制。有专家指出,OpenAI成立此类的企业监督委员会,类似于Google的高级技术外部咨询委员会,其实在实际监督方面几乎没有什么作为。...PC版:https://www.cnbeta.com.tw/articles/soft/1432684.htm手机版:https://m.cnbeta.com.tw/view/1432684.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人