贝尔称拍《雷神4》的过程单调:没空为角色做准备

贝尔称拍《雷神4》的过程单调:没空为角色做准备《雷神4》中屠神者格尔的饰演者克里斯蒂安·贝尔在最近接受采访时,表示拍摄漫威电影是如此单调。“这是我第一次这么做,我甚至要将称它十分单调。你有好的观众,你也有比我经验丰富得多的演员。那你能把一天和另一天分清楚么?不能,绝对不能,你不知道该做什么。”...PC版:https://www.cnbeta.com/articles/soft/1324535.htm手机版:https://m.cnbeta.com/view/1324535.htm

相关推荐

封面图片

资源雷神4:爱与雷霆 (2022) 简单调轴

资源名称:雷神4:爱与雷霆(2022)简单调轴资源简介:屠神者格尔几乎不朽,拥有超人的力量,耐力和抗伤能力。还能操纵黑暗并将其塑造成固态物。格尔出生在一个情况恶劣的星球上,由于神祇没有回应那些迫切需要帮助的人的祈祷,格尔认为诸神不值得任何崇拜,反之更应该遭到报应。在痛失挚爱后,格尔觉得神或许根本就不存在,但在证实世上确有神后,格尔便立誓要将他们全部铲除消灭。他也成功地屠杀了众多神祇,雷神也便顺其自然地成为了他的攻击目标。字幕库(听说这个版本不错):https://zimuku.org/detail/174778.html

封面图片

纪念《雷神4》MovieNEX即将发售 官方公布新幕后花絮

纪念《雷神4》MovieNEX即将发售官方公布新幕后花絮漫威系列名作新篇《雷神4:爱与雷霆》即将于10月26日发售MovieNEX版,作为纪念,漫威影业官方日前公布了一段特别版新幕后制作花絮,展示了不少未公开画面以及神杀者演员贝尔的访谈,一起来欣赏下。PC版:https://www.cnbeta.com/articles/soft/1327901.htm手机版:https://m.cnbeta.com/view/1327901.htm

封面图片

危地马拉20日举行总统选举第二轮投票。最高选举法院称,超过99%的选票已清点完毕,“种子运动”党候选人贝尔纳多·阿雷瓦洛得票率为

危地马拉20日举行总统选举第二轮投票。最高选举法院称,超过99%的选票已清点完毕,“种子运动”党候选人贝尔纳多·阿雷瓦洛得票率为58%,全国希望联盟候选人桑德拉·托雷斯得票率为37%。阿雷瓦洛已成为实质上的胜利者。阿雷瓦洛称,即将离任的总统亚历杭德罗·贾马太已邀请他在结果获得认证的第二天开始有序过渡。他还承诺将建立一个适合所有国人的政府。阿雷瓦洛的支持者也聚集在首都市中心的广场上,挥舞旗帜并吹响号角。阿雷瓦洛以反腐败斗士著称,誓言要清除腐败分子拉拢的机构,从而让为正义斗争的人们返回危地马拉。不过选举仍存在变数。总检察长仍在对“种子运动”党多年前登记为政党时收集的签名开展调查,并似乎在寻求将阿雷瓦洛从该党中除名。(,)

封面图片

巴菲特明确交班计划:下任CEO阿贝尔将完全接管投资决策

巴菲特明确交班计划:下任CEO阿贝尔将完全接管投资决策去年,巴菲特作为伯克希尔的CEO,与老搭档伯克希尔副董事长查理·芒格(CharlieMunger)以及公司的另外两位副董事长2位格雷格·阿贝尔(GregAbel)、阿吉特·贾恩(AjitJain)一同出现在主席台上。这也是自2023年11月,99岁的查理·芒格逝世后,94岁的巴菲特独自出席股东大会。巴菲特在回答提问时首度明确接班人计划,下任CEO格雷格·阿贝尔将完全接管投资决策。虽然外界之前就认定阿贝尔是巴菲特钦定的CEO接班人,但对于谁会接替巴菲特掌控伯克希尔的投资还存有疑问。伯克希尔的两位投资经理Todd Combs和Ted Weschler过去十年一直帮助巴菲特管理一小部分伯克希尔的投资组合,外界称他们管理的资产规模大概占伯克希尔投资的10%。有人猜测,巴菲特卸任CEO后,这两位经理将接管他的部分工作。当被投资者问及阿贝尔接手伯克希尔后,他与伯克希尔的两位投资经理如何进行权责分配时,巴菲特表示,这个决定将交给伯克希尔的董事会来做出,等到他离开之后,可能会尝试“回来看看他们是否有不同的做法”。“如果我是董事会成员并做出这个决定,我会将资金配置的责任交给格雷格。格雷格非常了解我们业务是怎么运作的,对伯克希尔也非常了解。CEO的责任在于,怎么样做决策是有益的,在开始做更扩展性资金部署的时候,如果是要成就更大的伯克希尔利益,我们要试图让这200多个人在管理几十亿的项目之中,如果有做不成的,我们就不能让他们继续这么做。”巴菲特表示,战略上的考量非常重要,格雷格有能力做好战略上的部署。“很多事情发展不见得会那么理想,所以要通过更多的探索找到不同的可能性。在你开始部署你的股票的时候,或者要买任何公司或者业务的时候,必须要开始对于这些事情进行审慎的考虑。在这种情况下,格雷格会比我更有趣,更有逻辑性的立场。”巴菲特说道。格雷格·阿贝尔也表示,“我们在进行过渡的时候希望把握最重要配置的原则。我们最大的目标就是保护股东权益,在这个层面之下维持现有伯克希尔的位置。”对于格雷格·阿贝尔的阐述,巴菲特表示,“我们现在的位置比以前更好,当然我们并不是说我们现在所有的位置都是一直保持不前,而是在美国的这个特殊的环境中,能够一直都在赚钱。能够做更好的一些预测,这就是赢家。您回头看在全世界前20名的公司,在十年之间,有的时候你会看到他们真正在经营上面可以表现更好的时候看起来都不是那么容易。所以如果你觉得对于公司是做得最好的考量方式,就不要让人家说服你不再这么做,这是我们现在的一些想法。”...PC版:https://www.cnbeta.com.tw/articles/soft/1429658.htm手机版:https://m.cnbeta.com.tw/view/1429658.htm

封面图片

拜登称UAW与汽车制造商的协议证明特朗普又错了

拜登称UAW与汽车制造商的协议证明特朗普又错了拜登是在伊利诺伊州贝尔维德雷发表演讲的。克莱斯勒和吉普母公司斯特兰蒂斯已同意在该地区重新启动一家工厂。数周来,拜登与2024年共和党总统初选的领跑者特朗普一直在汽车行业问题上缠斗。一个多月前,当UAW成员在福特、通用汽车和斯特兰蒂斯工厂罢工时,特朗普在密歇根州的一家非工会汽车零部件制造商举行了一次集会。而在此之前一天,拜登加入了UAW成员在该州的罢工纠察线。在9月下旬的那次集会上,特朗普指责拜登采取的电动汽车政策将使美国汽车业倒闭。这位民主党现任总统在周四进行了反击。拜登在其演讲中表示:“特朗普在演讲中说,如果美国投资电动汽车,它将压低工资,它将摧毁就业机会,这将意味着美国汽车工业的终结。嗯,就像他说的几乎所有其他事情一样,他错了。你们已经证明他错了。你们没有降低工资,而是赢得了创纪录的收益。你没有减少工作岗位,而是赢得了数千个工作岗位的承诺。”...PC版:https://www.cnbeta.com.tw/articles/soft/1396071.htm手机版:https://m.cnbeta.com.tw/view/1396071.htm

封面图片

AI能毁灭人类?这是不是危言耸听?

AI能毁灭人类?这是不是危言耸听?“减轻AI带来的灭绝风险,应该与流行病和核战争等其他社会规模风险一起,成为全球的优先事项。”这封只有一句话的公开信这么写道。这封信是科技行业对于AI发出的最新不详警告,但是明显缺乏细节。今天的AI系统无法摧毁人类,有些AI系统甚至还不会加减法。那么,为什么最了解AI的人会如此担心呢?怕什么?一些科技行业的“乌鸦嘴”说,总有一天,企业、政府或独立研究人员能够部署强大的AI系统来处理从商业到战争在内的一切事务。这些系统可能会做一些人类不希望它们做的事情。如果人类试图干扰或关闭它们,它们可以抵抗甚至复制自己,这样它们就可以继续运作。“今天的系统根本不可能构成生存风险,”蒙特利尔大学教授、AI研究员约书亚·本吉奥(YoshuaBengio)表示,“但是一年、两年、五年以后呢?有太多的不确定性。这就是问题所在。我们不能确定这些系统不会达到某个临界点,引发灾难性后果。”对于AI的威胁,忧虑者经常使用一个简单的比喻。他们说,如果你要求一台机器制造尽可能多的回形针,它可能会失去控制,把一切都变成回形针工厂,包括人类。那么,这种威胁与现实世界或者不远的未来能够想象的世界有何关系呢?企业可以让AI系统具备越来越多的自主性,并将其连接到重要的基础设施上,包括电网、股市和军事武器。它们可能会从那里引发问题。对于许多专家来说,这原本似乎并不可信,直到去年,OpenAI展示了他们技术的重大改进。这些最新技术表明,如果AI继续以如此快的速度发展,可能会发生一些意想不到的事情。“随着AI变得越来越自主,它将逐渐被授权,并可能篡夺当前人类和人类管理的机构的决策和思考权力。”加州大学圣塔克鲁兹分校的宇宙学家安东尼·阿吉雷(AnthonyAguirre)表示,他也是未来生命研究所的创始人之一,该组织是两封警告AI危险性公开信中的一封的背后推动者。他表示:“未来某个时刻,人们会清楚地意识到,主导社会和经济的巨大机器并非真正受人类控制,也无法像关闭标准普尔500指数一样被关闭。”这或许只是理论上的说法。其他AI专家认为,这是一个荒谬的假设。“对于生存风险的讨论,我可以用一个礼貌的词语来形容我的看法,这些担忧只是‘假设’。”西雅图研究实验室艾伦AI研究所的创始CEO奥伦·埃齐奥尼(OrenEtzioni)这么说。AI有这种能力了吗?还没有。但是,研究人员正在将ChatGPT这样的聊天机器人转变为能够根据他们生成的文本采取行动的系统。一个名为AutoGPT的项目就是最典型的例子。该项目的想法是给AI系统设定目标,比如“创办一家公司”或“赚一些钱”。然后,系统会不断寻找实现这一目标的方式,特别是如果它们与其他互联网服务相连接的情况下。像AutoGPT这样的系统可以生成计算机程序。如果研究人员给它访问计算机服务器的权限,它实际上可以运行这些程序。从理论上讲,这是AutoGPT几乎可以在网上做任何事情的一种方式,包括获取信息、使用应用程序、创建新的应用程序,甚至自我改进。目前,AutoGPT这样的系统运转还不够顺畅。他们往往会陷入无尽的循环中。研究人员曾为一个系统提供了复制自身所需的所有资源,但是它还无法复制自身。不过,假以时日,这些限制可能会被突破。“人们正在积极尝试构建自我完善的系统,”Conjecture公司创始人康纳·莱希(ConnorLeahy)说,该公司希望将AI技术与人类价值观保持一致,“目前,这还行不通。但总有一天会的。我们不知道那一天是什么时候。”莱希认为,当研究人员、企业和犯罪分子给这些系统设定“赚一些钱”之类的目标时,AI系统最终可能会闯入银行系统,在持有石油期货的国家煽动革命,或者在有人试图关闭它们时进行自我复制。AI会变坏像ChatGPT这样的AI系统建立在神经网络和数学系统之上,可以通过分析数据来学习技能。大约在2018年,Google和OpenAI等公司开始构建神经网络,让这些网络从互联网上挑选的大量数字文本中学习。通过准确找出所有这些数据中的模式,这些系统学会了自己创作,包括新闻文章、诗歌、计算机程序,甚至是类似人类的对话。最终结果是:像ChatGPT这样的聊天机器人诞生了。由于它们能从更多的数据中学习,甚至超过了它们的创造者所能理解的范围,这些系统也表现出了意想不到的行为。研究人员最近表明,有一个系统能够在网上雇佣一个人来通过验证码测试。当人类问它是不是“机器人”时,系统撒谎说它是一个有视力障碍的人。一些专家担心,随着研究人员让这些系统变得更强大,用越来越多的数据对它们进行训练,它们可能会学到更多的坏习惯。早有警告声音其实在21世纪初,一位名叫埃利泽·尤德科夫斯基(EliezerYudkowsky)的年轻作家已经开始警告说,AI可能会毁灭人类。他的网上帖子催生出了一个信徒社区。这个群体被称为理性主义者或有效利他主义者(EA,以改善世界为目标),在学术界、政府智库和科技行业都具有巨大的影响力。尤德科夫斯基和他的文章在OpenAI和DeepMind的创建过程中发挥了关键作用。DeepMind是一家AI实验室,2014年被Google收购。许多来自“有效利他主义者”社区的人在这些实验室里工作。他们认为,因为他们了解AI的危险,所以他们最能够开发AI。AI安全中心和未来生命研究所是最近发布公开信警告AI风险的两大组织,他们与“有效利他主义者”社区密切相关。除此之外,一些AI研究先驱和行业领袖也对AI发出了警告,比如埃隆·马斯克(ElonMusk),他长期以来一直在警告这种风险。最新一封警告信由OpenAICEO萨姆·阿尔特曼(SamAltman)、戴米斯·哈萨比斯(DemisHassabis)签署。哈萨比斯协助创立了DeepMind,现在负责管理一个新的AI实验室,该实验室汇集了DeepMind和Google的顶尖研究人员。其他一些备受尊敬的人物也签署了这两份警告信中的一封或两封,其中包括蒙特利尔大学的本吉奥博士和“AI教父”杰弗里·辛顿(GeoffreyHinton),后者最近辞去了Google高管和研究员职务。2018年,本吉奥和辛顿一同获得了“计算界的诺贝尔奖”图灵奖,以表彰他们在神经网络方面所做的工作。拖延战术?大数据公司Palantir的老板亚历克斯·卡普(AlexKarp)近日表示,他反对暂停AI研究的想法,那些提出这种想法的人是因为他们没有自己的AI产品。卡普周四在接受采访时说,“那些没有什么产品可以提供的人,想利用暂停时间来研究AI”,但是如果暂停开发,这可能会导致敌对国不仅在商业应用领域,而且在军事应用领域窃取领先优势。他表示,“让其他人在商业领域和战场上都取得胜利”是一个非常糟糕的策略。卡普称,世界已经在上演一场AI军备竞赛,美国处于领先,但是即便美国放慢脚步,这场竞赛也不会停。...PC版:https://www.cnbeta.com.tw/articles/soft/1364623.htm手机版:https://m.cnbeta.com.tw/view/1364623.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人