以色列政府真是无耻,发了军方视频证明医院是伊斯兰圣战组织发射火箭失灵掉下来炸的,被发现上的时间对不上号后,编辑推文删了,文字照旧

以色列政府真是无耻,发了军方视频证明医院是伊斯兰圣战组织发射火箭失灵掉下来炸的,被发现视频上的时间对不上号后,编辑推文删了视频,文字照旧。这就好比中国科学家发的论文被发现图片造假,声称不影响结论,哦,中国科学家还要解释是“图片误用”,如果是以色列政府,不用解释,悄悄删了图片即可。

相关推荐

封面图片

以色列政府官方推特号发了以色列军方视频要证明医院是哈马斯火箭炸的,被记者发现时间有问题后,悄悄删了。现在以色列军方说考虑公开机密

以色列政府官方推特号发了以色列军方视频要证明医院是哈马斯火箭炸的,被记者发现视频时间有问题后,悄悄删了。现在以色列军方说考虑公开机密情报证明不是他们炸的医院,不保证会公开。是不是要花时间把材料准备得没有漏洞?以色列在这类事情上撒谎、造假那么多次,前科累累,还有信用吗?

封面图片

"好奇号"漫游车尝试证明液态水在火星流动的时间比想象的要长很多

"好奇号"漫游车尝试证明液态水在火星流动的时间比想象的要长很多 数十亿年前,火星比现在湿润得多,可能也温暖得多。好奇号沿着盖迪兹河谷(Gediz Vallis channel)行驶,并最终穿过该河谷,对那个更像地球的过去有了新的认识。盖迪兹河谷是一个蜿蜒曲折的蛇形地貌,至少从太空中看,它似乎是由一条古老的河流雕刻而成。科学家们对这种可能性很感兴趣。漫游者团队正在寻找证据,以证实这条通道是如何被凿进下层基岩的。岩层的两侧非常陡峭,因此研究小组认为这条通道不是由风形成的。不过,泥石流(快速、潮湿的山体滑坡)或携带岩石和沉积物的河流可能有足够的能量凿进基岩。通道形成后,被巨石和其他碎石填满。科学家们也急切地想知道,这些物质是由泥石流还是雪崩运来的。2 月 3 日,美国国家航空航天局(NASA)的好奇号火星探测器抵达盖迪兹峡谷通道后,使用其中一台黑白导航相机拍摄了这幅 360 度全景图。科学家们对这一地貌很感兴趣,因为它可能告诉他们红色星球上水的历史。图片来源:NASA/JPL-Caltech自2014年以来,好奇号一直在攀登夏普山的山麓,夏普山高出盖尔陨石坑地面3英里(5公里)。夏普山下部的地层是在火星气候不断变化的情况下历经数百万年形成的,为科学家们提供了一种研究水的存在和生命所需的化学成分如何随着时间的推移而发生变化的方法。例如,这些山麓的下部包括一个富含粘土矿物的地层,大量的水曾经在这里与岩石相互作用。现在,漫游车正在探索一个富含硫酸盐的地层,硫酸盐 是水蒸发时经常形成的含盐矿物。在这段 360 度视频中,您可以从美国宇航局好奇号火星探测器的视角观看盖迪兹河谷通道。图片来源:NASA/JPL-Caltech修订夏普山时间表科学家们将用几个月的时间对通道进行全面探索,他们所了解到的情况可能会改变这座山的形成时间。夏普山下部的沉积层被风和水沉积下来后,经过侵蚀作用,这些沉积层被削去,露出了今天可见的沉积层。只有经过这些漫长的过程以及夏普山表面是沙质沙漠的极度干旱时期才能形成盖迪兹河谷通道。科学家们认为,随后填满通道的巨石和其他碎屑来自高山上,而好奇号永远不会去那里,这让研究小组得以一窥山上可能存在的物质种类。在这张利用轨道数据制作的可视化图中,黄色显示的是美国宇航局的好奇号火星车到达盖迪兹谷地通道时的陡峭路径。右下方是火星车转向的位置,以便近距离观察很久以前由夏普山高处的碎片流形成的山脊。图片来源:NASA/JPL-加州理工学院/加州大学伯克利分校"如果通道或碎石堆是由液态水形成的,那就非常有趣了。这意味着,在夏普山故事的相当晚期经过漫长的干旱期水又回来了,而且是以很大的方式,"好奇号项目科学家、美国宇航局南加州喷气推进实验室的阿什温-瓦萨瓦达(Ashwin Vasavada)说。这种解释与"好奇号"在攀登夏普山时最令人惊讶的发现之一是一致的:水似乎是分阶段出现和消失的,而不是随着地球越来越干燥而逐渐消失。这些周期可以从泥浆裂缝、浅咸湖泊以及通道正下方的灾难性碎屑流中看到,这些碎屑流堆积在一起,形成了广阔的盖迪兹谷地山脊。去年,"好奇号"进行了一次极具挑战性的攀登,对山脊进行了研究。山脊横跨夏普山的山坡,似乎是从通道的末端长出来的,这表明两者都是一个地质系统的一部分。近距离观察航道好奇号"用探测器左侧导航相机拍摄的360度黑白全景图记录了这条通道。这张照片拍摄于2月3日(此次任务的第4086个火星日),显示了填满通道一侧的深色沙子,以及沙子后面隆起的碎石堆。反方向则是陡峭的斜坡,"好奇号"就是爬上斜坡到达这一区域的。漫游车在每次驾驶结束时都会用导航相机拍摄这类全景照片。现在,科学团队更加依赖导航相机,同时工程师们也在努力解决一个问题,这个问题限制了彩色桅杆相机(Mastcam)的一个成像器的使用。编译自:ScitechDaily ... PC版: 手机版:

封面图片

OpenAI正引爆一场全球AI安全热战

OpenAI正引爆一场全球AI安全热战 “SSI是我们的使命、我们的名字、我们的整个产品路线图,因为它是我们唯一的焦点。我们的团队、投资者和商业模式都是以实现SSI为目标。”伊利亚、科技企业家和投资者Daniel Gross、OpenAI前科学家Daniel Levy在该公司官网发表的联合署名文章中称,“构建安全的超级智能,是我们这个时代最重要的技术问题。我们计划尽快提升能力,同时确保我们的安全始终处于领先地位。”伊利亚透露,该公司已经启动了世界上第一个直接的安全的超级智能实验室,只有一个目标和一个产品:一个安全的超级智能。但目前,SSI并未公布公司的股东、科研团队和盈利模式。实际上,伊利亚离开OpenAI,很大程度上就是因为与OpenAI CEO奥尔特曼(Sam Altman)为核心的管理层存在分歧,尤其是在如何驾驭超级AI、AGI(通用人工智能)安全发展等问题上存在相反的观点。其中,奥尔特曼和OpenAI总裁Greg Brockman倾向于加速商业化,以获得更多资金来支持AI模型的算力需求,力求快速增强AI的力量;而伊利亚等人则希望AI更安全。去年11月,双方矛盾激化,OpenAI上演“宫斗”大戏,结果奥尔特曼和Greg Brockman在短暂离职后重归OpenAI,原董事会中的多位董事离开,伊利亚则在今年5月宣布离任。对此,国内AI安全公司瑞莱智慧(RealAI)CEO田天对钛媒体AGI等表示,奥尔特曼和伊利亚之间的分歧在于对AI安全的“路线之争”,伊利亚的新公司就是为了 AI 安全目标而设立的。田天指出,包括伊利亚、图灵奖得主Geoffrey Hinton等人认为,AI安全问题现在已经到了“非常迫切”去解决的程度。如果现在不去做,很有可能就会错过这个机会,未来再想亡羊补牢是“没有可能性”的。“大模型领域也是一样。虽然我们对于大模型预期非常高,认为它在很多领域都能去应用,但其实现在,真正在严肃场景下的大模型应用典型案例还是非常少的,主要问题在于 AI 安全上。如果不解决安全可控问题,对于一些严肃场景,是没有人敢去信任AI,没有人敢去用它(AI)。只有说解决安全、可信问题,AI才有可能去落地和应用。”田天表示,如果一些商业化公司对于安全问题不够重视、并毫无边界快速往前跑的话,可能会造成一系列安全危害,甚至可能对于整个全人类有一些安全风险和影响。早在聊天机器人ChatGPT发布之前,伊利亚便提到AGI对人类社会可能的威胁。他把AGI与人类的关系,类比人类与动物的关系,称“人类喜欢许多动物,但当人类要造一条高速路时,是不会向动物征求意见的,因为高速路对人类很重要。人类和通用人工智能的关系也将会这样,通用人工智能完全按照自己的意愿行事。”AGI,即人工智能已具备和人类同等甚至超越人类的智能,简单而言就是能说会写,具备计算、推理、分析、预测、完成任务等各类人类行为。这样的AI曾经遥远,但在OpenAI推出第四代模型GPT-4且正训练第五代模型GPT-5时,AGI看似近在咫尺。今年以来,AI 安全问题持续引发关注。今年1月,美国一位流行歌手被人用AI恶意生成虚假照片,在社交媒体迅速传播,给歌手本人造成困扰;2月,香港一家公司遭遇“AI变脸”诈骗,损失高达2亿元港币,据悉,这家公司一名员工在视频会议中被首席财务官要求转账。然而,会议中的这位“领导”和其他员工,实际都是深度伪造的AI影像。诈骗者通过公开渠道获取的资料,合成了首席财务官的形象和声音,并制作出多人参与视频会议的虚假场景。整体来看,为了实现AGI目标,当前,AI系统在设计上主要面临五大安全挑战:软硬件的安全:在软件及硬件层面,包括应用、模型、平台和芯片,编码都可能存在漏洞或后门;攻击者能够利用这些漏洞或后门实施高级攻击。在AI模型层面上,攻击者同样可能在模型中植入后门并实施高级攻击;由于AI模型的不可解释性,在模型中植入的恶意后门难以被检测。数据完整性:在数据层面,攻击者能够在训练阶段掺入恶意数据,影响AI模型推理能力;攻击者同样可以在判断阶段对要判断的样本加入少量噪音,刻意改变判断结果。模型保密性:在模型参数层面,服务提供者往往只希望提供模型查询服务,而不希望暴露自己训练的模型;但通过多次查询,攻击者能够构建出一个相似的模型,进而获得模型的相关信息。模型鲁棒性:训练模型时的样本往往覆盖性不足,使得模型鲁棒性不强;模型面对恶意样本时,无法给出正确的判断结果。数据隐私:在用户提供训练数据的场景下,攻击者能够通过反复查询训练好的模型获得用户的隐私信息。北京智源人工智能研究院学术顾问委员会主任张宏江在2024北京智源大会上表示,过去一年大模型发展速度之快,行业纷纷探讨通用人工智能的实现路径与曙光,但AI安全问题的严重性与紧迫性不容忽视。“当我们从不同层面 AI 能安全问题进行审视,除了对社会偏见,错误信息,潜在的工作替代或者大模型、自主机器人带来的大规模自动化而导致的工作流失,以及潜在的加速财富集中或财富两极化等问题有所了解,更应该关注 AI 可能带来新的经济体系和包括潜在的灾难性风险或误用事故,甚至可能导致延伸性的人类风险。AI 安全已有很多声明和请愿,但更重要的是明确目标、投入资源、采取行动、共同应对风险。”张宏江表示。北京智源人工智能研究院理事长黄铁军表示,水深流急,AI安全已进入风险很突出的阶段。应对AI安全风险,需要对AGI水平和能力进行分五级,而且,人类应该致力于解决 AI 安全问题,加强与国际社会在AI安全领域的合作,确保AI技术可控,迎接安全AGI的到来。AGI水平和能力的五个级别生成式AI技术是一把双刃剑,如何把生成式AI的强大能力用于建立信息安全规范,将制约行业发展的“绊脚石”变为“压舱石”?业界一直在探索“用技术治理技术”的方案。就在6月21日,瑞莱智慧推出全球首个可实时检测AI合成内容产品RealBelieve,中文名“尊嘟假嘟”。据悉,与此前国内外AIGC检测产品被动上传检测不同,RealBelieve主要面向终端用户,能够提供主动实时检测防护,可接入视频流鉴别人脸真伪,也可在用户浏览网页内容时提供AIGC合成可能性提示。不仅可以为终端用户提供文本、图片、视频和音频多种模态的文件上传检测服务,还可以通过浏览器插件的形式实时提示用户所浏览网页的疑似AI合成内容,变被动为主动。目前,尊嘟假嘟RealBelieve已开启内测招募。田天表示,作为国内为数不多专攻 AI 安全领域的公司,瑞莱智慧已服务百余家政务、金融等领域客户。随着AI技术的发展,安全在整个AI发展中的优先级一直在往前去走。未来 AI 技术要往超级智能方向发展的话,必须要建立整个安全体系,从而确保形成安全的超级智能技术。“如果现在不去做好 AI 安全的话,可能后面我们就没有机会了。”田天称。 ... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人