OpenAI 首席科学家称今天的 AI 模型可能有些许意识

OpenAI首席科学家称今天的AI模型可能有些许意识IlyaSutskever在接受麻省理工科技评论采访时表示,今天的神经网络可能具有一定意识,神经网络基于生物大脑的机制设计,两者都接收数据,聚合来自该数据的信号,然后基于一些简单的过程(神经网络中的数学、大脑中的化学物质和生物电)来传播或不传播它们。这是一个巨大的简化,但原则是成立的。如果你有一个非常大的人工神经网络,它应该做很多事情。特别是,如果人脑可以做某事,那么大型人工神经网络也可以做类似的事情。投稿:@ZaiHuaBot频道:@TestFlightCN

相关推荐

封面图片

Open AI首席科学家:ChatGPT可能已经有了意识 AI将万世不朽

OpenAI首席科学家:ChatGPT可能已经有了意识AI将万世不朽更多时候,是为(通用人工智能)AGI站台,正如他的X签名:“打造众多喜欢人类的AGI们”(towardsapluralityofhumanitylovingAGIs)。在现实生活里同样如此,他不热衷社交,很少在媒体前抛头露面。唯一能让他感到兴奋的东西,就是人工智能。近期,IlyaSutskever接受了《麻省理工科技评论》记者WillDouglasHeaven专访,他在采访中谈到了OpenAI早年的创业史、实现AGI的可能性,还介绍了OpenAI未来在管控“超级智能”方面的计划,他希望让未来的超级智能,可以像父母看待孩子那样看待人类。以下为正文:伊尔亚·苏茨克维(IlyaSutskever)低头沉思。他双臂张开,手指放在桌面上,就像音乐会上即将弹奏第一个音符的钢琴家。我们静静地坐着。我是来和OpenAI的联合创始人兼首席科学家Sutskever会面的,他的公司位于旧金山传教区一条不起眼的街道上,办公楼没有任何标志,我想听听他一手打造的这项颠覆世界的技术的下一步计划。我还想知道他的下一步计划,尤其是,为什么建立他公司的下一代旗舰生成模型不再是他的工作重点。Sutskever告诉我,他的新工作重点不是制造下一代GPT或图像制造机DALL·E,而是研究如何阻止人工超级智能(他认为这是一种假想的未来技术,具有先见之明)的失控。Sutskever还告诉了我很多其他事情。他认为ChatGPT可能有意识(如果你眯着眼睛看的话)。他认为,世界需要清醒地认识到他的公司和其他公司正在努力创造的技术的真正威力。他还认为,总有一天人类会选择与机器融合。Sutskever说的很多话都很疯狂。但不像一两年前听起来那么疯狂。正如他自己告诉我的那样,ChatGPT已经改写了很多人对未来的预期,把"永远不会发生"变成了"会比你想象的更快发生"。他说:“重要的是要讨论这一切的方向。”他在预测AGI(通用人工智能,像人类一样聪明的AI)的未来时,仿佛它就像另一部iPhone一样信心满满:“总有一天,AGI会实现。也许来自OpenA。也许来自别的公司。”自去年11月发布红极一时的新产品ChatGPT以来,围绕OpenAI的讨论一直令人印象深刻,即使在这个以炒作著称的行业也是如此。没有人不会对这家市值800亿美元的初创公司感到好奇。世界各国领导人寻求(且得到)和CEOSamAltman私人会面。ChatGPT这个笨拙的产品名称在闲聊中不时出现。今年夏天,OpenAI的首席执行官SamAltman花了大半个夏天的时间,进行了长达数周的外联之旅,与政客们亲切交谈,并在世界各地座无虚席的会场发表演讲。但Sutskever并不像他那样是个公众人物,他也不经常接受采访。他说话时深思熟虑,有条不紊。他会停顿很长时间,思考自己想说什么、怎么说,把问题像解谜一样反复推敲。他似乎对谈论自己不感兴趣。他说:“我的生活很简单。我去上班,然后回家。我不做其他事情。一个人可以有很多社交,可以参加很多活动,但我不会。”但当我们谈到人工智能,谈到他所看到的划时代的风险和回报时,他的眼睛亮了起来:“AI将万世不朽、震撼整个世界。它的诞生如同开天辟地。”越来越好,越来越好在一个没有OpenAI的世界里,Sutskever仍将载入人工智能史册。作为一名以色列裔加拿大人,他出生在前苏联,但从五岁起就在耶路撒冷长大(他至今仍能说俄语、希伯来语和英语)。之后,他移居加拿大,在多伦多大学师从人工智能先驱杰弗里·辛顿(GeoffreyHinton)。(Sutskever不想对辛顿的言论发表评论,但他对超级智能灾难的关注表明他们是同道中人)。辛顿后来与杨立昆(YannLeCun)和约书亚·本吉奥(YoshuaBengio)分享了图灵奖,以表彰他们在神经网络方面的研究成果。但当Sutskever在2000年代初加入他的团队时,大多数人工智能研究人员都认为神经网络是一条死胡同。辛顿是个例外。Sutskever说:“这就是生成式人工智能的开端。真的很酷,只是还不够好。”Sutskever对大脑非常着迷:它们是如何学习的?以及如何在机器中重新创建或至少模仿这一过程?和辛顿一样,他看到了神经网络的潜力,以及辛顿用来训练神经网络的试错技术,即深度学习。Sutskever说:“它变得越来越好,越来越棒。”2012年,Sutskever、Hinton和Hinton的另一名研究生AlexKrizhevsky建立了一个名为AlexNet的神经网络,经过训练,他们识别照片中物体的能力远远超过了当时的其他软件。这是深度学习的大爆炸时刻。在经历了多年的失败之后,他们终于证明了神经网络在模式识别方面的惊人功效。你只需要足够多的数据(他们使用的,是普林斯顿大学研究员李飞飞自2006年以来一直在维护的ImageNet数据集中的一百万张图片)和强到爆炸的算力。算力的提升来自于英伟达公司生产的一种名为图形处理器(GPU)的新型芯片。GPU的设计目的是以闪电般的速度将快速移动的视频游戏视觉效果投射到屏幕上。但GPU擅长的计算——大量数字网格的乘法——却与训练神经网络所需的计算十分相似。英伟达现在已经是一家市值上万亿美元的公司。当时,它正急于为其市场狭窄的新硬件寻找应用领域。“当你发明一项新技术时,你必须接受疯狂的想法,”英伟达首席执行官黄仁勋说。“我的思想状态总是在寻找一些古怪的东西,而神经网络将改变计算机科学的想法,就是一个非常古怪的想法。”黄仁勋说,在多伦多团队开发AlexNet时,英伟达给他们寄了几块GPU让他们试用。但他们想要的是最新版本,一种名为GTX580的芯片,这种芯片在门店里很快就卖光了。根据黄仁勋的说法,Sutskever从多伦多开车到纽约买到了GPU。“人们在街角排起了长队,”黄仁勋说。“我不知道他是怎么做到的——我很确定每个人只能买一个;我们有非常严格的政策,每个玩家只能买一个GPU,但他显然把它们装满了一个后备箱。满满一后备箱的GTX580改变了世界。”这是一个伟大的故事,只是可能不是真的。Sutskever坚称他的第一批GPU是在网上买的。但在这个热闹的行业里,这样的神话是司空见惯的。Sutskever本人则更为谦虚,他说:“我想,如果我能取得哪怕一丁点真正的进展,我都会认为这是一种成功。现实世界的影响感觉太遥远了,因为那时的计算机太弱小了。”AlexNet取得成功后,谷歌来敲门了。谷歌收购了辛顿的公司DNNresearch,并聘请了Sutskever。在谷歌,Sutskever展示了深度学习的模式识别能力可以应用于数据序列,如单词和句子,以及图像。Sutskever的前同事、现任谷歌首席科学家的杰夫·迪恩(JeffDean)说:“Ilya一直对语言很感兴趣,这些年来,我们进行了很好的讨论。Ilya对事物的发展方向有很强的直觉。”但Sutskever并没有在谷歌工作太久。2014年,他受聘成为OpenAI的联合创始人。这家新公司拥有10亿美元的资金支持(来自CEOAltman、马斯克、彼得·蒂尔、微软、YCombinator和其他公司),他们有那种硅谷式的雄心,从一开始就把目光投向了开发AGI,这一前景在当时很少有人认真对待。Sutskever是公司的幕后推手,他的雄心是可以理解的。在此之前,他已经在神经网络方面取得了越来越多的成果。YCombinator投资董事总经理DaltonCaldwell说,Sutskever当时已经声名在外,他是OpenAI吸引力的关键来源。Caldwell说:“我记得山姆(SamAltman)说伊利亚是世界上最受尊敬的研究人员之一。他认为Ilya能够吸引很多顶尖的人工智能人才。他甚至提到,世界顶级人工智能专家YoshuaBengio认为,不可能找到比Ilya更合适的人选来担任OpenAI的首席科学家。”然而,OpenAI一开始却举步维艰。Sutskever说:“在我们启...PC版:https://www.cnbeta.com.tw/articles/soft/1393629.htm手机版:https://m.cnbeta.com.tw/view/1393629.htm

封面图片

如果AI有意识 我们如何知道?科学家哲学家提出评估标准清单

如果AI有意识我们如何知道?科学家哲学家提出评估标准清单许多研究人员表示,AI还没有达到有意识的程度,但其进化速度让他们开始思考:如果AI有了意识,我们如何知道呢?为了回答这个问题,一个由19名神经科学家、哲学家和计算机科学家组成的小组提出了一份标准清单,如果达到这些标准,就表明一个AI系统具有意识的可能性很大。8月17日,他们在预印本服务器arXiv上公布了临时指南,以供同行评审。合著者之一、美国非营利研究组织人工智能安全中心哲学家RobertLong说,他们之所以这样做,是因为“关于AI意识,似乎真的缺乏详细、基于经验、深思熟虑的讨论”。该团队表示,识别AI系统是否有意识具有重要的道德意义。合著者之一、美国加利福尼亚大学欧文分校神经科学家MeganPeters表示,如果某个东西被贴上了“有意识”的标签,“那么作为人类,我们应该如何对待这个实体将发生很大变化”。Long表示,据他所知,构建先进AI系统的公司没有付出足够多的努力来评估意识模型,并制订计划以防AI具有意识。他补充道:“尽管如此,如果你去听听一些前沿实验室负责人的言论,他们确实对AI意识或AI感知很感兴趣。”美国微软公司的一位发言人表示,该公司开发AI的核心是以负责任的方式协助人类提高生产力,而不是复制人类的智能。这位发言人表示,自从GPT-4推出以来,“在探索如何充分发挥AI潜力、造福整个社会之际,需要新的方法评估这些AI模型的能力”。研究AI意识的挑战之一是定义什么是意识。Peters说,在这份报告中,研究人员关注的是“现象意识”,也就是所谓的主观体验。这是一种存在的体验,即成为一个人、一只动物或一个AI系统是什么感觉。有许多基于神经科学的理论描述了意识的生物学基础,但对于哪一个是“正确的”,人们并没有达成共识。因此,为了建立框架,作者使用了一系列这样的理论。他们的想法是,如果一个AI系统的运作方式与这些理论的许多方面相匹配,那么它很有可能有意识。他们认为,这是一种评估意识的更好方法,而不是简单对一个系统进行行为测试。比如,询问ChatGPT是否有意识,或者观察它是如何反应的。这是因为AI系统已经变得非常擅长模仿人类了。英国萨塞克斯大学意识科学中心主任、神经学家AnilSeth说,研究小组提出了一种很好的方法,但“我们需要更精确、更经得起检验的意识理论”。为制定标准,作者假设意识与系统处理信息的方式有关,而不管它们是由什么构成的——神经元、计算机芯片或其他东西。科学家还认为,基于人类和动物脑部扫描及其他技术的神经科学意识理论可以应用于AI。在这些假设的基础上,研究小组选择了其中的6个理论,并从中提取了一系列意识指标。Seth对团队提出的标准印象深刻。“它是经过深思熟虑的,没有夸大其词,而且它的假设非常清晰。”他说,“我不同意其中的一些假设,但这完全没关系,因为我很可能是错的。”作者说,这远不是评估AI意识的最终结论,希望其他研究人员能帮助他们完善该方法。不过,现在已经可以将这些标准应用于对AI系统有无意识的评估——至少目前还没有任何AI系统具有意识。...PC版:https://www.cnbeta.com.tw/articles/soft/1379933.htm手机版:https://m.cnbeta.com.tw/view/1379933.htm

封面图片

OpenAI首席科学家Ilya离开OpenAI了吗?

OpenAI首席科学家Ilya离开OpenAI了吗?OpenAI联合创始人兼总裁格雷格·布罗克曼(GregBrockman)、CTO米拉·穆拉蒂(MiraMurati)等人,也在积极为Sora宣传。但伊尔亚的最后一条推文,停留在了2023年12月15日。OpenAI在其官网上的Sora的文章后面留下了团队成员的名字。在一串致谢名单中,我们看到了萨姆·奥尔特曼、格雷格·布罗克曼、米拉·穆拉蒂等人的名字,但唯独没有出现伊尔亚·苏茨克维。这不禁让人怀疑,伊尔亚究竟是在埋头研究GPT-5,还是已经离开了OpenAI?值得一提的是,OpenAI创始成员之一、AI技术研究员安德烈·卡帕蒂(AndrejKarpathy)在Sora发布前夕离职。有网友大胆猜想:“如果Andrej和Ilya创办一家真正开放的人工智能公司怎么办?”1.“我们终于知道伊尔亚看到什么了”今天,OpenAI最新发布的Sora模型再次让人们感受到了人工智能的强大,强大到令人害怕。Sora不仅仅是一个视频生成模型,它涌现出了对物理世界的理解能力(尽管还存在局限),OpenAI直接将其定义为“世界模拟器”(worldsimulators)——它打开了一条通往模拟物理世界的有效路径。不少人感慨,“现实不存在了”,“物理学不存在了”。人们似乎在这一刻终于理解了伊尔亚为什么一直执着于人工智能的安全性研究。强大的AI模型对世界带来的风险并非遥不可及。有网友表示:“现在,我们知道伊尔亚看到什么了。”埃隆·马斯克则在贴子里留下了一个笑哭的表情。去年,随着GPT-4以及后续一系列更强大的大语言模型的更新,以伊尔亚为代表的OpenAI成员越来越多地考虑AI的可控性问题。为此,OpenAI在2023年7月5日宣布成立一个新的团队“超级对齐”(Superalignment),来研究引导和控制比人类聪明得多的AI系统。这一项目由伊尔亚与同事简·莱克(JanLeike)共同领导,并将OpenAI20%的算力专门用于该项目的研究。一般认为,去年11月闹得沸沸扬扬的OpenAI“宫斗事件”的导火索,就是伊尔亚对于AI的发展理念与萨姆产生了分歧,伊尔亚越来越担忧OpenAI的技术可能造成极度危险的局面,他觉得萨姆对待AI应该更加谨慎。显然,萨姆并没有停下来。在硅谷,对于AI的不同态度把人群分成了保守派与激进派。保守派也被称为EA(EffectiveAltruism,有效利他主义),代表人物是“人工智能教父”杰弗里·辛顿(GeoffreyHinton),伊尔亚就是他的学生。激进派被称为“e/acc(有效加速主义)”,很多知名的科技大佬、AI从业者都是e/acc主义的信徒。萨姆并未公开表达过自己的立场,但考虑到他带领下的OpenAI一系列激进的产品发布节奏,事实上他已经成为e/acc的代言人。伊尔亚联合董事会成员罢免了萨姆。但在大股东微软的斡旋与OpenAI全体员工请辞的压力下,伊尔亚最终妥协让步,萨姆在几天后重新回到了OpenAI并掌权,并重组了董事会。宫斗事件结束后,伊尔亚并没有立即离开OpenAI,萨姆希望继续他们之间的工作关系,并正在讨论他如何继续在OpenAI的工作。萨姆表达了对伊尔亚的谢意:“我尊重并热爱着伊尔亚,我认为他是这个领域的指路明灯,也是人类的瑰宝。我对他的恶意为零。”但去年外媒一篇报道曾指出,伊尔亚似乎处于一种“迷茫”的状态,在OpenAI变得“隐形”。自萨姆回归以来,伊尔亚就没有出现在OpenAI旧金山的办公室内。马斯克也向伊尔亚抛出了橄榄枝,他表示伊尔亚应该加入特斯拉或他的AI公司xAI。伊尔亚对于人工智能安全的工作还在继续。12月14日,OpenAI发布了超级对齐项目的最新研究论文:使用GPT-2级别的小模型来监督GPT-4级别的大模型,并获得接近GPT-3.5级别的性能。同时,OpenAI宣布与EricSchmidt合作,启动了一项1000万美元的资助计划支持技术研究,以确保超人类人工智能系统的一致性和安全性。作为该论文核心作者之一的伊尔亚,也在X上转发了相关内容。但这是宫斗事件至今,伊尔亚在X上转发的关于OpenAI进展的唯一内容。我们暂时无法得知伊尔亚是否已经离开了OpenAI,但他对于Sora的沉默态度似乎并不寻常。伊尔亚在签名上写着:“朝着拥抱人性多样化的通用人工智能发展。”2.人才是OpenAI的核心竞争力虽然伊尔亚并不在Sora的研究团队中,但Sora仍然表现出了压倒性的性能优势,可见人才密度是OpenAI领先的重要因素。Sora团队整体非常年轻。核心成员有三位,分别是研究负责人BillPeebles(比尔·皮布尔斯)与TimBrooks(蒂姆·布鲁克斯)与系统主管ConnorHolmes。ConnerHolmes曾是微软研究员,在微软工作时以外援形式参与了DALL·E3的推理优化工作,后来跳槽加入OpenAI。BillPeebles本科就读于MIT,主修计算机科学,参加了GAN和text2video的研究,还在英伟达深度学习与自动驾驶团队实习,研究计算机视觉。毕业后正式开始读博之前,他还参加了Adobe的暑期实习,研究的依然是GAN。2022年5月,Bill到Meta进行了为期半年的实习,和谢赛宁(Bill开始实习时还未离开Meta)合作发表了DiT模型,首次将Transformer与扩散模型(DiffusionModel)结合到了一起。从加州大学伯克利分校博士毕业之后,Bill加入了OpenAI。Sora的模型架构,就是参考了Bill与谢赛宁合作发表的DiT论文。值得一提的是,该论文主要聚焦在了DiT架构在图像生成领域的性能表现。有人推测,随着Bill加入OpenAI,他很可能把自己在视频领域的研究成果,也带到了OpenAI的Sora项目中。Sora的另一个核心作者是TimBrooks,曾在Google负责Pixel手机摄像头的机器学习工作,以及在英伟达负责视频生成模型研究。2023年从加州大学伯克利分校博士毕业后,Tim加入OpenAI,参与了DALL·E3相关研究。在其他几位作者中,也包括两位华人LiJing与YufeiGuo。今天,上海交大校友、目前在纽约大学担任助教的谢赛宁在朋友圈辟谣了自己是Sora作者之一的消息。他表示,Sora是Bill他们在OpenAI的呕心沥血之作,虽然不知道细节,但他们每天基本不睡觉高强度工作了一年。同时,谢赛宁也对Sora发表了他的观点:第一,对于Sora这样的复杂系统,人才第一,数据第二,算力第三,其他都没有什么是不可替代的;第二,在问Sora为什么没出现在中国的同时,可能也得问问假设真的出现了(可能很快),我们有没有准备好?如何能保证知识和创意的通畅准确传播让每个人拥有讲述和传播自己故事的“超能力”,做到某种意义上的信息平权。但是又不被恶意利用,变成某些人某些组织的谋利和操纵工具。oai有一整套的redteaming,safetyguardrail的研究部署,欧美有逐渐成熟的监管体系,我们准备好了吗?这件事跟技术成熟前,生成点小打小闹的漂亮图片不是一个量级,真相捕捉和黑镜里讲的故事,很有可能很快变成现实。(封面图来自X,左边为安德烈·卡帕蒂,右边为伊尔亚·苏茨克维)...PC版:https://www.cnbeta.com.tw/articles/soft/1419189.htm手机版:https://m.cnbeta.com.tw/view/1419189.htm

封面图片

哥伦比亚科学家发现脑损伤可能是隐藏意识的根源

哥伦比亚科学家发现脑损伤可能是隐藏意识的根源核磁共振成像扫描揭示了隐藏意识背后的脑损伤。资料来源:哥伦比亚大学欧文医学中心克拉森实验室研究负责人、哥伦比亚大学瓦格洛斯内外科医学院神经病学副教授、纽约长老会/哥伦比亚大学欧文医疗中心重症监护和住院神经病学主任、医学博士JanClaassen说:"我们的研究表明,隐性意识患者可以听到并理解口头命令,但他们无法执行这些命令,这是因为从大脑向肌肉传达指令的大脑回路受到了损伤。"这些发现可以帮助医生更快地识别可能有隐性意识的脑损伤患者,并更好地预测哪些患者有可能通过康复治疗恢复。隐藏意识又称认知运动解离(CMD),约有15%到25%的头部外伤、脑出血或心脏骤停导致的脑损伤患者会出现这种情况。在之前的研究中,克拉森及其同事发现,通过脑电图检测到的微妙脑电波最能预测无反应脑损伤患者的隐性意识和最终恢复情况。但在这种情况下,大脑中发生紊乱的精确通路尚不清楚。在这项新研究中,研究人员使用脑电图对107名脑损伤患者进行了检查。该技术可以确定患者何时在尝试对"继续张开和合上你的右手"之类的命令做出反应,尽管无法做出反应。分析结果检测出其中21名患者患有CMD。研究人员随后分析了所有患者的核磁共振成像结构扫描结果。共同第一作者、克拉森实验室副研究员、信号处理、机器学习和生物统计学专家沈琦(音译)博士说:"利用我们开发的一种名为双聚类分析的技术,我们能够找出CMD患者共有的脑损伤模式,并与没有CMD的患者形成对比。"研究人员发现,所有CMD患者都有与唤醒和指令理解相关的完整大脑结构,这支持了这样一种观点,即这些患者听到并理解了指令,但却无法执行。克拉森说:"我们发现,所有CMD患者负责将理解的运动指令与运动输出相结合的大脑区域都存在缺陷,这使得CMD患者无法根据口头指令采取行动。"这些发现可能会让研究人员更好地了解哪些脑损伤患者患有CMD,这将有助于支持意识恢复的临床试验。在将这些方法应用于临床实践之前,还需要进行更多的研究。"不过,我们的研究表明,利用广泛可用的脑结构成像技术筛查隐性意识是有可能的,这使CMD的检测离临床普遍应用更近了一步,"克拉森说。并非每个重症监护病房都有资源和人员接受过使用脑电图检测隐性意识的培训,因此核磁共振成像可能提供一种简单的方法来识别需要进一步筛查和诊断的患者。...PC版:https://www.cnbeta.com.tw/articles/soft/1377749.htm手机版:https://m.cnbeta.com.tw/view/1377749.htm

封面图片

科学家研制出世界上首个3D打印 "大脑模型"

科学家研制出世界上首个3D打印"大脑模型"在维也纳医科大学和维也纳工业大学的一个联合项目中,开发出了世界上第一个三维打印的"大脑模型",该模型以脑部纤维结构为模型,可以使用一种特殊的磁共振成像(dMRI)进行成像。由维也纳医科大学和维也纳工业大学领导的科研团队在一项研究中表明,这些大脑模型可用于推进神经退行性疾病(如阿尔茨海默氏症、帕金森氏症和多发性硬化症)的研究。这项研究成果发表在《先进材料技术》(AdvancedMaterialsTechnologies)杂志上。磁共振成像(MRI)是一种广泛使用的诊断成像技术,主要用于检查大脑。核磁共振成像可在不使用电离辐射的情况下检查大脑的结构和功能。在磁共振成像的一种特殊变体--扩散加权磁共振成像(dMRI)中,还可以确定大脑中神经纤维的方向。然而,在神经纤维束的交叉点很难正确确定神经纤维的方向,因为不同方向的神经纤维会在那里重叠。为了进一步改进流程以及测试分析和评估方法,一个国际团队与维也纳医科大学和维也纳工业大学合作开发了一个所谓的"大脑模型",该模型是利用高分辨率三维打印工艺制作的。带有微通道的小立方体维也纳医科大学的研究人员作为核磁共振成像专家,维也纳工业大学的研究人员作为三维打印专家,与苏黎世大学和汉堡大学医疗中心的同事密切合作。早在2017年,维也纳工业大学就开发出了一种双光子聚合打印机,可以实现升级打印。在此过程中,还与维也纳医科大学和苏黎世大学共同开展了脑模型的使用案例研究。由此产生的专利构成了脑模型的基础,该模型现已开发完成,并由维也纳工业大学的研究与转让支持团队负责监督。从外观上看,这个幻影与真正的大脑并无太大区别。它要小得多,形状像一个立方体。它的内部是非常细小的、充满水的微通道,大小与单个颅神经相当。这些通道的直径比人的头发丝还要细五倍。为了模仿大脑中精细的神经细胞网络,第一作者迈克尔-沃莱茨(MichaelWoletz)(维也纳医科大学医学物理和生物医学工程中心)和弗兰兹斯卡-查鲁帕-甘特纳(FranziskaChalupa-Gantner)(维也纳工业大学3D打印和生物制造研究小组)领导的研究小组使用了一种相当不寻常的3D打印方法:双光子聚合。这种高分辨率方法主要用于打印纳米和微米级的微结构,而不是打印立方毫米级的三维结构。为了为dMRI制作合适尺寸的模型,维也纳科技大学的研究人员一直在努力扩大三维打印工艺的规模,以便能够打印出具有高分辨率细节的更大物体。高比例三维打印为研究人员提供了非常好的模型,在dMRI下观察时,可以确定各种神经结构。MichaelWoletz将这种提高dMRI诊断能力的方法与手机相机的工作方式进行了比较:"我们看到,手机相机在摄影方面取得的最大进步并不一定是新的、更好的镜头,而是改进所拍摄图像的软件。dMRI的情况也类似:利用新开发的大脑模型,我们可以更精确地调整分析软件,从而提高测量数据的质量,更准确地重建大脑神经结构。"改进dMRI分析软件因此,真实再现大脑中的特征神经结构对于"训练"dMRI分析软件非常重要。使用三维打印技术可以创建可修改和定制的各种复杂设计。因此,大脑模型描绘的是大脑中产生特别复杂信号并因此难以分析的区域,如交叉的神经通路。因此,为了校准分析软件,需要使用dMRI对大脑模型进行检查,并像分析真实大脑一样分析测量数据。由于采用了三维打印技术,模型的设计是精确可知的,分析结果也可以检查。作为联合研究工作的一部分,维也纳医科大学和维也纳理工大学已经证明了这一点。所开发的模型可用于改进dMRI,从而有利于手术规划和神经退行性疾病(如阿尔茨海默氏症、帕金森氏症和多发性硬化症)的研究。尽管概念得到了验证,但团队仍然面临着挑战。目前最大的挑战是扩大这种方法的规模:"双光子聚合的高分辨率使得打印微米和纳米范围的细节成为可能,因此非常适合颅神经成像。但与此同时,使用这种技术打印一个几立方厘米大小的立方体也需要相应的时间,"Chalupa-Gantner解释说。"因此,我们不仅要开发更复杂的设计,还要进一步优化打印过程本身"。编译自:ScitechDaily...PC版:https://www.cnbeta.com.tw/articles/soft/1424851.htm手机版:https://m.cnbeta.com.tw/view/1424851.htm

封面图片

OpenAI首席科学家大胆设想:人类未来将难免与AI融合

OpenAI首席科学家大胆设想:人类未来将难免与AI融合他指出,未来人工智能的兴起将鼓励人类与AI融合,在一个拥有更智能AI的世界中,人类的生存空间被不断压缩。虽然现在听起来很疯狂,但许多人会选择将自己部分AI化。他补充道,一开始只有最勇敢且具有冒险精神的人才会尝试,之后其他人会效仿。但他自己对这一可能性充满不确定,他也无法确定自己是否也会进行融合。如何控制AISutskever称,人工智能可能在未来十年内超过人类的智能,且AI未必是善意的,因此人类需要研究控制和限制它的方法。但Sutskever承认目前仍未出现解决方案。现在的技术主要是根据人类的反馈让AI进行强化学习,这依赖于人类监督AI的能力。但实际上,人类无法可靠有效地监督一个智能高于人类的AI系统。他还强调超级人工智能的概念,认为其将更深入地看待事物,并看到人类看不到的东西。为此,OpenAI成立了一个超级对齐团队(SuperAlignment),由Sutskever和超级对齐联合领导人JanLeike共同领导,目标在四年内解决控制超级智能AI的核心技术。不过,Sutskever的想法显然更加消极一些,一言以蔽之:打不过AI,那就加入AI。但这又和马斯克的想法十分接近。马斯克就指出他名下的Neuralink公司最终目标就是实现人类与人工智能的共生,还提出将人类大脑上传到云端的超前概念。然而,无论是OpenAI还是Neuralink都还有很长的路要走。OpenAI的ChatGPT目前还未解决幻觉问题,Neuralink则在大脑植入的活体实验中饱受攻讦。...PC版:https://www.cnbeta.com.tw/articles/soft/1393443.htm手机版:https://m.cnbeta.com.tw/view/1393443.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人