周鸿祎:ChatGPT或两三年内产生自我意识

周鸿祎:ChatGPT或两三年内产生自我意识360的创始人周鸿祎星期四(2月23日)受访时说,ChatGPT已经拥有或接近拥有了人类智慧,并正处于通往“通用人工智能”的临界点。周鸿祎认为,ChatGPT和其他人工智能最大的区别、也是其类人特征是,原来的人工智能并没有实现对知识全部的理解和编码,本质都是按照关键字匹配已有的回答,但ChatGPT没有“固定答案”,“能够自己‘编’故事,这才是它的真正智能所在。”他说:“ChatGPT可能在2-3年内就会产生自我意识威胁人类。”作为网络安全问题专家,在周鸿祎看来,ChatGPT的安全性从技术问题变成社会伦理问题。ChatGPT掌握了很多编程和网络安全漏洞的知识,可以成为网络犯罪的有力工具。有许多黑客演示了利用ChaGPT写钓鱼邮件和攻击代码,所以从某种角度而言ChatGPT也成为了黑客的“帮手”。“目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。”周鸿祎说,假如放开限制,让ChatGPT尽情在网页中学习,可能会导致它产生对物理世界更强的控制能力,未来在发展上会产生更多不安全性,也有可能被人诱导干出“糊涂事”,是否能控制强人工智能,正是ChatGPT是否彻底融入人类生活的边界点。至于外界关注的ChatGPT是否可能造成普通人失业,在周鸿祎看来短期内不会,“目前它的定位还是人类工具,这也是它的创造力所在。目前它的自我意识还没有出现,所以需要发挥自己的想象力和创造力。”前文:来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

相关推荐

封面图片

中国科技企业家:ChatGPT或两三年内产生自我意识

中国科技企业家:ChatGPT或两三年内产生自我意识对于时下火热的人工智能应用ChatGPT,有中国科技企业家认为,它可能两三年内就会产生自我意识。据澎湃新闻报道,中国科企360的创始人周鸿祎星期四(2月23日)受访时说,ChatGPT已经拥有或接近拥有了人类智慧,并正处于通往“通用人工智能”的临界点。周鸿祎认为,ChatGPT和其他人工智能最大的区别、也是其类人特征是,原来的人工智能并没有实现对知识全部的理解和编码,本质都是按照关键字匹配已有的回答,但ChatGPT没有“固定答案”,“能够自己‘编’故事,这才是它的真正智能所在。”他说:“ChatGPT可能在2-3年内就会产生自我意识威胁人类。”作为网络安全问题专家,在周鸿祎看来,ChatGPT的安全性从技术问题变成社会伦理问题。ChatGPT掌握了很多编程和网络安全漏洞的知识,可以成为网络犯罪的有力工具。有许多黑客演示了利用ChaGPT写钓鱼邮件和攻击代码,所以从某种角度而言ChatGPT也成为了黑客的“帮手”。“目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。”周鸿祎说,假如放开限制,让ChatGPT尽情在网页中学习,可能会导致它产生对物理世界更强的控制能力,未来在发展上会产生更多不安全性,也有可能被人诱导干出“糊涂事”,是否能控制强人工智能,正是ChatGPT是否彻底融入人类生活的边界点。至于外界关注的ChatGPT是否可能造成普通人失业,在周鸿祎看来短期内不会,“目前它的定位还是人类工具,这也是它的创造力所在。目前它的自我意识还没有出现,所以需要发挥自己的想象力和创造力。”

封面图片

周鸿祎:ChatGPT可能两三年内就会产生自我意识威胁人类

周鸿祎:ChatGPT可能两三年内就会产生自我意识威胁人类360创始人周鸿祎澎湃新闻记者范佳来摄2月23日,360创始人周鸿祎在接受澎湃新闻等媒体采访时,再次提到大热的聊天机器人ChatGPT,并分享了他心中ChatGPT的“三重人格”。ChatGPT热潮正席卷全球。这款由“美国AI梦工厂”OpenAI制作的AI聊天机器人软件,只用了两个月时间,月活跃用户达到1亿,是史上月活用户增长最快的消费者应用。此前,周鸿祎曾经多次在公开场合谈到他对ChatGPT的观察。在他看来,ChatGPT已经拥有或接近拥有了人类智慧,并正处于通往“通用人工智能”的临界点。“我们认为它是一个通用人工智能的奇点,而通用人工智能也还有一个隐含的拐点,它可能是一个强人工智能。”ChatGPT具有类人特征:有编故事的能力在采访现场,周鸿祎完全不掩饰他对ChatGPT的兴奋。在他看来,ChatGPT是一种生产力强大的再造工具,而不仅仅是赋能特定行业。“过去说大数据像‘石油’一样,但大数据不能直接用,ChatGPT像一个发电厂,烧了石油,把石油灌进去之后就可以产生电力,用云服务的方式把它接入到千家万户、千行百业,它对整个产业都会发生巨大的影响。所以,这直接决定未来下一个十年中国和其他国家的科技产业差距:是形成落后还是迎头赶上。”ChatGPT将通过上千亿的系统参数,实现原先设计者预想不到的能力。“这就像从猿到人的过程中肯定有一个临界点,当大脑的神经网络链接数目、脑细胞数目等多到一定程度时,人的智力和动物相比就产生了质的飞跃。”周鸿祎表示,ChatGPT和其他人工智能最大的区别、也是其类人特征是,原来的人工智能并没有实现对知识全部的理解和编码,本质都是按照关键字匹配已有的回答,但ChatGPT没有“固定答案”:“我当时问了它一个问题,赵匡胤为什么招安了宋江,杀掉了岳飞,这个无厘头的问题,它也煞有介事地回答了一遍,能够自己‘编’故事,这才是它的真正智能所在。”“ChatGPT可能在2-3年内就会产生自我意识威胁人类。”在采访现场,周鸿祎“语出惊人”。他提到,任何行业的APP、软件、网站、应用,如果加持上GPT的能力,都值得重塑一遍。“不要把它当成一个媒体工具、搜索引擎、聊天机器人,这都有点把它看的太小儿科了。”他表示,ChatGPT和传统人工智能的训练不一样,需要经过多维度的训练。首先是囫囵吞枣、不求甚解的读上几百万本书,获得人类知识,但是依然不具备解决问题的能力。其次需要专业的人工智能训练师去培养它回答问题的能力,其中也催生出大量的新就业机会。最大的安全问题是产生自我意识后是否能被控制作为网络安全问题的专家,周鸿祎也分享了他心中的ChatGPT的安全问题。在他看来,ChatGPT的安全性从技术问题变成社会伦理问题。ChatGPT掌握了很多编程和网络安全漏洞的知识,可以成为网络犯罪的有力工具。有许多黑客演示了利用ChaGPT写钓鱼邮件和攻击代码,所以从某种角度而言ChatGPT也成为了黑客的“帮手”。“国内的互联网公司普遍太讲究实用主义,都是把人工智能和自己的业务紧密结合,但没想到ChatGPT的更多可能性,360目前还在追踪和钻研这些技术,希望能迎头赶上。”周鸿祎表示,360正在探索“以其人之矛攻其人之盾”,用ChatGPT扮演“正义助手”的角色,建立对攻击自动监测、发现的知识库,用人工智能进行网络安全数据的自动化处理。“目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。”周鸿祎表示,假如放开限制,让ChatGPT尽情在网页中学习,可能会导致它产生对物理世界更强的控制能力,未来在发展上会产生更多不安全性,也有可能被人诱导干出“糊涂事”,而是否能控制强人工智能,正是ChatGPT是否彻底融入人类生活的“边界点”。至于外界关注的ChatGPT是否可能造成普通人失业?在周鸿祎看来,短期内不会,“目前它的定位还是人类工具,这也是它的创造力所在。目前它的自我意识还没有出现,所以需要发挥自己的想象力和创造力。”他也对中国开发出属于自己的ChatGPT充满期待。在他看来,中国在人工智能领域与微软、Google的差距并没有想象中的大。在ChatGPT领域,中国具有很大优势,有希望在2-3年内达到世界领先水平,应该对ChatGPT技术探索给予充分支持。具体而言,周鸿祎表示,中国的互联网公司在数量与算力有一定的优势,同时也有较强的科研和高校储备力量,必须将科研机构、学校、科学家等学术圈人士,和产业、工程、产品结合起来,充分调动和统筹资源。工程师红利是中国的一大优势,但也面临不利条件,就是缺乏开源的传统。在ChatGPT研发中,用了许多开源模型,没有此前的开源就没有在巨人肩膀上的积累,每个公司都要从黑暗中摸索,这对国家整个产业发展速度是不利的,“这么牛的技术,也确实不应该被垄断在一两家公司手里。”周鸿祎认为,解决原创问题需要科研机构的努力,而科研机构也需要和产业公司的合作,OpenAI与微软的合作创造了一个产业公司和创业公司的合作范例,“我认为国家还是应该充分的支持ChatGPT产业发展,开源、合作、交流、打造生态。”他希望国内有更多企业参与AI生态的构建,并形成公开的市场竞争,这样才有进步。“ChatGPT让很多行业应用就插上人工智能的翅膀。”周鸿祎表示,“光是ChatGPT煽动不了一场产业革命,但是如果将来各行各业都被人工智能赋能,就会带来巨大的改变。”此前2月9日下午,周鸿祎在与搜狐张朝阳的对话中表示,虽然ChatGPT现在还不完美,但要看到它无限的潜力,未来会有非常多的场景,不仅仅是辅助搜索引擎搜索答案。“这就是为什么所有公司都争先恐后地都要搭上这班车,如果搭不上就有可能被淘汰。”“我觉得ChatGPT真的不是一个工具,它对人类自然语言的充分理解,可能代表着人类在人工智能历史上开始一场真正的革命。”谈及ChatGPT的诞生,周鸿祎表示,ChatGPT是通过一个上千亿参数的大语言模型,相当于把网络上很多人类的知识都进行了理解和训练,模拟了人脑对知识的储存,使得回答问题完全像一个成熟、油滑的人,而不是机械地给出搜索答案。...PC版:https://www.cnbeta.com.tw/articles/soft/1346009.htm手机版:https://m.cnbeta.com.tw/view/1346009.htm

封面图片

【周鸿祎:目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制】

【周鸿祎:目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制】2月22日消息,360创始人周鸿祎表示,目前中国互联网公司在探索ChatGPT时都太实用主义了,更多考虑的是和自身的业务相结合,忽视了ChatGPT将带来的更多可能性。他提到,在ChatGPT领域,中国具有很大优势,有希望在2-3年内达到世界领先水平,应该对ChatGPT技术探索给予充分支持。他认为,目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。

封面图片

360周鸿祎:GPT一定会产生意识 不担心“失业潮”

360周鸿祎:GPT一定会产生意识不担心“失业潮”在2023数字安全发展与高峰论坛上,三六零创始人周鸿祎谈到,GPT未来一定会产生意识。(它)产生意识并不可怕,可怕的是它还在持续的自我进化,能力不断的更新。我们需要做到让其安全可控。周鸿祎认为,“GPT是场新工业革命,其意义超越了互联网、iPhone的发明。”未来每个行业、企业、个人都会拥有定制化GPT。在场景化、工程化、产品化、商业化方面,中国拥有优势,有能力发展自己的人工智能大语言模型。但中国的大语言模型距离GPT-4有两到三年的差距,需要更多的宽容和耐心。周鸿祎还表示,对于人工智能将带来“失业潮”他持乐观态度。——

封面图片

周鸿祎展示360类ChatGPT产品 聊天界面植入搜索

周鸿祎展示360类ChatGPT产品聊天界面植入搜索周鸿祎表示,360从2020年开始一直在持续投入包括类ChatGPT技术在内的AIGC技术,但与当前的ChatGPT相比还有较大差距。该公司的研究院一直在进行AI大模型的研究,但因为训练数据源及应用方向的原因,在中文环境下的实际效果只能做到赶上GPT-2。现场演示过程中,暂定名为“360AI”的AI聊天助手呈现在360搜索页面的右侧边栏,就像必应的设置一样。现场演示说明,它可以总结一些搜索结果并生成概述,不过有时不能正确回答现场提出的问题。周鸿祎强调,这不是产品发布,不能公测,不能给账号。周鸿祎认为GPT已经是“世界上最聪明的人”,但强调GPT只是一个工具。他说GPT之前是弱人工智能,而3.5开创了通用人工智能时代,同时开启了强人工智能。他表示,不能把GPT只看做玩具、聊天工具、搜索引擎,背后的超级大脑代表了超级人工智能时代的来临,大模型的威力才刚刚开始。周鸿祎分析说,很多数据是企业最重要的资产,可以训练自己内部的知识大脑。他以前对数字永生持怀疑态度,但是ChatGPT导致了对既往认知的改变。他认为GPT不会带来大规模失业。GPT未来一定会产生意识。周鸿祎表示,360发展大语言模型有三个优势:数据获取和清洗、人工知识训练、场景优势如360搜索、浏览器等。360将秉承“两翼齐飞”的人工智能发展战略,发展内核技术,同时与合作伙伴共同开发应用场景。相关文章:周鸿祎:GPT已长出眼睛耳朵人工智能将会产生意识GPT-4老板:AI可能会杀死人类已经出现我们无法解释的推理能力高盛:ChatGPT式的人工智能或影响3亿员工使全球GDP增加7%千名专家呼吁暂停超强AI研发至少6个月GPT-5恐被叫停...PC版:https://www.cnbeta.com.tw/articles/soft/1351811.htm手机版:https://m.cnbeta.com.tw/view/1351811.htm

封面图片

周鸿祎:GPT已长出眼睛耳朵 人工智能将会产生意识

周鸿祎:GPT已长出眼睛耳朵人工智能将会产生意识周鸿祎认为中国有能力发展自己的人工智能大语言模型。他表示,中国大语言模型技术水平和GPT-4的差距在2到3年时间,目前GPT的技术方向已经明确,不存在难以逾越的技术障碍,中国应当坚持长期主义精神,迎头赶上。对于人工智能造成大规模失业的讨论,周鸿祎认为这是在制造焦虑,他乐观看待所谓的“失业”挑战。周鸿祎认为,制约人工智能发展的最大挑战是能源,人工智能应被用来反向帮助人类解决常温超导、核聚变等问题,帮助人类实现能源自由。周鸿祎预计,GPT-6到GPT-8人工智能将会产生意识,变成新的物种。在GPT-3.5的时候,周鸿祎预言它将长出“眼睛和耳朵”,目前GPT-4已经具有看图的能力,初步印证了周鸿祎的判断。随着GPT已经进化出了“手”和“脚”,能够通过接入互联网API拥有操控世界的能力。...PC版:https://www.cnbeta.com.tw/articles/soft/1351175.htm手机版:https://m.cnbeta.com.tw/view/1351175.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人