苹果联合创始人:人工智能永远取代不了人类

苹果联合创始人:人工智能永远取代不了人类沃兹尼亚克一生都在研究大脑和计算机技术,他说人工智能永远无法与人脑匹敌。他认为,尽管人工智能可以比人类更快地执行任务和做出决定,但它仍然缺乏使我们独一无二的情感和人类品质。沃兹尼亚克说:“这让人印象深刻,但问题是,虽然它对我们有好处,但它也会因为不了解人性而犯可怕的错误。”“我的意思是,就像你在开车,你知道其他汽车现在可能会做什么,因为你了解人类。”谷歌母公司Alphabet最近发布的新人工智能技术Bard在演示时发生了一个错误,引发投资者担忧,导致该公司股价大跌。沃兹尼亚克没有提到该公司的名字,只是把这件事当作一个例子,说明人工智能技术的局限性和人类监督的重要性。这位苹果联合创始人还谈到了计算机智能的发展,并将其比作国际象棋的进步。当计算机第一次在国际象棋中击败人类时,人们对它们的智慧感到惊讶,但沃兹尼亚克指出,计算机只是遵循了与人脑不同的方法。尽管沃兹尼亚克持怀疑态度,但他仍然认为人工智能对人类有用。他认为,人工智能将继续发展和改进,特别是因为它可以每秒扫描10亿次事物,这超出了人脑的能力。然而,他认为,如果人工智能不了解人性,它也会犯错误,可能会产生严重的后果。...PC版:https://www.cnbeta.com.tw/articles/soft/1344197.htm手机版:https://m.cnbeta.com.tw/view/1344197.htm

相关推荐

封面图片

苹果联合创始人:ChatGPT不懂人性 可能犯下可怕错误

苹果联合创始人:ChatGPT不懂人性可能犯下可怕错误在获得广泛赞誉的同时,它也引发了一些质疑。苹果公司联合创始人沃兹尼亚克日前在接受媒体采访时就表示,ChatGPT确实令人印象深刻,对人类非常有用。但同时,沃兹尼亚克又称,它也可能犯下严重的错误,他说:“问题是,在为我们做好事的同时,它也可能犯下可怕的错误,因为它不懂得人性。”沃兹尼亚克还将ChatGPT的这种潜在危害,与自动驾驶汽车的人工智能技术相提并论。他说,人工智能目前无法取代人类司机。沃兹尼亚克:“这就像你在驾驶一辆汽车,你知道其他汽车可能会做什么,因为你了解人类。”OpenAICEO萨姆·阿尔特曼(SamAltman)也承认,ChatGPT存在“偏见方面的缺陷”,有时它可能会给出有偏见的回应,包括种族主义和性别歧视等。当然,这不仅仅是ChatGPT的个人问题。本月早些时候,谷歌的同类产品Bard在回答有关韦伯太空望远镜的问题上出现失误,导致谷歌市值单日蒸发逾1000亿美元。尽管人们对这项技术持怀疑态度,但ChatGPT已经变得越来越受欢迎。最近,ChatGPT的开发者OpenAI获得了微软100约亿美元的投资,后者计划将OpenAI的人工智能引入必应搜索引擎和Office等产品。...PC版:https://www.cnbeta.com.tw/articles/soft/1344135.htm手机版:https://m.cnbeta.com.tw/view/1344135.htm

封面图片

“AI教父”警告:人工智能可能取代人类

“AI教父”警告:人工智能可能取代人类在上周日的一次电视采访中,辛顿继续强调了人工智能进步可能带来的负面影响。辛顿说:“也许我们回顾过去,把这看作是一种转折点,人类必须做出决定,是否进一步发展这些东西,如果他们这样做了,该如何保护自己。”辛顿说,人工智能可能有好有坏,接下来会发生什么还不得而知。“我们需要认真思考接下来会发生什么。我们只是不知道。”辛顿在这次采访中警告称,人工智能有可能取代人类。他说:“如果我们能阻止他们这么做,那就太好了,但目前还不清楚我们能否阻止他们这么做。”辛顿的担忧包括人工智能带来的就业流失,以及假新闻的兴起,有偏见的人工智能程序提供的信息被当作事实。辛顿警告说,人工智能系统可能编写自己的计算机代码来修改自己,“这是我们需要认真担心的事情。”尽管对人工智能相关的风险感到担忧,但辛顿说,他对帮助开发系统和推动人工智能的兴起并不后悔。他在谈到人工智能可能带来的好处是说:“因此,医疗保健显然是一个巨大的好处。在理解医学图像的情况方面,人工智能已经可以与放射科医生相提并论。它将非常擅长设计药物。”辛顿说,可能无法找到一条可以确保人类未来安全的人工智能发展道路,“我们正在进入一个非常不确定的时期,我们正在处理以前从未处理过的事情。”他警告称,我们负担不起出错。...PC版:https://www.cnbeta.com.tw/articles/soft/1388979.htm手机版:https://m.cnbeta.com.tw/view/1388979.htm

封面图片

难以被取代的“凡人”:在与人工智能的博弈中人类工人正在获胜

难以被取代的“凡人”:在与人工智能的博弈中人类工人正在获胜2013年,牛津大学的一位经济学家和一位人工智能科学家的研究估计,47%的工作有被计算机取代的"风险"。2017年,麦肯锡全球研究所估计,到2030年,自动化可能取代数以亿计的工人,全球经济领导人正在讨论如何应对"机器人末日"。在2020年的竞选中,人工智能对就业的威胁成为总统辩论的一个话题。现在是2022年,计算机不断以其成就让我们感到震惊。人工智能系统正在写作、绘画、制作视频、诊断疾病。然而,不知何故,我们这些肉眼凡胎仍然需求旺盛,尽管容易疲惫、分心、受伤,有时还会出现惊人的错误。首先,人类被低估了。事实证明,我们所做的事情上真的很了不起,在可预见的未来,我们可能会被证明在一系列行业中是不可或缺的,特别是专栏写作。与此同时,计算机也被高估了。虽然机器在演示中看起来不屈不挠,但在现实世界中,人工智能被证明是一个比其推动者所预言的更糟糕的人类替代品。——

封面图片

微软聘请 DeepMind 联合创始人领导其消费者人工智能部门

微软聘请DeepMind联合创始人领导其消费者人工智能部门微软周二任命人工智能初创公司DeepMind的创始人之一MustafaSuleyman领导其人工智能产品和研究。MustafaSuleyman将领导一个名为MicrosoftAI的新事业群,负责Copilot人工智能助手和其他消费级人工智能产品和研究。该新事业群将由KarénSimonyan担任首席科学家。(界面新闻)

封面图片

1000多名人工智能专家及行业高管签署联名信,呼吁暂停训练比GPT-4更强大的人工智能系统至少六个月

1000多名人工智能专家及行业高管签署联名信,呼吁暂停训练比GPT-4更强大的人工智能系统至少六个月理由是这种系统对社会和人类构成潜在风险。信中写道:“只有在我们确信它们的效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。”马斯克此前曾多次表达对人工智能的担忧,认为人工智能是未来人类文明最大的风险之一,威胁程度远高于车祸、飞机失事、毒品泛滥等,甚至比核武器都危险得多。可以去这里签名:《》目前已经有1000多名精英人士签名了。-YoshuaBengio,蒙特利尔大学,图灵奖得主,开发深度学习,蒙特利尔学习算法研究所所长-StuartRussell,伯克利,计算机科学教授,智能系统中心主任,标准教科书“人工智能:现代方法”的合著者-ElonMusk,SpaceX、Tesla和Twitter的首席执行官-SteveWozniak,Co-founder,Apple苹果联合创始人史蒂夫·沃兹尼亚克-JaanTallinn,Skype联合创始人,生存风险研究中心,未来生命研究所......来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

黄仁勋:通用人工智能预计最快五年内问世,可通过任何人类测试

黄仁勋:通用人工智能预计最快五年内问世,可通过任何人类测试英伟达CEO黄仁勋在参加2024年斯坦福经济政策研究所峰会时表示,“按照某些定义,通用人工智能(AGI)可能在短短五年内到来。”黄仁勋在活动中被问到“创造出能像人类一样思考的计算机需要多久”这一问题,他回答说,答案很大程度取决于“如何定义”。若对于上述计算机的定义是“能够通过人类测试”,那么通用人工智能将很快到来。“如果,我让一个人工智能进行任何你能想象的测试,你可以列举一个测试清单,将其提供给计算机科学行业,我猜想五年之内,每个测试(它)都能很好地完成。”()线索:@ZaiHuabot投稿:@TNSubmbot频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人