苹果联合创始人:ChatGPT不懂人性 可能犯下可怕错误

苹果联合创始人:ChatGPT不懂人性可能犯下可怕错误在获得广泛赞誉的同时,它也引发了一些质疑。苹果公司联合创始人沃兹尼亚克日前在接受媒体采访时就表示,ChatGPT确实令人印象深刻,对人类非常有用。但同时,沃兹尼亚克又称,它也可能犯下严重的错误,他说:“问题是,在为我们做好事的同时,它也可能犯下可怕的错误,因为它不懂得人性。”沃兹尼亚克还将ChatGPT的这种潜在危害,与自动驾驶汽车的人工智能技术相提并论。他说,人工智能目前无法取代人类司机。沃兹尼亚克:“这就像你在驾驶一辆汽车,你知道其他汽车可能会做什么,因为你了解人类。”OpenAICEO萨姆·阿尔特曼(SamAltman)也承认,ChatGPT存在“偏见方面的缺陷”,有时它可能会给出有偏见的回应,包括种族主义和性别歧视等。当然,这不仅仅是ChatGPT的个人问题。本月早些时候,谷歌的同类产品Bard在回答有关韦伯太空望远镜的问题上出现失误,导致谷歌市值单日蒸发逾1000亿美元。尽管人们对这项技术持怀疑态度,但ChatGPT已经变得越来越受欢迎。最近,ChatGPT的开发者OpenAI获得了微软100约亿美元的投资,后者计划将OpenAI的人工智能引入必应搜索引擎和Office等产品。...PC版:https://www.cnbeta.com.tw/articles/soft/1344135.htm手机版:https://m.cnbeta.com.tw/view/1344135.htm

相关推荐

封面图片

苹果联合创始人:人工智能永远取代不了人类

苹果联合创始人:人工智能永远取代不了人类沃兹尼亚克一生都在研究大脑和计算机技术,他说人工智能永远无法与人脑匹敌。他认为,尽管人工智能可以比人类更快地执行任务和做出决定,但它仍然缺乏使我们独一无二的情感和人类品质。沃兹尼亚克说:“这让人印象深刻,但问题是,虽然它对我们有好处,但它也会因为不了解人性而犯可怕的错误。”“我的意思是,就像你在开车,你知道其他汽车现在可能会做什么,因为你了解人类。”谷歌母公司Alphabet最近发布的新人工智能技术Bard在演示时发生了一个错误,引发投资者担忧,导致该公司股价大跌。沃兹尼亚克没有提到该公司的名字,只是把这件事当作一个例子,说明人工智能技术的局限性和人类监督的重要性。这位苹果联合创始人还谈到了计算机智能的发展,并将其比作国际象棋的进步。当计算机第一次在国际象棋中击败人类时,人们对它们的智慧感到惊讶,但沃兹尼亚克指出,计算机只是遵循了与人脑不同的方法。尽管沃兹尼亚克持怀疑态度,但他仍然认为人工智能对人类有用。他认为,人工智能将继续发展和改进,特别是因为它可以每秒扫描10亿次事物,这超出了人脑的能力。然而,他认为,如果人工智能不了解人性,它也会犯错误,可能会产生严重的后果。...PC版:https://www.cnbeta.com.tw/articles/soft/1344197.htm手机版:https://m.cnbeta.com.tw/view/1344197.htm

封面图片

OpenAI CEO安抚外界担忧:ChatGPT不是人类的“就业杀手”

OpenAICEO安抚外界担忧:ChatGPT不是人类的“就业杀手”多年来,特斯拉CEO埃隆·马斯克(ElonMusk)一直警告我们,称人工智能总有一天会超越人类。2020年,马斯克表示,人工智能有可能在五年内超越人类。如今看来,这一天可能会比我们想象的更早到来,这还要归功于ChatGPT。业内人士称,ChatGPT将成为十年来最具颠覆性的技术,使几乎所有工作岗位都面临被机器人取代的风险。在短短几周的时间内,ChatGPT就已经通过了医疗、法律和商业专业的入学和毕业考试,同时还能以莎士比亚的风格写散文和诗歌。有测试用户称,ChatGPT在客户支持、创建培训文档、制定企业战略、编写故障排除指南等诸多方面的表现也非常出色。通过使用大数据集进行训练,ChatGPT模仿人类智慧的能力,只会随着时间的推移而变得更加强大。面对社会上的激烈辩论,OpenAICEO奥特曼试图安抚人们的担忧,称ChatGPT和其他类似的机器人,将使人类变得更加自由。在这一过程中,还会让一些人获得经济收益。奥特曼说:“我认为,人工智能将成为经济赋权的最大力量,也是许多人致富的最大力量。”显然,并不是所有人都同意奥特曼的这一乐观“推销”。研究公司CreativeStrategy首席分析师奥利维尔·布兰查德(OlivierBlanchard)认为:“人工智能也可能是我们在有生之年被剥夺公民权利的最大力量。”例如,人类可能突然就被淘汰了,或者慢慢地被大规模淘汰。2017年底,马斯克曾表示,短期内人工智能最直接的威胁是取代人类工作。在未来20年,驾驶人员的工作将被人工智能所颠覆。之后,全球12%至15%的劳动力将因为人工智能而失业。马斯克还认为,人类将来需要与机器相结合,成为一种“半机械人”,从而避免在人工智能时代被淘汰。为此,马斯克还专门成立一家人工智能创业公司Neuralink,研究人机接口。苹果公司联合创始人史蒂夫·沃兹尼亚克(SteveWozniak)上周曾表示,ChatGPT确实令人印象深刻,但它也可能犯下一些可怕的错误,因为它不懂得人性。...PC版:https://www.cnbeta.com.tw/articles/soft/1344537.htm手机版:https://m.cnbeta.com.tw/view/1344537.htm

封面图片

苹果联合创始人炮轰马斯克自动驾驶画饼:“想死就买特斯拉!”

苹果联合创始人炮轰马斯克自动驾驶画饼:“想死就买特斯拉!”苹果联合创始人史蒂夫·沃兹尼亚克周二猛烈抨击了特斯拉CEO埃隆·马斯克,指责他没有兑现特斯拉汽车自动驾驶功能的承诺。沃兹尼亚克在一次电视采访中说,他为这个功能付了钱,因为他相信马斯克的承诺。他说:“我相信他说的话!到2016年底,一辆自动驾驶汽车将在全美范围内行驶。我得升级到那个型号。你知道,5万美元,结果什么也做不了。我可以告诉你,它永远不会在全美范围内行驶。”他补充说:“如果你想研究出错的人工智能,接受大量索赔,一有机会就试图杀死你,那就去买一辆特斯拉吧!”沃兹尼亚克并不是唯一一个认为特斯拉的自动驾驶承诺“根本不接近现实”,或者它“试图杀死你”的人。今年2月,特斯拉的股东起诉这家汽车制造商和马斯克,称他们夸大了Autopilot和FSD技术的有效性和安全性。据报道,自2016年以来,美国国家公路交通安全管理局(NHTSA)已经启动了40起涉及特斯拉汽车的事故调查,这些车辆出事时可能在Autopilot模式下行驶。这些事故还造成19人死亡。()频道:@TestFlightCN

封面图片

王毅:若人工智能也搞“小院高墙”将犯下新的历史错误

王毅:若人工智能也搞“小院高墙”将犯下新的历史错误中共政治局委员、外交部长王毅星期四(3月7日)不点名警告,如果企图在人工智能上也搞“小院高墙”,将会犯下新的历史错误,破坏国际产业链供应链完整,削弱人类应对风险挑战的能力。王毅在全国两会外长记者会上说,中国主张发展与安全并重,既要拥抱新事物新机遇,也要装好刹车再上路,共同推进人工智能全球治理。王毅说,中国关注“三个确保”:一是确保有益。人工智能的发展有利于人类共同福祉,符合人类伦理规范,符合国际法规则,符合人类文明进步方向。二是确保安全。人工智能始终处于人类控制之下,不断提高可解释性和可预测性,为此要建立各种风险评估和管控机制。三是确保公平。在联合国框架下成立人工智能国际治理机构,各国都能在人工智能的发展进程中平等参与、平等受益。王毅不点名警告,如果企图在人工智能上也搞“小院高墙”,将会犯下新的历史错误,不仅阻挡不了各国的科技发展,还会破坏国际产业链供应链完整,削弱人类应对风险挑战的能力。王毅最后说,中国对与各国开展人工智能合作持积极开放态度,迄今已经与一些国家建立了对话机制。人工智能大国之间的合作很重要,发展中国家的能力建设也很重要。中国将适时向联大提交“加强人工智能能力建设国际合作”的决议草案,促进各方加强技术共享,努力弥合智能鸿沟,不让任何国家掉队。王毅多次以修建“小院高墙”批评美国挤压新兴市场国家和发展。他上月16日在慕尼黑安全会议上与美国国务卿布林肯会面时也再次提到,把“去风险”搞成“去中国”,建“小院高墙”,搞“对华脱钩”,终将反噬美自身。2024年3月7日11:25AM

封面图片

【三六零创始人周鸿祎:比尔·盖茨都低估了ChatGPT的价值】

【三六零创始人周鸿祎:比尔·盖茨都低估了ChatGPT的价值】三六零创始人周鸿祎在微博表示,比尔・盖茨都低估了ChatGPT的出现。ChatGPT应该是会引导一场新的产业革命和工业革命。电脑型工作的人的工作价值,由于人工智能的影响,可能会比物理世界里的工作受到的影响更为严重。工业革命和信息革命都对各个行业产生了巨大的改变,那么今天人工智能真正地让大数据变成了水跟电一样接入到各行各业,所有的行业都会用ChatGPT这样的人工智能大数据模型重塑一遍,所以如果不能搭上这班车,就要会被颠覆。

封面图片

新研究称ChatGPT提供错误编程答案的比例高达52%

新研究称ChatGPT提供错误编程答案的比例高达52%普渡大学的一个研究小组在5月早些时候举行的计算机-人交互大会上提交的一份报告中,检查了发送到ChatGPT回答的517个StackOverflow问题。普渡大学的研究小组反馈说,ChatGT为这些编程问题提供错误答案的比例高达52%。虽然人工智能聊天机器人提供错误的问题答案也许是意料之中的事,但珀杜大学的研究小组却更进一步指出,人类程序员在35%的情况下仍然更喜欢ChatGPT的答案,"因为它们的回答具有全面性和清晰的语言风格"。更糟糕的是,在39%的情况下,人类程序员并没有发现ChatGPT的错误答案。虽然这只是对ChatGPT功能的一个方面进行的研究,但它表明,生成式人工智能机器人仍然容易犯很多错误,而人类可能无法发现这些错误。Google的人工智能"概述"(AIOverviews)于今年5月初在美国地区的Google搜索中投入使用,它已经对一些搜索字符串生成了奇怪且充满错误的答案摘要。Google在向新闻机构发表的声明中试图解释这些明显的错误:我们看到的例子一般都是非常不常见的查询,并不能代表大多数人的经验。绝大多数人工智能概述都提供了高质量的信息,并附有深入挖掘的网络链接。声明还说,Google将利用这些"孤立的例子"来帮助"完善我们的系统"。...PC版:https://www.cnbeta.com.tw/articles/soft/1432252.htm手机版:https://m.cnbeta.com.tw/view/1432252.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人