只有9%的美国人认为人工智能的发展利大于弊

只有9%的美国人认为人工智能的发展利大于弊根据民意调查,超过一半的美国人(55%)非常或有点担心人工智能有一天会对人类构成威胁。人工智能是一个包罗万象的术语,它描述了许多不同的程序,这些程序使用大量数据来改进其功能,而无需软件开发人员进行新的干预。但最近的炒作集中在一种名为“大型语言模型”的新方法上,这种方法可以分析TB级的数据。大型语言模型越来越多地用于生成式人工智能工具,如ChatGPT或谷歌尚未发布的Bard。相关模型可以创建类似于人类输出的图形或音频。但大型语言模型存在问题,它可以简单地编造信息,这种现象被称为“幻觉”。此外,一些观察人士担心,先进的人工智能可能会取代人们的工作,或使某些职业过时。例如,72%的人认为人工智能最终将撰写完整的新闻文章,但78%的受访者认为这是一件坏事。...PC版:https://www.cnbeta.com.tw/articles/soft/1344597.htm手机版:https://m.cnbeta.com.tw/view/1344597.htm

相关推荐

封面图片

美国人工智能专家:中美人工智能发展不是零和博弈

美国人工智能专家:中美人工智能发展不是零和博弈在2024年博鳌亚洲论坛"AIGC改变世界"分论坛上,美国著名人工智能专家,加州大学伯克利分校计算机科学系教授斯图尔特・罗素在接受央视新闻提问时表示,中美人工智能发展不是零和博弈,那种非赢即输,即一个团队赢了另一个就输了的说法,从长远看来是错误的。在谈及全球算力共享时他表示,应确保每个国家都有足够的资源来帮助自己的人工智能发展。他认为人工智能技术的传播速度可能比过去大多数其他技术的传播更快,可以使人类的经济生产效率大大提高。所有的人都可以享受人工智能技术的福祉,它尤其应被用于提升经济落后地区人们的生活水平。(央视新闻)

封面图片

人工智能检测器认为《美国宪法》是由人工智能编写的

人工智能检测器认为《美国宪法》是由人工智能编写的尽管依靠人工智能工具来检测人工智能生成的作文很有诱惑力,但迄今为止的证据表明,这些工具并不可靠。由于存在假阳性,GPTZero、ZeroGPT和OpenAI自己的文本分类器等人工智能写作检测器无法检测由ChatGPT等大型语言模型组成的文本。如果你将美国最重要的法律文件《美国宪法》输入这种检测工具中,它会告诉你该文件几乎肯定是由人工智能撰写的。同样的情况也发生在《圣经》选段中。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

OpenAI首席运营官认为人工智能在企业中的应用被过度夸大了

OpenAI首席运营官认为人工智能在企业中的应用被过度夸大了Lightcap说,企业与OpenAI接触时,都期望生成式人工智能能解决许多问题,大幅削减成本,并在企业陷入困境时恢复增长。他说,虽然人工智能可以改善更多,但"人工智能永远没有一件事可以完全解决这个问题",而且这项技术仍处于起步阶段。他补充说,人工智能仍处于实验阶段,尚未成为关键工具和应用的一部分。OpenAI不久前推出了其流行的ChatGPT平台的企业版,承诺为希望保护专有数据和敏感数据的公司提供更好的防护措施,并为模型提供更多微调选项。Lightcap表示,该公司仍在处理ChatGPT企业版的冗长等待名单。消费者和企业都看到了生成式人工智能的潜力,尤其是在技术布道者称赞该技术能让工作变得更轻松之后。对意外数据泄露的担忧促使OpenAI、微软和亚马逊等开发商推出了企业版的生成式人工智能模型。一些较早拥抱人工智能的公司员工抱怨说,人工智能模型的首次迭代并没有让生活变得更轻松。TheInformation的一份最新报告指出,摩根士丹利内部有人抱怨说,该银行利用OpenAI打造的聊天机器人并没有被其目标受众--财富经理们所使用,因为人们更愿意打电话给真人询问信息。在新闻业,出版商曾尝试使用人工智能生成新闻报道或指南,以更低的成本生产更多的内容,但在发生了几起涉及不敏感、无意义或不准确文章的小插曲后,一些公司已经放弃了他们的计划。更不用说一些机构将人工智能撰写的内容冒充为人类撰写的内容而引起的反弹了。在经历了过去几周的多事之秋后,Lightcap回避了有关OpenAI日常工作的问题。相关文章:OpenAI首席运营官谈ChatGPT、AI发展方向、奥特曼...PC版:https://www.cnbeta.com.tw/articles/soft/1401981.htm手机版:https://m.cnbeta.com.tw/view/1401981.htm

封面图片

超过一半的科技行业从业者认为人工智能被高估了

超过一半的科技行业从业者认为人工智能被高估了商业软件开发平台Retool最近公布了其"人工智能现状"调查的结果。超过1500人参与了调查,他们都来自科技行业:软件工程师、企业领导、执行人员、产品人员、设计师等。调查提出的第一个也是最大的一个问题是,人工智能得到了多公平的评价。略高于23%的受访者认为人工智能得到了公平的评价,而四分之一的受访者可能是这项技术的支持者,因为他们认为人工智能被低估了。然而,51.6%的人认为人工智能被高估了。了解到上层管理人员(其中许多人认为人工智能生成技术是通过取代工人来降低成本的一种方式)对它的评价最高,这可能并不令人惊讶,而那些一旦在工作场所实施人工智能生成技术就必须实际使用它的非执行员工(假设它不会取代他们)大多认为它被高估了。其中一些怀疑态度可能来自"开发人工智能应用程序的痛点"部分。略低于40%的受访者表示,答案的准确性是最大的担忧,其次是数据安全性、出现幻觉等不可靠问题以及相关成本的提升。在那些认为人工智能被过度炒作的受访者中,只有14.4%的人说他们的雇主对这项技术投资过度,这表明他们了解这项技术在工作场所的重要性和潜力,尽管他们并不认为它能改变世界,至少现在还没有。在其他方面,77.1%的受访者表示,他们的公司正在努力将人工智能应用到工作场所中。此外,绝大多数受访者预计,在未来五年内,人工智能将在一定程度上或在很大程度上改变他们的工作和行业。Retool公司首席执行官兼创始人大卫-徐(DavidHsu)说:"人工智能革命已被广泛报道,但我们却很少看到使用案例,尤其是在商业领域。我们之所以做这项调查和报告,是因为如果不首先了解人工智能的使用情况,就不可能真正利用人工智能。我们的调查结果表明,虽然人工智能并没有取代大多数技术工作,但它正在重塑这些工作--人们正在抓住那些能够帮助他们加快和加强工作的技术。"...PC版:https://www.cnbeta.com.tw/articles/soft/1398461.htm手机版:https://m.cnbeta.com.tw/view/1398461.htm

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃——这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

【调查报告:37%的专家认为美国应该为人工智能设立新的联邦机构】

【调查报告:37%的专家认为美国应该为人工智能设立新的联邦机构】2023年09月06日02点36分老不正经报道,Axios、GenerationLab和雪城大学进行的一项调查显示,多位专家认为美国应该成立一个新的联邦机构,专门负责人工智能治理。该报告针对人工智能相关主题对美国65所最负盛名的大学的215名计算机科学教授进行了调查。数据显示,当被问及“监管人工智能的最佳实体是什么”时,37%的受访者认为政府机构应该设立新的人工智能机构,22%的受访者选择全球组织或条约。只有16%的受访者选择国会。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人