人工智能生成的假新闻引发美SEC主席GaryGensler辞职的谣言

None

相关推荐

封面图片

SEC主席GaryGensler请辞查证是假新闻源头疑用ChatGPT生成https://toutiaoqushi.com/20

封面图片

美SEC主席开始关注人工智能,人工智能代币或面临双重审查的风险

封面图片

美国SEC主席再次警告:人工智能可能引发下一场金融危机

美国SEC主席再次警告:人工智能可能引发下一场金融危机他说:“一个日益严重的问题是,(AI)可能会给整个系统带来风险。由于许多金融参与者依赖于中间的一种或两种或三种模型……你创造了单一文化,你创造了羊群。”这种羊群效应可能是危险的,因为如果模型中存在一个缺陷,可能会在紧张时期对市场产生影响,导致市场价格发生突然和不可预测的变化。詹斯勒指出,云计算和搜索引擎等科技产品市场已经迅速被一两个主要参与者所主导。他表示,他担心人工智能技术市场也会出现类似的集中现象。詹斯勒说,由于美国监管机构的分散性,这个问题尤其棘手。美国监管机构依赖SEC监管证券市场,而其他机构则负责银行或大宗商品市场。詹斯勒说:“这更像是一个跨实体的问题。这就是这些新技术面临的挑战。”作为美国SEC主席,詹斯勒在2023年加大了该监管机构对加密货币行业的打击力度,对全球交易量最大的两家数字资产交易所币安和Coinbase提起了诉讼。SEC指控这两家公司在美国经营未经注册的证券交易所,但两家公司表示,它们没有违反证券法。与此同时,詹斯勒正在推进一代人以来最根本的市场结构改革措施。但人工智能是詹斯勒开始敲响警钟的另一个问题。这有点讽刺,因为人工智能的前景在很大程度上是标普500指数在2023年上涨的原因。这位SEC主席表示,他的机构已经在考虑制定新的规则来监管人工智能。例如,SEC今年夏天提出了一项规则,以解决与股票经纪人和投资顾问相关的利益冲突,这些经纪人和投资顾问利用算法通过智能手机应用程序或网络界面预测和指导投资者的决策。该行业正在反对这项提议,辩称现有规则足以防止对投资者造成伤害,而新规则将阻止经纪商利用技术为客户创造更好的体验。詹斯勒在采访中表示,SEC从这些反馈中受益,但仍认为监管机构必须对这些所谓的预测分析工具的影响保持警惕。“如果他们这样做是为了在流媒体应用程序上推荐某部电影,那没关系,”他说,“但如果他们这样做是为了你的经济帮助……我们应该解决这些冲突。”...PC版:https://www.cnbeta.com.tw/articles/soft/1393537.htm手机版:https://m.cnbeta.com.tw/view/1393537.htm

封面图片

美SEC主席警告:十年内或看到人工智能引发的金融危机

美SEC主席警告:十年内或看到人工智能引发的金融危机Gensler呼吁人工智能监管规则既要解决科技公司如何构建底层人工智能模型的问题,也要解决华尔街如何处理这些模型的问题。他表示,这是一个跨监管的挑战,因为大部分监管都是针对个体机构、银行、货币基金或者经纪商,但人工智能是横向的问题,很多机构可能使用相同的底层模型或底层数据聚合器。羊群效应Gensler指出,人工智能模型的大规模应用极易出现“羊群效应”,例如抵押贷款机构可能都会使用一家科技公司的人工智能系统来评估信用度,但若该模型存在缺陷,这将导致违约激增并威胁房地产市场。而这种情况并非危言耸听。人工智能一直有一个理论,即使用某一系统的公司越多,该模型收集的数据越多,其预测效果就很高。这就创造了一个赢家通吃的环境,造成一两个模型主导一个行业的风险。Gensler还担忧大型科技公司之间在人工智能供应上的整合。谷歌、亚马逊和微软等公司拥有强大的云服务来托管复杂的人工智能模型,但美国没有多少云服务提供商。在Gensler忧心忡忡的同时,华尔街已经摩拳擦掌地开始部署人工智能。投行摩根士丹利上个月推出了基于OpenAIGPT-4模型的人工智能助手,用以帮助员工收集市场信息。而另一家金融巨头摩根大通则已经申请了一项名为IndexGPT的人工智能模型专利,该技术将帮助交易者选择证券产品。截至目前,美国尚未建立人工智能监管体系,国会仍处于审慎评估之中。而确保人工智能的稳定性可能是美国,乃至全球监管机构未来几年最复杂的测试之一。...PC版:https://www.cnbeta.com.tw/articles/soft/1390611.htm手机版:https://m.cnbeta.com.tw/view/1390611.htm

封面图片

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃

人工智能对人工智能生成的内容进行训练将导致人工智能崩溃用于训练大型语言模型的数据最初来自人类来源,如书籍、文章、照片等,这些都是在没有人工智能的帮助下创建的。但随着越来越多的人使用人工智能来制作和发布内容,一个明显的问题出现了:当人工智能生成的内容在互联网上扩散时,人工智能模型开始对其进行训练。研究人员发现,“在训练中使用模型生成的内容会导致所产生的模型出现不可逆转的缺陷。”他们研究了文本到文本和图像到图像的人工智能生成模型的概率分布,得出结论:“从其他模型产生的数据中学习会导致模型崩溃——这是一个退化的过程,并且随着时间的推移,模型会忘记真正的基础数据分布。”他们观察到模型崩溃发生得如此之快:模型可以迅速忘记它们最初学习的大部分原始数据。这导致它们随着时间的推移,表现越来越差,错误越来越多。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

SEC主席GaryGensler将强调更新加密货币行业规则的努力,以及预测数据分析和人工智能的应用。(23个字)https://

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人