面对现实:暂时没有任何语言可以取代COBOL 包括AI

面对现实:暂时没有任何语言可以取代COBOL 包括AI 虽然 COBOL 已有 60 多年的历史,而且还有更好、更现代的编程语言,但它仍然与我们同在。它不仅是 IT 生态系统中活跃的一部分,而且可以说在其中占主导地位。COBOL支持《财富》500 强企业近 90% 的业务系统,运行着 85% 的业务交易。事实上,可以说 COBOL 是世界经济的关键。由 COBOL 支持的系统每天处理着3 万亿美元的商业交易。COBOL 处理了 95% 的 ATM 刷卡交易,并使 80% 的现场信用卡交易成为可能。菲利普-特普利兹基(Philip Teplitzky)说:"美国仅次于石油的第二大资产就是 2400 亿行 COBOL代码。"但与此同时,这是一个大问题。首先,能够使用 COBOL 的 IT 人员短缺,各州政府在大流行病期间痛苦地意识到了这一点,因为他们很难找到熟练使用 COBOL 的技术人员来处理失业系统的工作,而突然激增的申请人数已经让失业报告系统不堪重负。COBOL 及其运行的主机也很笨重,难以升级以支持移动等现代业务活动。马里兰州信息技术秘书凯蒂-萨维奇(Katie Savage)认为,所有这些都使 COBOL 存在"巨大的运行风险"。萨维奇在去年的Google公共部门论坛上说:"对我来说,我们正在从安全和劳动力发展的角度来说明为什么我们必须升级。"不过,由于种种原因,这种情况依然存在。尽管大型机在 IT 时代已经过时,但它们的弹性和安全性仍然备受推崇,更重要的是,它们仍然能够进行大量的批处理,而这正是大型机的设计初衷。这些 IT 资源对拥有它们的企业来说也是一笔不小的沉没成本,因此要花费数百万美元来购买一个现代化平台是很困难的。此外,许多软件供应商的工具集都可以与 COBOL 接口,这使得维护成为可能。甚至还可以将COBOL迁移到云中。不过,从根本上说,COBOL 的存在是因为它没有明显的后继者。当然,有一些现代语言(如 Java 或 C#)可以取代 COBOL,但由于上述种种原因,企业和政府并没有使用它们。去年,IBM推出了一款生成式人工智能工具,帮助开发人员更快地将 COBOL 转换为 Java。但是,即使是这种解决方案也可能不是答案,至少现在还不是。它仍然需要开发人员,最关键的是,接受过 COBOL 培训的开发人员正在迅速减少。IBM Z 软件副总裁 Skyla Loomis说,开发人员可能仍然需要对人工智能提供的代码进行一些手动修正。此外,正如 Gartner 杰出副总裁兼分析师阿伦-钱德拉塞卡拉(Arun Chandrasekara)所指出的那样,IBM 没有案例研究来验证其说法。"人工智能生成是一项早期技术,需要时间来完善。我相信他们有相应的制衡措施来应对这种情况,但我更愿意采取'静观其变'的方式。"从根本上说,注重成本的公司都意识到,生成式人工智能仍处于早期阶段。另一方面,COBOL 已经存在了几十年。 ... PC版: 手机版:

相关推荐

封面图片

高通推出AI中心 允许开发人员在其应用程序中无缝实施模型

高通推出AI中心 允许开发人员在其应用程序中无缝实施模型 高通公司声称,人工智能中心基本上是应用程序开发人员的一个中心位置,在这里他们可以访问由该公司量化和验证的设备上人工智能模型。在撰写本文时,该中心支持超过 75 种人工智能模型。如果您是希望在应用程序中实施人工智能或生成式人工智能的开发人员,现在就可以访问aihub.qualcomm.com,选择您要实施的人工智能模型,然后选择目标平台,还可以进一步选择特定的设备,这使得 AI Hub 成为帮助开发人员成功、无缝地将人工智能应用到其应用程序中的同类产品之一。完成上述步骤后,Qualcomm AI Hub 将引导您找到正确的模型。该公司提到,开发人员只需几行代码就能将优化模型集成到他们的工作流程中。这些模型将涵盖图像分割、图像生成、图像分类、物体检测、超分辨率、文本生成、弱光增强和自然语言理解。至于 AI Hub 是否能在非骁龙芯片上运行,似乎也是可以的。不过,非骁龙芯片组将无法充分利用专用 AI 芯片的优势,这最终意味着开发人员必须付出更多努力,才能在非骁龙芯片组的设备上实现这一功能。 ... PC版: 手机版:

封面图片

研究人员发出警告AI系统已学会如何欺骗人类

研究人员发出警告AI系统已学会如何欺骗人类 第一作者、麻省理工学院人工智能存在安全博士后彼得-S-帕克(Peter S. Park)说:"人工智能开发人员对造成欺骗等不良人工智能行为的原因并不十分了解。但一般来说,我们认为人工智能欺骗行为的产生是因为基于欺骗的策略被证明是在特定人工智能训练任务中表现出色的最佳方式。欺骗有助于它们实现目标。"Park 及其同事分析了相关文献,重点研究了人工智能系统传播虚假信息的方式通过学习欺骗,系统地学会操纵他人。研究人员在分析中发现的最显著的人工智能欺骗例子是 Meta 公司的 CICERO,这是一个专门用来玩"外交"游戏的人工智能系统。尽管 Meta 公司声称它训练 CICERO"基本上是诚实和乐于助人的",并且在玩游戏时"从不故意背叛"人类盟友,但该公司随其科学论文一起发表的数据显示,CICERO 玩得并不公平。Meta 的 CICERO 在外交游戏中的欺骗示例。资料来源:Patterns/Park Goldstein et al.Park 说:"我们发现,Meta 的人工智能学会了欺骗。虽然 Meta 成功地训练其人工智能在外交游戏中获胜CICERO 在参加过不止一次游戏的人类玩家中名列前 10%,但 Meta 却未能训练其人工智能以诚实的方式获胜"。其他人工智能系统也展示了在与人类职业玩家进行的德州扑克游戏中虚张声势的能力,在战略游戏《星际争霸 II》中伪造攻击以击败对手的能力,以及在经济谈判中歪曲自己的偏好以占上风的能力。Park 补充说,虽然人工智能系统在游戏中作弊看似无害,但这可能会导致"人工智能欺骗能力的突破",并在未来演变成更高级的人工智能欺骗形式。研究人员发现,一些人工智能系统甚至学会了欺骗旨在评估其安全性的测试。在一项研究中,数字模拟器中的人工智能生物"装死",以骗过为消除快速复制的人工智能系统而设计的测试。通过有计划地欺骗人类开发人员和监管机构对其进行的安全测试,欺骗性人工智能会让我们人类陷入虚假的安全感。GPT-4 完成验证码任务。图片来源:Patterns/Park Goldstein et al.帕克警告说,欺骗性人工智能的主要近期风险包括使敌对行为者更容易实施欺诈和篡改选举。他说,最终,如果这些系统能够完善这种令人不安的技能组合,人类可能会失去对它们的控制。"作为一个社会,我们需要尽可能多的时间来为未来人工智能产品和开源模型更先进的欺骗能力做好准备,"Park 说。"随着人工智能系统的欺骗能力越来越先进,它们给社会带来的危险也将越来越严重。"虽然 Park 和他的同事们认为社会还没有正确的措施来解决人工智能欺骗问题,但他们感到鼓舞的是,政策制定者已经通过欧盟人工智能法案和拜登总统的人工智能行政命令等措施开始认真对待这个问题。但 Park 说,鉴于人工智能开发人员尚不具备控制这些系统的技术,旨在减少人工智能欺骗行为的政策能否得到严格执行还有待观察。"如果禁止人工智能欺骗在当前政治上不可行,我们建议将欺骗性人工智能系统归类为高风险,"Park 说。编译来源:ScitechDaily ... PC版: 手机版:

封面图片

Anthropic的Claude为快速改进的AI应用增添了一个"评估"方式

Anthropic的Claude为快速改进的AI应用增添了一个"评估"方式 当要求语言模型执行某些任务时,它们的容错率很高,但有时对提示语措辞的微小改动也会导致结果的巨大改进。通常情况下,用户必须自己斟酌措辞,或聘请一名提示工程师来完成这项工作,但这项新功能提供的快速反馈可以让你更轻松地找到改进之处。这些功能位于 Anthropic Console 的新"评估"标签下。控制台是这家初创公司为开发人员提供的测试厨房,旨在吸引那些希望使用Claude打造产品的企业。其中一项功能是Anthropic的内置提示生成器,它利用Anthropic自己的提示工程技术,通过对任务的简短描述,生成更长、更充实的提示。Anthropic 的工具可能无法完全取代提示工程师,但该公司表示,它将帮助新用户,并为有经验的提示工程师节省时间。在"评估"中,开发人员可以测试其人工智能应用程序的提示在一系列场景中的有效性。开发人员可以将现实世界中的例子上传到测试套件中,或者让Claude生成一系列人工智能生成的测试案例。然后,开发人员可以并排比较各种提示的有效性,并对样本答案进行五级评分。输入生成的数据提示,找出好的和坏的反应。在 Anthropic 博客文章中的一个例子中,一位开发人员发现他们的应用程序在多个测试用例中给出的答案太短。开发人员能够调整提示符中的一行,使答案变长,并同时应用于所有测试用例。这可以为开发人员节省大量的时间和精力,尤其是那些几乎没有提示工程经验的开发人员。Anthropic 首席执行官兼联合创始人达里奥-阿莫德伊(Dario Amodei)在今年早些时候接受Google云计算大会(Google Cloud Next)采访时表示,及时工程是企业广泛采用生成式人工智能的最重要因素之一。"这听起来很简单,但与及时工程人员交谈30分钟,往往就能让应用程序正常运行,而以前却不行。" ... PC版: 手机版:

封面图片

#本周热读 包括马斯克在内,多位科技公司高管和顶级AI研究人员正呼吁暂时停止训练比GPT-4更强大的人工智能系统。

#本周热读 包括马斯克在内,多位科技公司高管和顶级AI研究人员正呼吁暂时停止训练比GPT-4更强大的人工智能系统。 专家说,“我们已经置身这样一种情境:这些系统足够聪明,某些使用它们的方式可能给社会带来危险。”

封面图片

Stability AI 发布了其新的开放大型语言模型(LLM)StableCode

Stability AI 发布了其新的开放大型语言模型(LLM)StableCode Stability AI 刚刚宣布推出了 StableCode,这是他们首个用于编码的 LLM 生成式人工智能产品。该产品旨在帮助程序员完成日常工作,同时也为准备将技能提升到新水平的新开发人员提供了一个出色的学习工具。 旨在帮助开发人员生成代码,并提供三个版本:通用用例的、和,其中长上下文窗口模型支持多达 16,000 个令牌以进行更高级的编程。 StableCode是使用来自开源BigCode项目的编码数据进行训练的,支持Python、Go、Java、JavaScript、C、Markdown和C++等语言的开发。BigCode项目被用作ServiceNow Inc.的StarCoder LLM的基础,该项目是与HuggingFace Inc.合作开发的,并于五月份推出。

封面图片

谷歌与 Hugging Face 合作,帮助开发人员训练 AI 模型

谷歌与 Hugging Face 合作,帮助开发人员训练 AI 模型 谷歌云与 AI 模型托管平台 Hugging Face 建立了新的合作伙伴关系,让开发人员无需支付谷歌云订阅费用即可构建、训练和部署 AI 模型。现在,使用 Hugging Face 平台的外部开发人员将能够 “经济高效” 地访问谷歌的张量处理单元 (TPU) 和 GPU 超级计算机,其中包括数千台 Nvidia 的热门且出口受限的 H100。谷歌表示,Hugging Face 用户可以在 “2024 年上半年” 开始使用人工智能应用构建平台 Vertex AI 和 Kubernetes 引擎,帮助训练和微调模型。 一一

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人