OpenAI旨在利用ChatGPT吸引商业客户。

None

相关推荐

封面图片

【OpenAI称ChatGPT应受到监管:ChatGPT或被坏人利用】

【OpenAI称ChatGPT应受到监管:ChatGPT或被坏人利用】人工智能研究公司OpenAI首席技术官米拉·穆拉蒂(MiraMurati)表示,ChatGPT可能会“编造事实”,这与其他基于语言模型的人工智能工具没有什么区别一样。当被问及像OpenAI这样的公司等机构是否有责任监管这一工具时,穆拉蒂说:“对OpenAI等公司来说,最重要的是以一种可控和负责任的方式将其引入公共意识。”但她强调,公司还需要来自监管机构、政府甚至所有人的帮助。穆拉蒂补充说,现在对ChatGPT进行监管“并不算为时过早”。

封面图片

OpenAI与支付公司Stripe合作 将ChatGPT商业化

OpenAI与支付公司Stripe合作将ChatGPT商业化今年2月,该公司首次推出了月费20美元的高级订阅服务,此前其聊天机器人引起了公众的广泛兴趣。Stripe首席技术官DavidSingleton表示,Stripe将从通过OpenAI旗下平台所进行的交易中抽成一小部分。这次合作也意味着Stripe将把OpenAI的新技术整合到自己的产品和服务中,目前Stripe正在对14个GPT基础设施进行试验。这对Stripe来说是个利好消息。该公司在最新一轮融资中估值约为500亿美元,相较2021年初的950亿美元已大幅下滑。...PC版:https://www.cnbeta.com.tw/articles/soft/1349603.htm手机版:https://m.cnbeta.com.tw/view/1349603.htm

封面图片

微软和OpenAI称多国黑客正利用ChatGPT改进网络攻击

微软和OpenAI称多国黑客正利用ChatGPT改进网络攻击微软在今天的一篇博文中说:"网络犯罪集团、民族国家威胁行动者和其他对手正在探索和测试新出现的各种人工智能技术,试图了解它们对其行动的潜在价值以及它们可能需要规避的安全控制。"与俄罗斯军事情报机构有关联的"锶"组织被发现使用LLMs"了解卫星通信协议、雷达成像技术和特定技术参数"。该黑客组织也被称为APT28或FancyBear,在俄罗斯的乌克兰战争期间一直很活跃,此前曾参与2016年针对希拉里-克林顿总统竞选活动的攻击。据微软称,该小组还一直在使用LLM来帮助完成"基本的脚本任务,包括文件操作、数据选择、正则表达式和多进程处理,以实现技术操作的自动化或优化"。一个名为Thallium的朝鲜黑客组织一直在使用LLMs来研究公开报道的漏洞和目标组织,帮助完成基本的脚本任务,并为网络钓鱼活动起草内容。微软称,名为Curium的伊朗组织也一直在使用LLMs生成网络钓鱼电子邮件,甚至是用于躲避杀毒软件检测的代码。与中国政府有关联的黑客也在使用LLMs进行研究、编写脚本、翻译和改进现有工具。人们一直担心在网络攻击中使用人工智能,特别是出现了像WormGPT和FraudGPT这样的人工智能工具来协助创建恶意电子邮件和破解工具。美国国家安全局的一位高级官员上个月也警告说,黑客正在利用人工智能让他们的钓鱼邮件看起来更有说服力。微软和OpenAI尚未发现任何使用LLMs的"重大攻击",但这两家公司已经关闭了与这些黑客组织相关的所有账户和资产。微软表示:"与此同时,我们认为这是一项重要的研究,通过发布来揭露我们观察到的知名威胁行为者试图采取的早期、渐进式行动,并与防御者社区分享我们如何阻止和反击这些行动的信息。"虽然目前人工智能在网络攻击中的应用似乎还很有限,但微软对未来的使用案例(如语音冒充)发出了警告。"人工智能驱动的欺诈是另一个令人严重关切的问题。语音合成就是一个例子,三秒钟的语音样本就能训练出一个听起来像任何人的模型,即使是像语音邮件问候语这样无害的东西,也可以用来获得足够的样本。"微软的解决方案是利用人工智能来应对人工智能攻击。"人工智能可以帮助攻击者提高攻击的复杂程度,而且他们有足够的资源来应对。"微软首席检测分析经理霍马-海蒂法(HomaHayatyfar)说。"我们已经从微软追踪的300多个威胁行为体身上看到了这一点,我们使用人工智能来保护、检测和应对。"微软正在打造一款新的人工智能助手SecurityCopilot,专为网络安全专业人士设计,用于识别漏洞并更好地理解每天通过网络安全工具产生的大量信号和数据。在Azure云遭受重大攻击,甚至俄罗斯黑客监视微软高管之后,这家软件巨头也在全面整顿其软件安全机制。了解更多:https://www.microsoft.com/en-us/security/blog/2024/02/14/staying-ahead-of-threat-actors-in-the-age-of-ai/...PC版:https://www.cnbeta.com.tw/articles/soft/1418125.htm手机版:https://m.cnbeta.com.tw/view/1418125.htm

封面图片

OpenAI首席技术官:ChatGPT可能会被“坏人”利用 应受到监管

OpenAI首席技术官:ChatGPT可能会被“坏人”利用应受到监管穆拉蒂补充说,ChatGPT可能会“编造事实”,这与其他基于语言模型的人工智能工具没有什么区别一样。穆拉蒂还在采访中强调,像ChatGPT这样的人工智能工具“可能被滥用,也可能被坏人使用”,引发了关于如何在全球范围内对其进行监管的问题。问题就是,穆拉蒂说,“你该如何以一种符合人类价值观的方式管理人工智能的使用?”当被问及像OpenAI这样的公司等机构是否有责任监管这一工具时,穆拉蒂说:“对OpenAI等公司来说,最重要的是以一种可控和负责任的方式将其引入公共意识。”但她强调,公司还需要来自监管机构、政府甚至所有人的帮助。穆拉蒂补充说,现在对ChatGPT进行监管“并不算为时过早”。OpenAI没有立即回应置评请求。今年1月份,OpenAI首席执行官萨姆·奥尔特曼(SamAltman)在接受采访时表示:“生成文本是我们都需要适应的东西。”他说,“我想,我们适应了计算器,改变了数学课上的测试内容。毫无疑问,ChatGPT是一个更极端的例子,它带来的好处也更极端。”自去年11月30日OpenAI公开发布ChatGPT以来,这款人工智能聊天机器人就引起了人们的极大兴趣,有不少人甚至担心最终ChatGPT将取代许多人的工作。有人用ChatGPT和另一种自动生成图形的人工智能工具写出了一本儿童书籍。研究人员还用ChatGPT去回答美国医学执照考试的问题,结果表明ChatGPT“稳稳”通过所有三个部分的考核内容。...PC版:https://www.cnbeta.com.tw/articles/soft/1342769.htm手机版:https://m.cnbeta.com.tw/view/1342769.htm

封面图片

“ChatGPT之父”:OpenAI早已不使用客户数据来训练模型

“ChatGPT之父”:OpenAI早已不使用客户数据来训练模型OpenAI是近期爆火的AI聊天机器人ChatGPT的开发商,而阿尔特曼提到的“大语言模型”就是ChatGPT背后的关键技术。据了解,开发商在训练大语言模型时需要摄取网络上的海量数据,才能提高模型生成自然语言的能力。阿尔特曼在专访中说道,“用户们显然希望我们不要使用他们的数据进行训练,所以我们已经改变了我们的计划,未来我们也不会这样做了。”网络记录也显示,今年3月1日,OpenAI悄然更新了其服务条款:“不会使用通过其API提交的任何数据来‘服务改进’,包括AI模型训练,除非客户或组织选择加入。”此外,该公司同时添加了30天的数据保留政策,API用户可以选择“根据用户需求”进行更严格的保留,并简化其条款和数据所有权,以明确用户拥有模型的输入和输出。鉴于新的隐私规则仅适用于API用户,这也意味着,普通用户和ChatGPT之间的对话内容,只要用户切换“关闭聊天记录”按钮,仍会进入到模型的训练资料库。长期以来,开发人员一直对OpenAI先前的数据处理政策颇有异议,声称这会带来隐私风险并允许公司从他们的数据中获利。目前,亚马逊等公司已经颁布了禁止员工分享敏感数据的措施,以防范ChatGPT这样的大语言模型窃取公司机密。另有消息称,三星电子本周也推出了一项新政策,要求员工不得在工作场所使用ChatGPT等生成式人工智能。此前,该公司的半导体业务部门曝出了三起机密资料外泄案件,其中两起与半导体设备有关的文件可能已经录入到ChatGPT的学习资料库中。本周早些时候,美国作家协会(WGA)与电影公司之间为期六周的合同谈判破裂,好莱坞面临15年来首次编剧罢工。而究其原因,是美国作家协会要求限制人工智能编写电影和电视剧剧本。美国作家协会谈判委员会成员JohnAugust表示,编剧对人工智能主要有两个不满:他们不想让自己的作品成为“喂饱”AI的材料,也不想以后只能修改AI草率的初稿。...PC版:https://www.cnbeta.com.tw/articles/soft/1358383.htm手机版:https://m.cnbeta.com.tw/view/1358383.htm

封面图片

OpenAI承诺为因版权被起诉的ChatGPT商业用户提供法律支持

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人