训练效果未及预期 31名ChatGPT训练派遣工遭解雇

训练效果未及预期31名ChatGPT训练派遣工遭解雇截图还显示,数百名被称为“高级人工智能数据训练师”的InvisibleTechnologies公司派遣工与OpenAI合作,帮助后者训练其GPT聊天机器人。一位派遣工表示,该公司的人工智能数据培训师负责提高模型的编码技能,增强它们的创造性写作能力,或者训练它们拒绝对某些话题做出响应。由于签署了保密协议,这名派遣工要求保持匿名,不过知情人证实了他的身份和就业情况。InvisibleTechnologies公司运营副总裁卡姆伦·帕里兹班(KamronPalizban)在3月份的一次全体员工会议上谈到了裁员问题。他在被泄露的会议录音中表示,由于业务需求发生变化,OpenAI希望减少派遣工数量。帕里兹班在会议上还说,许多被解雇派遣工从事的项目没有为OpenAI提供足够高的投资回报。OpenAI大幅削减派遣工数量InvisibleTechnologies与OpenAI的关系让人们得以一窥这家ChatGPT制造商的数据训练情况。在很大程度上,OpenAI始终对这些训练保密。在OpenAI与InvisibleTechnologies的合同调整之前,有报道称前者连续六个月增加员工数量。知情人士表示,截至今年1月,OpenAI已在东欧和拉丁美洲等地雇佣了近1000名数据标注派遣工。就在InvisibleTechnologies裁员两个月前,微软刚刚向OpenAI注资100亿美元。但InvisibleTechnologies并不是唯一一家与OpenAI合作的外包企业。《时代》周刊的一项调查显示,2022年2月,同样位于旧金山的外包公司Sama在得知其在肯尼亚的数据标注员工正在审查性虐待、仇恨言论和暴力等有害内容后,终止了与OpenAI的合作关系。在给《时代》周刊的一份声明中,OpenAI发言人解释称:“对有害的文本和图像进行分类和过滤,是将训练数据中包含的暴力和色情内容数量降至最低的必要步骤,并有助于创建可以检测有害内容的工具。”人工智能训练师的工作根据InvisibleTechnologies公司派遣工的说法,人工智能训练师最基本的职责包括审查人工智能与其用户之间的对话,以识别潜在的非法、侵犯隐私、攻击性或充满错误的消息。接受采访的派遣工这样描述了他们的日常生活:开始轮班后,他们首先要打开内部工作浏览器,查看团队的任务清单。他们可能会点击这样的任务:“在禁止浏览的情况下就一个随机话题进行对话”,然后在消息框中输入一个查询。提交查询后,OpenAI的模型将生成四个响应。派遣工通过打开下拉菜单并选择存在的错误类型,如事实错误、拼写或语法错误,抑或是存在骚扰行为,以此来评估每个响应。然后,派遣工将错误的严重程度分为一到七级,其中七级代表“基本完美”的答案。接下来,派遣工必须精心设计一个完美的回应,并提交以示完成任务。派遣工表示,结果将被发送给OpenAI和InvisibleTechnologies公司的质量检查员。对于接下来的每个任务,都需要不断重复这个流程。InvisibleTechnologies运营副总裁卡姆伦·帕里兹班在会议中提到OpenAI时表示:“他们正处在这样一个阶段:即将对自己的发展方向有更多的清晰认识。”InvisibleTechnologies合伙人兼运营经理格蕾丝·马特利奇(GraceMatelich)在录制的会议上表示,该公司根据完成任务的“质量”和“吞吐量”等绩效指标解雇了表现不佳的派遣工。马特利奇称,表现不佳的派遣工以及那些被录用但没有“达到认证门槛”的派遣工都被解雇,不过有些人被允许选择转移到不同的OpenAI团队。他还说:“如果你们今天还在这里,我想让你们知道,这是因为我相信你们有能力出色地完成任务。”(小小)...PC版:https://www.cnbeta.com.tw/articles/soft/1356153.htm手机版:https://m.cnbeta.com.tw/view/1356153.htm

相关推荐

封面图片

OpenAI公布大模型新训练方法:阻止ChatGPT“一本正经地胡说八道”

OpenAI公布大模型新训练方法:阻止ChatGPT“一本正经地胡说八道”OpenAI公司的研究人员表示,即使是最先进的人工智能模型也会杜撰虚假信息,尤其是在拿不准的时候,它们往往倾向于编造事实。在要求多步骤推理的领域,人工智能胡编的后果尤为严重,因为一个单一的逻辑错误会导致整个解决方案“翻车”。OpenAI准备采用新战略,防止人工智能胡编。比如在过去,一旦提供一个正确的最终答案,模型会获得某种鼓励,但是以后,在每一个单一的逻辑推理环节如果表现正确,就将获得鼓励反馈。这种模式也被称之为“过程监督”(以往的模式术语“结果监督”)。研究人员表示,“过程监督”模式有助于产生更加清晰合理的回答,它将会鼓励生成式人工智能能够像人类一样,在推理思考中做到“环环相扣”。OpenAI公司“随机生成数学”研究专家卡尔·柯比(KarlCobbe)表示,发现并且减少人工智能模型的逻辑错误,也就是“AI幻觉”,是构建“通用人工智能”的关键一步。另外,“过程监督”模式并非OpenAI公司发明,但是该公司正在加以推广普及。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

OpenAI 解雇首席执行官 Sam Altman

OpenAI解雇首席执行官SamAltman人工智能初创公司OpenAI于周五解雇了其首席执行官兼创始人SamAltman。他的突然离职在新兴的人工智能行业引起了轰动。该公司在一份中表示,内部调查发现Altman并不总是向董事会说实话。“Altman的离职是在董事会经过深思熟虑的审查程序之后得出的结论,他在与董事会的沟通中始终不坦诚,阻碍了其履行职责的能力,”该公司在声明中表示。“董事会不再相信他继续领导OpenAI的能力。”OpenAI宣布公司首席技术官MiraMurati将担任临时首席执行官,直至选出长期继任者。——

封面图片

特斯拉在德国解雇 300 名临时工,称不属于裁员

特斯拉在德国解雇300名临时工,称不属于裁员https://www.ithome.com/0/762/739.htm特斯拉今日透露,该公司已在德国解雇了300名临时工,并同时强调这次解雇符合他们的合同期限,不属于裁员。———马斯克道歉称一些被裁特斯拉员工的遣散费过低,将予以补偿https://www.ithome.com/0/762/646.htm马斯克在这封电子邮件中写道:“在我们重组特斯拉的过程中,我注意到一些离职补偿金的数额低得不合理,我为这个错误道歉,我们将立即纠正这个错误。”特斯拉中国区裁员涵盖多个部门,一些部门已裁员完毕,销售人员是“重灾区”。因为特斯拉所有门店采用直营模式,门店销售也属于被裁员工的候选范畴,特斯拉中国销售部门裁员多为六个月内新员工,特斯拉提供0.5N+3赔偿,因为特斯拉底薪较高,所以赔偿到手大概有4~5万元。———2024-04-172024-04-15

封面图片

谷歌顶级AI专家加入OpenAI 曾警告不要用ChatGPT数据训练Bard

谷歌顶级AI专家加入OpenAI曾警告不要用ChatGPT数据训练Bard谷歌发言人则表示,“训练Bard没有用过任何来自ShareGPT或ChatGPT的数据。”据悉,用户可以在ShareGPT这个平台上发布他们与聊天机器人ChatGPT所交流的信息。报道称,德弗林曾告诉谷歌高管们,他认为开发Bard的团队使用了来自ShareGPT平台的信息。德弗林警告高管们,用用户与ChatGPT对话进行训练的话,可能会让Bard和ChatGPT太过相似。据报道,德弗林以及谷歌其他员工还认为这种做法违反了OpenAI的服务条款。消息人士表示,在德弗林就这个问题对谷歌高管发出警告后,谷歌就停止使用这些数据来训练Bard。据悉,今年1月份德弗林离开谷歌后不久,就加入了竞争对手OpenAI麾下。此前有报道称,德弗林是今年年初离开谷歌加入竞争对手的几名人工智能顶级研究人员之一。德弗林在谷歌工作了五年多时间。2018年他作为主要作者发布了一篇关于训练机器学习模型以提高搜索精度的研究论文,在一定程度上推动了人工智能的研究热潮。据报道,德弗林的研究成果已经成为谷歌和OpenAI语言模型的组成部分。多年来,OpenAI聘请了几十名来自谷歌母公司Alphabet的员工。去年11月份,OpenAI因公开发布能撰写文章还能自动编程的ChatGPT而爆火,此后谷歌和OpenAI就在人工智能领域展开激烈竞争。本月早些时候,谷歌向部分美国和英国用户发布了Bard。但是谷歌想要赶超OpenAI的步伐并没有停止。有报道称,为了能和OpenAI竞争,隶属于Alphabet旗下的两个人工智能团队DeepMind和谷歌大脑(GoogleBrain)已经联手。(辰辰)...PC版:https://www.cnbeta.com.tw/articles/soft/1352121.htm手机版:https://m.cnbeta.com.tw/view/1352121.htm

封面图片

OpenAI CEO被解雇:微软和OpenAI员工都懵了

OpenAICEO被解雇:微软和OpenAI员工都懵了对此,OpenAI和微软两家公司的内部人士称,这一消息让OpenAI和微软的员工都感到“十分震惊”。OpenAI在旧金山总部举行了一次简短的会议,重申了公开声明,并鼓励人们保持冷静。OpenAI的一位内部人士表示,幸好公司首席科学家、联合创始人兼董事会成员IlyaSutskever仍在他们身边,这让员工们感到一丝欣慰。多年来,Sutskever一直是倍受尊敬的高管,主要负责技术相关工作。但这种欣慰也是短暂的,大约一小时后,另一件令人震惊的事情发生了。OpenAI联合创始人、总裁GregBrockman宣布辞职。Brockman在一份电子邮件中告诉员工(同时也发布了推文),基于OpenAI的声明,他将辞去总裁一职。稍早些时候,在宣布解雇Altman的同时,OpenAI还宣布Brockman不在担任公司董事会主席一职,但继续担任公司总裁。一位业内人士称,OpenAI的这次高管变动将载入史册。他还将Altman被解雇比作当年苹果公司联合创始人乔布斯的出走。1985年,乔布斯因与苹果时任CEO存在分歧而被解雇。OpenAI和微软内部人士一致认为,此举来得太突然了。但微软表示,该公司支持其合作伙伴OpenAI的新领导人。微软CEO萨蒂亚·纳德拉(SatyaNadella)在一份声明中表示:“我们与OpenAI签订了一项长期协议,完全可以获得我们需要的一切,以满足我们的创新计划和令人兴奋的产品路线图。将来,我们会继续致力于与OpenAI的合作伙伴关系,支持Murati及其团队。总之,我们将共同努力,继续为世界带来人工智能的无限可能。”但微软的一位员工表示,可能已经有迹象表明,OpenAI的业务并不顺利。该员工称:“我认为,它的估值是巨大的。围绕着人工智能,有一些积极的事情正在发生。但现实是,你需要为人工智能功能收取30美元以上的费用来处理基础设施成本,这相当于人们目前为一个生产力工具支付的两倍或更多。”该员工还称:“除了推理成本,OpenAI还将需要继续花费数十亿美元来训练模型。”对此,OpenAI尚未发表评论。相关文章:OpenAICEO被炒鱿鱼微软仅提前1分钟获得消息...PC版:https://www.cnbeta.com.tw/articles/soft/1397925.htm手机版:https://m.cnbeta.com.tw/view/1397925.htm

封面图片

【OpenAI将用新方法来训练模型,以对抗人工智能“幻觉】

【OpenAI将用新方法来训练模型,以对抗人工智能“幻觉】6月1日消息,OpenAI发布的最新研究论文显示,该公司正在用一种新的方法来训练人工智能(AI)模型,以对抗人工智能“幻觉”。人工智能幻觉指的是人工智能模型生成内容的能力,这些内容不是基于任何现实世界的数据,而是模型自己想象的产物。人们担心这种幻觉可能带来的潜在问题,包括道德、社会和实际问题。OpenAI的研究人员在报告中表示,即使是最先进的人工智能模型也很容易产生谎言,它们在不确定的时刻往往表现出捏造事实的倾向。而这些幻觉在需要多步骤推理的领域尤其严重,因为一个逻辑错误就足以破坏一个更大的解决方案。该公司提出的新策略是:训练人工智能模型时,奖励每个正确的推理步骤,而不仅仅是简单地奖励正确的最终结论。根据研究人员的说法,这种方法被称为“过程监督”,而不是结果监督,它可能会提高人工智能的性能与准确性,因为这种策略鼓励模型更多地遵循类似人类的“思维链”。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人