OpenAI 等机构上周发布论文,研究 GPT 这类大语言模型对劳动力市场的潜在影响。

OpenAI等机构上周发布论文,研究GPT这类大语言模型对劳动力市场的潜在影响。个人笔记研究方法上,文章主要衡量某个具体工作任务对GPT的「暴露」程度(exposure)。「暴露」指利用GPT和延伸技术,可以把完成一个具体任务的时间缩短50%以上。需留意,「暴露」不意味着这些任务能被GPT独立完成,研究时也没区分“劳动替代/劳动增强”,所以数据不能完全对应「人类被GPT抢工作而下岗」。文章初步结论1)约19%的工作者,将面临50%+的具体工作任务暴露于GPT;约80%的工作者,将面临10%+的任务暴露于GPT;各职业中位数暴露程度为15%。2)高收入、高门槛、需要高学历的工作,对GPT暴露程度更高。3)如果任务需要编程、写作,暴露程度会更高;如果任务高度依赖于科学素养和批判性思维,暴露程度会更低。(简而言之,作者做研究的暴露程度低,我写这篇笔记的暴露程度高)4)行业维度,数据处理、信息处理和医院相关行业暴露程度高。5)哪些职业100%的工作任务暴露于GPT?人类专家认为包括税务人员、金融量化分析师、写作者、UI设计师、数学家(?)等15种职业;GPT认为包括会计师和审计师、记者和新闻工作者、法律秘书和行政助理等86种职业。文章认为,GPT与印刷术、蒸汽机类似,属于通用技术(general-purposetechnologies)。通用技术特点是扩散广、不断改进、激发新的创新,对经济、社会和政策影响显著。要实现通用技术的全部潜力,需要各界广泛参与、共同发明。一言以蔽之:挑战与机遇并存(你够了论文链接:https://arxiv.org/abs/2303.10130

相关推荐

封面图片

OpenAI 发布了 35 页论文,论文称,对于大约 80% 的美国人来说,至少有 10% 的工作任务会受到 GPT 的影响。在

OpenAI发布了35页论文,论文称,对于大约80%的美国人来说,至少有10%的工作任务会受到GPT的影响。在大约19%的岗位中,有50%的任务会在某种程度上被AI自动化。而且,这种影响几乎横跨所有行业。学历越高,收入越高,"白领"做的工作AI越擅长,意味着被AI取代的可能性更大。OpenAI列出了不被AI影响的34大"铁饭碗",告诉蓝领这些人你们是"安全的"。完全不受LLM(大语言模型)影响的职业主要是体力劳动者。这恰恰与莫拉维克悖论非常一致,即能够可靠地实现多数体力劳动自动化的机器人技术还需要许多年。最容易受到LLM影响的职业有:报税员、口译员和笔译员、调查研究人员、校对和抄写员、作家。其中,暴露率100%的工作包括数学家、报税员、量化金融分析师、作家、网络和数字界面设计师。甚至还有区块链工程师。暴露率指的是访问GPT,或GPT驱动的系统,是否会使人类执行一项任务所需的时间减少至少50%。论文指出,薪酬越高,被LLM自动化的机会越高。不过好消息是,那些需要科学和批判思维能力的工作暴露率较低。按工作区域划分,那些拥有学士学位或更高学位的人,比没有学士学位的人更容易接触到GPT。()()投稿:@ZaiHuabot频道:@TestFlightCN

封面图片

19 个受 GPT 影响最大的职业

19个受GPT影响最大的职业OpenAI引入了一个概念——暴露(Exposure)。它的衡量标准是,使用ChatGPT或相关工具,在保证质量的情况下,能否减少完成工作的时间。人类标注的完全暴露(即暴露程度100%)的职业,包括作家、数学家、报税员、金融量化分析师、网页与数字界面设计师等。GPT-4标注的完全暴露的职业,包括数学家、会计与审计、新闻从业者、临床数据助理、法律秘书和行政助理、气候变化政策分析师等。此外,平面设计师、投资基金经理、搜索营销策略师等职业方差较大,说明各组标注的结果相差较大。还有一个有趣的结论是,收入越高的,越可能受到影响。部分原因是,这部分人群更可能接触和需要使用ChatGPT和相关工具。但这只是一个笼统的概括。研究结果进一步说明,科学和批判性思维技能,与暴露程度呈强烈负相关,这表明需要这些技能的职业,不太可能受到当前语言模型的影响。————会计是不会被gpt取代的,因为gpt没法坐牢……

封面图片

谷歌发布AI语言模型PaLM 2 挑战OpenAI的GPT-4

谷歌发布AI语言模型PaLM2挑战OpenAI的GPT-4皮查伊称:“PaLM2在逻辑和推理方面进行了广泛的训练,具有极强的逻辑和推理能力。同时,它还接受了多语言文本训练,支持100多种语言。谷歌在2022年4月首次发布了PaLM语言模型。谷歌高级研究总监斯拉夫·彼得罗夫(SlavPetrov)称,最新的PaLM2在一系列基于文本的任务上表现更好,包括推理、编码和翻译等。他说:“与PaLM1相比,PaLM2有了显著提升。”对于PaLM2,谷歌工程师在一份研究论文中称,该系统的语言熟练程度“足以教授这门语言”。与其他大型语言模型一样,PaLM2与其说是一款单一产品,不如说是一系列产品。它拥有不同的版本,可部署在消费者和企业环境中。确切而言,PaLM2分为四种规格,从小到大依次为Gecko、Otter、Bison和Unicorn,依据特定领域的数据进行了微调,以执行企业客户的特定任务。其中,体积最小的Gecko可以在手机上运行,每秒可处理20个Token,大约相当于16或17个单词。谷歌还称,PaLM2已被用于支持自家的25项功能和产品,其中包括AI聊天机器人Bard,以及谷歌文档、幻灯片和工作表等。...PC版:https://www.cnbeta.com.tw/articles/soft/1359045.htm手机版:https://m.cnbeta.com.tw/view/1359045.htm

封面图片

微软Azure将向美国政府机构提供OpenAI的GPT-4 AI语言模型

微软Azure将向美国政府机构提供OpenAI的GPT-4AI语言模型即将发布的消息可能不会明确提及预计将采用该技术的美国政府机构,然而,彭博社认为,美国国防部、能源部和美国国家航空航天局有可能被包括在内,因为它们是利用微软Azure政府解决方案的联邦政府客户。此举使政府实体能够通过微软的AzureOpenAI服务访问OpenAI的两个大型语言模型,即最新的和强有力的GPT-4及其前身GPT-3。已经证实,国防技术信息中心(DTIC)--国防部专门负责组装和分发军事发现的部门--将通过微软的最新服务进行采用GPT模型的试验。根据彭博社最近阅读到的一篇博文,微软的政府客户可以利用OpenAI的LLMs完成大量的任务,如回答关键的研究查询、计算机代码生成和现场报告总结。Azure全球首席技术官WilliamChappell在帖子中透露了这个信息。尽管如此,该公司的代表指出,这些机构不能直接访问ChatGPT,尽管他们可以通过类似聊天的界面利用OpenAI的模型。微软已经指定了一个隔离的商业云计算空间来容纳OpenAI的模型。该区域与Azure政府客户利用的云不同,后者严格遵守各种安全和数据合规规定。根据Chappell的声明,传输到模型的数据仍在AzureOpenAI服务内,因为微软将它们托管在其Azure基础设施内。此外,还提到人工智能模型不会使用Azure政府客户的数据进行训练。...PC版:https://www.cnbeta.com.tw/articles/soft/1364065.htm手机版:https://m.cnbeta.com.tw/view/1364065.htm

封面图片

LLaV:一个拥有类似 GPT-4 的大语言+视觉模型

LLaV:一个拥有类似GPT-4的大语言+视觉模型“使用机器生成的指令跟踪数据对大型语言模型(LLM)进行指令调优提高了新任务的零样本能力,但这一想法在多模式领域的探索较少。所以,我们开始尝试使用纯语言GPT-4生成多模态语言图像指令跟踪数据。通过对此类生成的数据进行指令调整,并推出了LLaVA:大型语言和视觉助手。这是一种端到端训练的大型多模态模型,连接视觉编码器和LLM以实现通用视觉和语言理解。早期实验表明,LLaVA展示了令人印象深刻的多模型聊天能力,有时在看不见的图像/指令上表现出多模态GPT-4的行为,并且与合成多模态指令跟随数据集上的GPT-4相比,相对分数达到了85.1%。当在ScienceQA上进行微调时,LLaVA和GPT-4的协同作用达到了92.53%,这个准确率颇高。因此,我们在GitHub正式开放GPT-4生成的视觉指令调整数据、模型和代码库。”

封面图片

Meta称其LLaMA语言模型比OpenAI的GPT-3更有前景

Meta称其LLaMA语言模型比OpenAI的GPT-3更有前景LLaMA有多种尺寸,从70亿个参数到650亿个参数不等。Meta方面称,尽管LLaMA-13B的尺寸较小,而且少了1620亿个参数,但“在大多数基准测试中”表现优于OpenAI的GPT-3。据报道,最大的模型LLaMA-65B与DeepMind的Chinchilla70B和PaLM-540B等模型可相提并论。LLaMA是一个基础模型:它在大量未标记数据上进行训练,这使得研究人员更容易针对特定任务微调模型。由于模型更小,因此更容易针对用例进行再训练。LLaMA不仅仅是使用英语文本构建的。Meta使用20种使用拉丁语或西里尔语脚本的语言训练其模型。然而,大多数训练数据都是英语,因此模型性能更好。Meta的研究人员声称,由于模型的大小,对当前大型语言模型的访问受到限制。Meta认为“这种受限访问限制了研究人员理解这些大型语言模型如何工作以及为何工作的能力,阻碍了提高其稳健性和解决已知问题(例如偏见、侮辱和产生错误信息的可能性)的努力”。除了使模型更小之外,Meta还试图让LLaMA更易于访问,包括在非商业许可下发布它。对各种LLaMA模型的访问权限只会根据具体情况授予学术研究人员,例如隶属于政府、民间组织和学术界的研究人员。与ChatGPT一样,LLaMA与其他语言模型一样存在生成有偏见或不准确的信息。Meta的LLaMA声明承认了这一点,并表示通过共享模型,研究人员可以“更轻松地测试新方法来限制或消除大型语言模型中的这些问题。”Meta在去年5月曾推出一款面向研究人员的名为OPT-175B的大型语言模型,去年年底还发布过另一款模型Galactica,但后者被发现经常分享有偏见或不准确的信息,在48小时内被迅速下架。...PC版:https://www.cnbeta.com.tw/articles/soft/1346899.htm手机版:https://m.cnbeta.com.tw/view/1346899.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人