这篇关于好莱坞如何通过罢工对抗 AI 的报道非常有趣。一些感想:- Netflix 给AI PM开的工资是90万,但Eng di

这篇关于好莱坞如何通过罢工对抗 AI 的报道非常有趣。一些感想:- Netflix 给AI PM开的工资是90万,但Eng director是65万。凭什么 PM 多这么多?- 能预计到各行各业都会有卢德主义者出现,但没想到第一个如此大规模认真严肃抗议的是好莱坞。别的行业要么还没意识到冲击,要么牵涉到的利润不够庞大,要么没有现成的工会。 #抽屉IT

相关推荐

封面图片

电影人:好莱坞不会因为AI模型Sora而“完蛋”

电影人:好莱坞不会因为AI模型Sora而“完蛋” 不过Sora和其他一些围绕文字、图像和音频开发的人工智能模型在某些方面还存在缺陷,限制了人工智能的工作范围,娱乐行业的创意工作者似乎并不过分担忧自己的职位。“很多人都在说好莱坞完蛋了,好莱坞要成历史,”电影概念艺术家及插画师里德·索森(Reid Southen)表示:“但我并不这么认为,原因很多。生产流程过于复杂。而且,这些人工智能生成的视频存在诸多问题,尤其是在连贯性和多余肢体等明显人造痕迹方面。”在去年的罢工中,对生成式人工智能的关注成为了娱乐业从业者的主要焦点。许多创意工作者继续推动对人工智能模型使用的保护性限制。国际动画电影协会好莱坞分会的临时执行主任奥布里·明茨(Aubry Mintz)表示,动画行业已经对Sora感到“相当不安”。明茨说,如果Sora能够完成参考动画、概念艺术和分镜脚本的制作,那么这个行业的专业人士可能会面临失业的风险。尽管索森不认为Sora会迅速取代电影制片人的工作,但他确实担忧先进技术可能对未来的就业前景产生影响。他说:“很明显,我们生活在一个在很多方面都追求‘足够好’的文化中,因此,只要有机会节省哪怕一美元,个人和公司都会争先恐后地采用。”英国导演、编剧及演员布莱克·里德(Blake Ridder)认为,目前Sora的能力似乎更适用于制作原始材料,而非成品电影。里德相信,Sora可以作为一个工具来辅助电影的制作过程。他表示:“一些人可能会使用Sora作为他们创作的一部分,这确实有些威胁。”“但电影制作人也许可以利用这些生成的视频来规划分镜,而不是将其作为最终成品。”OpenAI在上周的一份声明中表示,公司不会急于“广泛使用”Sora,希望在向公众发布之前与政策制定者、教育工作者和艺术家进行更多的交流。与其他几家生成式人工智能公司一样,OpenAI已面临多起诉讼,其中包括指控公司使用受版权保护的材料来训练其产品。OpenAI发言人表示,Sora的“训练数据来源于我们获得授权的内容和公开内容。”去年,OpenAI扩大了与版权商Shutterstock的合作,后者允许使用其图像、视频和音乐库来训练模型。此外艺术家们也对Sora可能使制片厂在未经他们本人同意的情况下制作演员肖像表示担忧。OpenAI在一篇博客文章中明确,文本到视频的模型将拒绝关于生成名人肖像的请求。上周,美国联邦贸易委员会(FTC)提出了一项新规定,旨在通过将人工智能模仿真人的行为定为非法,来扩大保护措施。历史上,好莱坞一直在适应技术进步,无论是计算机生成图像(CGI)还是电脑动画软件。明茨希望,电影行业也能在人工智能的创新浪潮中继续存活下去。明茨表示:“它们无法复制人类的创造性思维或做出艺术家们几个世纪以来一直在做的创造性决策。”“我们是站在巨人的肩膀上,致力于创造出我们自豪的独特之作。” ... PC版: 手机版:

封面图片

OpenAI上门推荐Sora 下周将密集拜会好莱坞大咖、电影工作室

OpenAI上门推荐Sora 下周将密集拜会好莱坞大咖、电影工作室 主要目的有二:首先是在娱乐行业建立合作关系,同时鼓励电影制片人将Sora工具融入到他们的创作流程中。频繁会面建立联系OpenAI在今年2月中旬推出新的文本到视频生成模型Sora。令市场感到震惊的是,虽然这个模型对一些物理关系吃得还不是很透,但光是“一句话生成一分钟视频”,同时人物形象栩栩如生,又令整个市场经历了一次“ChatGPT时刻”。(Sora生成的中国农历新年舞龙景象,来源:OpenAI)事实上,在周五爆出消息前OpenAI已经热切展开接触电影行业的行动。知情人士称,其实在Sora发布后的2月底,由OpenAI首席运营官布拉德·莱特卡普领头,公司已经与好莱坞展开初步对话,并演示了Sora的功能。接下来奥尔特曼也跑去参加奥斯卡颁奖典礼的周末派对,试图建立关系。据悉,虽然Sora仍没有对公众开放的时间表,但一些知名导演和演员已经拿到使用权限。对于最新的报道,OpenAI发言人回应称,公司有一项经过深思熟虑的策略,即通过迭代部署的过程与业界展开合作,分不同阶段释放AI以实现安全部署,同时也让人们知道接下来会发生什么。别忘了AI依然是好莱坞的争议话题不可否认,人工智能已经成为影视行业的难以割舍的一部分,许多前期、后期工序都已经离不开这种新兴工具。与此同时,插画师、配音演员与AIGC有关的失业潮,也不免引发从业者的担忧和抵制。编剧和演员工会通过去年的罢工,也为工会成员在娱乐业应用AI的方式上争取到了一些保障措施。更严峻的问题依然是版权,许多文字媒体已经对OpenAI未经授权使用他们的报道训练模型感到不满,而在视频生成领域大概率也会出现同样的问题。在本月接受采访时,OpenAI的首席技术官Mira Murati被问到“Sora的训练数据来自哪里”时,一开始还表示是“公开且获得许可的数据”,但在记者追问“来自Youtube、社交媒体平台还是版权图库”后,尴尬地连说了几次“我不确定”。(来源:采访视频)另外,虽然OpenAI的新产品令市场感到惊奇,但在生成视频这个行业他们依然是后来者。Meta、Google(151.77, 3.03, 2.04%)、Runway AI、Pika、Stability AI等公司都或多或少有类似的项目。当然,这些公司现在也遇到了经典的问题“如果OpenAI和你们做一样的产品,该怎么办”。Runway介绍称,目前已经有数百万人用过他们的Gen-2文本转视频服务,制作和动画工作室的人会用生成式服务进行故事设计和视觉效果预览,而一些电影编辑也将这种技术用在补充镜头或视觉效果上。 ... PC版: 手机版:

封面图片

奥特曼出席AI峰会 首次公开回应OpenAI治理和AI语音争议等敏感问题

奥特曼出席AI峰会 首次公开回应OpenAI治理和AI语音争议等敏感问题     奥特曼在采访中首次就OpenAI使用酷似好莱坞影星斯嘉丽·约翰逊声音的AI语音一事引发的争议发表公开评论,强调“那不是她的声音”。汤普森向奥特曼提到了斯嘉丽本人对OpenAI语音的担忧。奥特曼回答说:“那不是她的声音,也不应该是。我很抱歉造成了误会,很明显你们以为是。对于声音的相似程度,人们会有不同的看法,但我们不会。那不是她的声音。”奥特曼补充说,他“不知道还能说什么”。汤普森没有就这一问题继续追问下去。后来,他向奥特曼询问了OpenAI的治理问题,包括成立治理委员会的想法。但奥特曼基本上回避了这个问题。“我们继续讨论如何实施治理。我现在可能不应该说太多,”奥特曼说。“再多说一点,”汤普森说,引起了观众的笑声。奥特曼回答说:“我要换个话题,我很抱歉。”汤普森还提到了乔治城大学研究员海伦·托纳(Helen Toner)最近的评论,在去年11月OpenAI的“政变”风波中,托纳是该公司董事会成员之一。她在最近的一次播客访谈中批评奥特曼隐瞒信息,歪曲OpenAI发生的事情或“彻头彻尾的撒谎”。她举例说,当ChatGPT于2022年11月发布时,“董事会没有事先被告知这一点。我们是从Twitter上了解到ChatGPT的。”“我不同意她对事件的回忆,”奥特曼说,托纳“真诚地关心AGI的良好结果,我很欣赏她的这一点,并祝她一切顺利。我可能不想在这里逐字逐句地反驳。” ... PC版: 手机版:

封面图片

Nature:警惕!AI让人类“自大” 或使科学缺乏创新

Nature:警惕!AI让人类“自大” 或使科学缺乏创新 然而,AI 在为科研带来更多可能性的同时,也引发了许多问题。来自耶鲁大学和普林斯顿大学的研究团队认为,在科学研究中,AI 可能会造成知识生产的单一性,即科学的单一文化(scientific monocultures)。具体来说,在这种文化中,某些类型的方法、问题和观点主导了其他方法,使科学缺乏创新性,更容易出错。同时,AI 提出的解决方案也可能掩盖了我们的认知局限性,使我们容易产生一种错觉,即我们认为自己对世界的了解比实际情况要多。因此,科学家需要审慎考虑 AI 在科学研究中的潜在影响,从而负责任地进行知识生产。相关研究论文以“Artificial intelligence and illusions of understanding in scientific research”为题,已发表在科学期刊 Nature 上。该论文从大量与 AI4Science 相关的文献中,提炼出了 AI 的四大应用愿景智囊团(Oracles)、代理人(Surrogates)、量化分析师(Quants)和裁决者(Arbiters),并分别讨论了 AI 在科学研究中的应用和影响。表|科学研究中的 AI 愿景。通过分析最近有关 AI 改善跨科学学科知识生产潜力的出版物,得出以上四种类型。纳入的论文要么使用“AI”这个通用短语,要么提到 AI 概念之下的特定方法,最常见的是机器学习、自然语言处理和大型语言模型。该表总结了愿景如何响应不同的研究阶段,以及对科学能力和效率的感知限制。人类科学家为何信任AI?近年来,AI 在科学研究中的应用日益广泛,其提供的解决方案被认为能够彻底改变科学研究方法。但 AI 何以获得科学家的信任呢?首先,AI 工具不仅被视为工具,更被看作是研究中的合作者,能够提供超越人类限制的解决方案和见解。这种认知增强了科学家对 AI 的信任,因为他们将这些工具视为知识生产中的伙伴。其次,AI 工具被认为具有增强其可信度的特质,如客观性、深度理解能力以及提供令人满意的解释能力。这种描绘使得 AI 工具在某些情况下比人类更值得信赖。第三,AI 工具提供的解决方案符合人们对简单、广泛、简化和量化解释的偏好,进而增强了对理解的感知。然而,将 AI 整合到科学研究中也存在认知风险,尤其是认知理解的错觉形式。图|AI 驱动的科学研究中的理解错觉。如上图 a 所示,使用 AI 工具进行研究的科学家可能会产生解释深度的错觉。在示例中,一位科学家使用 AI Quant 对现象 (X) 进行建模,并相信他们对 X 的理解比实际更深入。在图 b 中,在单一的认知文化中,科学家很容易产生探索广度的错觉,他们错误地认为自己正在探索所有可检验假设的空间,而实际上他们正在探索可以用 AI 工具检验的更狭窄的假设空间。另外,如图 c,在知识者单一文化中,科学家很容易产生客观性错觉,他们错误地认为 AI 工具没有立场或能够代表所有可能的立场使用人类参与者进行研究的替代者),而 AI 工具实际上嵌入了训练数据和开发人员的观点。认知理解的错觉发生在个体高估自己的理解程度时,将 AI 工具或其他社区成员的知识和能力误认为自己的。这种现象可能导致科学论断中的错误和过度乐观,特别是当 AI 工具在专家领域之外使用时。AI4Science的未来,一切向好吗?由于 AI 工具看似可信且承诺提升研究的质量和数量,因此依赖这些工具的研究可能会大幅增加。目前,关于 AI 的引用在出版物和专利中在逐渐增多,并且使用 AI 工具的论文在学科内外的引用都呈现出增加的趋势。如果这个趋势持续发展,那么当 AI 辅助研究逐渐主导知识生产,会有哪些认知风险?文中给出了一个观点:科学可能会形成单一文化。作者用了一个类比来说明这一点:在农业中,单一文化是一种在同一片土地上只种植一种作物的做法。这种做法提高了效率,但也使作物更容易受到害虫和疾病的侵害。文章认为,AI 工具所提供的效率可以促进科学单一文化的发展,其中某些形式的知识生产主导了其他所有形式。它们可以通过两种不同但相辅相成的方式实现。首先,通过优先考虑最适合 AI 辅助的问题和方法(知识生产的单一文化)。其次,通过优先考虑 AI 能够表达的观点类型(知识所有者的单一文化)。就像植物单一文化更容易受到害虫和疾病的侵害一样,科学单一文化使我们对世界的理解更容易出现错误、偏见和错失创新的机会。当新工具和技术产生时,科学家总是倾向于迅速利用它们的优势。然而,AI 工具被预测将在各个领域得到广泛应用,成为超级合作者融入到知识社区中,这样的风险可能会变得尤其严重。除了威胁科学的蓬勃发展外,知识生产的单一文化还会产生认知理解错觉。在这些错觉中,科学家错误地认为,AI 工具推进了人类对科学的理解,而不是意识到,这些工具实际上缩小了科学知识生产的范围。了解风险,是应对风险的关键一步。为了减轻 AI 在知识生产中应用的风险,人类需要增强对科学单一文化的认知风险的理解,以及对认知错觉的感知。事实上,AI 在科学中的应用确实让所有人兴奋,比如 AI 化学家加速催化研究(点击查看详情),生成式 AI 助力碳捕集(点击查看详情)等等。然而,在 AI4Science 走得更远之前,科学家们必须考虑到 AI 的技术限制和潜力,以及它对科学知识生产社会实践的影响。AI 辅助科学研究也许预示着这样一个未来,其中不仅参与者缺乏多样性,而且追求的研究主题也缺乏多样性。它们还引发了认知理解的错觉,阻止我们意识到我们的视野已经变窄。尽管 AI 在科学中的广泛应用是不可避免的,但科学家,除了进行知识生产外,还有责任决定事物的发展方式。论文链接: ... PC版: 手机版:

封面图片

OpenAI CEO又创办了一家AI公司

OpenAI CEO又创办了一家AI公司 Thrive AI Health的目标是打造一个个性化“AI健康教练”,以手机App形式呈现。目前公司CEO是Google前健康和可穿戴设备负责人德卡洛斯·洛夫(DeCarlos Love),OpenAI创业基金和Thrive Global是主要投资方。X平台投资自媒体Startups IO发文称,Thrive AI Health从OpenAI创业基金筹集了1500万美元,目前Thrive AI Health官方并未公布具体的融资金额。今天洛夫和赫芬顿都在X平台上公布了相关信息。文章提到,睡眠、饮食、运动、压力管理和社交这五大日常行为是AI健康教练聚焦的重点,AI会提供非常精准的建议,比如“下午3点15分接孩子放学后和孩子一起散步10分钟”、“第二天早上6点要起床赶飞机,所以晚上10点开始放松准备睡觉”。01.用AI健康教练改变日常生活习惯省钱省时间所以阿尔特曼成立这家AI健康公司究竟想想做什么,用什么方式去做?一句话总结:用AI健康教练改善慢病管理。文章提到,目前有1.29亿美国人患有至少一种慢性疾病,美国每年4.1万亿美元的医疗保健支出中有90%用于治疗这些疾病。在他们看来,平时生活习惯的改变是预防这些慢性病的关键,但人的行为习惯很难改变,因此他们希望通过非常个性化的AI来解决这个难题。个性化的AI可以通过改善人的睡眠、饮食、运动、压力管理和社交五种日常基础行为,从而让人养生更健康的生活习惯。这也是阿尔特曼这家AI健康公司的核心理念:他们希望做一个定制的、个性化的AI健康教练。这个AI健康教练以移动App的形式呈现,这个App会包含在Thrive Global的企业产品中。▲Thrive Global官网,来源:thriveglobal.com文章提到,这个AI健康教练会基于科学理念以及Thrive多年积累的行为改变方法进行训练,日积月累帮助人养成健康的生活习惯。此外,这个AI还会利用一些最前沿的AI技术,比如长期记忆能力和为特定领域定制开发的行为指导AI模型。AI健康教练会学习什么条件可以让人有高质量的睡眠、用户喜欢吃什么不喜欢吃什么,用户运动的时间、减轻压力的有效方式等等。这样AI会给用户提供定制化的实时提醒和建议,比如提醒你按时吃药、提供更健康的饮食建议、鼓励你抽空进行短暂锻炼。值得一提的是,这些建议会非常“精准”,比如:下午3点用柠檬水代替您的第三杯苏打水;下午3点15分接孩子放学后和孩子一起散步10分钟;由于您第二天早上6点要起床赶飞机,所以晚上10点开始放松准备睡觉。这个文章提到,AI健康教练可以解决两个很关键的问题,总结下来,一个是钱,一个是时间。AI健康教练可以帮很多人省钱,因为不是每个人都请得起健康导师和健身教练,也不是每个人都有时间去解决一些细小的健康问题。这颇有些“健康平权”的意味。在阿尔特曼他们看来,大家都关注AI可以帮我提高多少效率,但AI还可以实现更基本的东西:改善人类的健康、延长寿命。02.请来前Google健康&可穿戴负责人联合前沿学术机构和医疗中心作为一家新成立的AI创企,Thrive AI Health自然少不了一些大牛的助阵。这次阿尔特曼请来了Google前健康和可穿戴设备负责人德卡洛斯·洛夫做新公司的CEO。▲DeCarlos Love据报道,在Google工作期间,洛夫曾负责传感器、AI和机器学习算法以及健康和健身体验等方面的工作,对Google的智能手表和手表上的Wear OS都比较熟悉。在加入Google之前,洛夫还曾在苹果和Athos担任产品职务。洛夫在X平台上发文公布了自己将上任Thrive AI Health CEO的消息。Thrive AI Health的主要资助方Thrive Global的创始人兼CEO赫芬顿也在X平台上发文表达了对AI技术应用于健康管理的期待,她认为通过AI驱动的个性化行为改变,人类终于有机会扭转糖尿病和心血管疾病等慢性疾病的发展趋势。▲Arianna Huffington目前,Thrive AI Health已经和一些前沿学术机构和医疗中心建立了研究合作,比如斯坦福医学、爱丽丝·L·沃尔顿医学院和西弗吉尼亚大学的洛克菲勒神经科学研究所。03.结语:垂域大模型日渐深入AI健康或成新风口目前AI大模型正在各个领域加速落地,OpenAI大模型技术与医疗健康的结合也带来了新的可能,阿尔特曼的新公司代表着他向AI健康领域的又一次尝试。当然,这一领域也充满挑战,比如个人数据隐私安全的保护,监管机制的完善,牵涉到个人健康,AI技术的应用、AI模型的训练都要更加谨慎,AI健康这个阿尔特曼早已看中的方向,是否能涌现出更多潜力,我们拭目以待。 ... PC版: 手机版:

封面图片

给AI当“奶妈”,是天涯们的生路吗?

给AI当“奶妈”,是天涯们的生路吗? 再听到天涯的消息,是在今年2月底,全国企业破产重整案件信息网上公开一条“天涯社区网络科技股份有限公司被申请破产审查”的信息。尽管天涯方面否认即将破产的传闻,但天涯重见天日的可能性,到底是更加渺茫了。在美国,一家式微的老牌内容平台,却依靠AI的浪潮找到了副业,吃下了热钱第三方图片托管平台Photobucket,一度拥有7000万用户,占据美国在线照片市场的近一半份额。如今,Photobucket辉煌不再,只有约200万人还在使用它。正所谓“瘦死的骆驼比马大”,已经被大部分人遗忘的Photobucket有之前多年的积累,依然坐拥上百亿照片和视频。而这,正是患上“数据饥渴症”的AI公司最需要的。在AI热潮下,不断有公司找上门来。以正在进行的谈判来粗略估计,Photobucket手里掌握的内容可能价值数十亿美元。有钱但缺数据的AI公司,遇上没钱但积累了海量内容的老牌社区,不交易一下才奇怪。Photobucket正在与AI公司谈交易的消息,是由路透社曝出的。有意思的是,报道中有一句话在后续编辑中被删除:“公司预计,其第一季度营业陆润将增长10倍,达到近49亿美元。”49亿美元是什么概念?Photobucket作为一家图片托管网站,刚开始是免费的。在千禧年前后,互联网用户激增,人们或为了记录生活,或为了分享,乐于将照片上传到一个专门的网站。而且,在Photobucket上传了图片后,人们还可以在其他网站如MySpace直接嵌入,省得反复上传。一些卖家也会在eBay或亚马逊使用Photobucket托管的图片。用这种方式,巅峰时期的Photobucket一度占据了美国互联网流量的2%。由免费转向付费,似乎是Photobucket的必经之路。不过,Photobucket有点太心急了。2017年时,Photobucket突然将第三方显示变为每年399美元的付费订阅服务。此举并没有提前的充分预警,很多用户发现自己在其他网站嵌入的Photobucket图片都无法展示,变成了“付费以解锁”的提示。要知道,Photobucket当时已经有1亿注册用户,有约6000万第三方网站的图片在此次“升级”下无法正常显示。在争议之下,Photobucket次年将年订阅模式改为可月付的模式,并沿用至今。Photobucket也就此走上下坡路。后续几年,Photpbucket又经历了服务中心断电导致服务中断、隐私泄露等“意外”,渐渐从备受欢迎的图片网站变成了互联网边角料产品。公司规模也从鼎盛时期的120名员工缩水到了40人。目前Photobucket网站提供的付费计划中,最贵的每月收取8美元。以最新报道透露的200万用户在使用Photobucket计算,哪怕他们全部月付8美元,每年也仅能贡献1.9亿美元。而且这对Photobucket来说只是收入,没有剔除存储、维护、运营等的各项成本。虽然Photobucket在过去二十年损失了不少用户,但除非用户注销,它一直保留着用户的图片。即便是在不再支持免费账户的情况下,Photobucket也明确通知用户:你的照片还在,只需要现在开始付费,就能重新看到它们。不断有已经弃用Photobucket的用户在社交媒体上吐槽,称自己频繁收到Photobucket“求复合”的邮件,已经不堪其扰。既然图片都在,海量的内容还存储在服务器上,为什么不用它们赚上一笔?将平台内容授权给AI公司,获得49亿美元,对Photobucket来说可以算是一笔巨款了。为什么AI公司会找上“明日黄花”Photobucket?答案很简单,太缺数据了。以OpenAI的GPT系列模型为例,GPT-3使用了3000亿的token,GPT-4使用了12万亿的token。而已经在路上的GPT-5所需的token量在60万亿到100万亿。“规模即一切”成为AI的战斗口号。霍普金斯大学卢纶物理学家贾里德·卡普兰(Jared Kaplan)在2020年发表了一篇关于AI的开创性论文,其表明训练数据越多,大型语言模型的表现越好,就像学生通过阅读更多书籍来学习更多知识一样。互联网上公开可用的数据在大模型面前并不是取之不尽的。据人工智能研究机构Epoch估计,2026年所有高质量可用数据就有可能被耗尽,互联网生产数据的速度有可能比不上不断膨胀的大模型的消耗速度。“数据饥渴”的AI公司获取数据的路径,总结起来就是:免费的,直接用;自家的,直接用且不给别人用;可以付费的,付费;付费也买不到的,必要时想想办法弄到手。近日,《纽约时报》报道OpenAI曾在训练GPT-4时利用了Google旗下YouTube的内容。直接取用肯定不行,Google不让啊。于是OpenAI计上心头,创建了一个名为Whisper的语音识别工具,将超过100万小时的YouTube视频转录,然后再喂给模型。此前,尚未开放给大众的文本到视频工具Sora也引起了外界怀疑。在一次采访中,OpenAI的首席技术官米拉·穆拉蒂(Mira Murati)没有正面回应“是否使用YouTube、Instagram、Facebook等平台的内容训练Sora”这一问题,她听到该问题时复杂的表情甚至成为了互联网梗图。YouTube首席执行官尼尔·莫汉(Neal Mohan)在4月5日对此表态,称目前没有证据表明OpenAI用了YouTube视频训练Sora,但如果OpenAI果真这么做了,那“明显违反”了YouTube平台的使用条款。要是以为YouTube是在努力保护用户(或说创作者),可能有点天真。莫汉在采访中也提到,Google确实用了YouTube上的一些内容训练了旗下大模型Gemini。另一边,巨头Meta的马克·扎克伯格(Mark Zuckerberg)也将平台数据视为自己的竞争优势。扎克伯格曾直言:“我们战术的下一个关键部分是从独特的数据中学习。”“在Facebook和Instagram上,有数千亿张公开分享的图片和数百亿段公开视频。”在去年怒喷微软,威胁要起诉其使用X的数据训练AI的埃隆·马斯克(Elon Musk),也悄悄更新了X的隐私政策,表示会使用社交媒体数据来训练机器学习和AI模型。在网友的追问下,马斯克干脆承认:“只会用公开信息(训练),不会用私信和任何私人数据。”有海量UGC(用户生成内容)且自己也做AI的公司,数据是不卖的,只给自己用。其他AI公司要么就铤而走险偷偷用,要么就要去找那些有内容但愿意出售的公司。ShutterStock和Reddit都是活跃在数据交易场上的“大卖家”。图片网站ShutterStock几乎和所有叫得上名字的AI大公司都合作了个遍,包括但不限于OpenAI、Meta、Google、亚马逊,达成使用其图片训练AI的协议。每笔交易的最初价格从2000万美元到5000万美元不等,而且后续还扩大了交易规模。随着AI浪潮翻涌,“美国贴吧”Reddit意识到自己的数据对AI公司至关重要,且非常宝贵。去年开始,Reddit开始与一系列AIGC领军企业展开谈判,商议数据付费使用的问题。说白了就是,不付费要授权,休想用这一头部美国贴吧的内容喂AI了。谈判陆续有了进展,如今年2月,Reddit就与Google达成协议,授权数据给其训练AI,合同价值约每年6000万美元。在这样的态势下,Photobucket这样的老牌社区被盯上只是时间问题。Photobucket的首席执行官泰德·伦纳德(Ted Leonard)表示,他正在和多家科技公司谈判,涉及130亿个内容(照片和视频)的授权。每张照片的授权价格在5美分到1美元,视频则为1美元以上。一位买家告诉伦纳德,他们想要超过10亿个视频,比Photobucket拥有的还多。以现在的谈判来看,Photobucket坐拥数十亿美元的内容。机智的Photoshop在去年10月更新了其用户条款,授予平台“不受限制的权利”,可以出售任何上传的内容,用于培训AI系统。伦纳德甚至表示,有望用数据授权替代公司的广告销售业务。繁忙的数据交易市场,也许给式微甚至已经死亡的UGC平台提供了一个“副业”。天涯究竟积累了多少内容不可知,几个数据可以从侧面一窥其规模。巅峰时期,天涯的日访问量曾达到200... PC版: 手机版:

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人