【CDTV】歪脑 | 党媒姓党”的新时代, 局内媒体人这样说

在中国大陆做新闻是不幸的,要经历各种严苛的审查,但也是幸运的,在和审查打交道的过程中打量这个国家,也记录这个时代。

相关推荐

封面图片

中国官媒批宝格丽致歉:两头通吃的赌徒心理

中国官媒批宝格丽致歉:两头通吃的赌徒心理因官网被指标注台湾前面未加“中国”,奢侈珠宝品牌宝格丽星期二(7月11日)晚在官方微博道歉称,上述问题是因管理疏忽,已立即纠正。中国官媒《人民日报》星期三(7月12日)发表评论文章指宝格丽上述道歉诚意不够,并认为这样的政治冒险源于傲慢及两头通吃的赌徒心理。文章指出,此番道歉不是出自宝格丽集团,而是宝格丽中国,从盖章看是宝格丽商业(上海)有限公司,道歉诚意因此受到质疑。而海外官网上因管理疏忽发生的店铺地址标识误注不是一天两天的事,被中国网民揪住了才忙不迭地称尊重中国主权和领土完整,也缺乏诚意。文章追问,不少奢侈品品牌公司在这方面都犯过错误,都有过教训,为何后来者不汲取教训?为何被盯住了下不了台才装模作样道个歉?如果稍有警觉,稍微尊重中国主权和领土完整,就不会重蹈覆辙,起码不会被挖出来了才想起来道歉。文章分析认为,问题出在相关奢侈品品牌公司并没有真正把台湾当成中华人民共和国的一部分,而是想当然地认为台湾就是国家。还有一种情况是,他们这种政治冒险源于傲慢,也源自两头通吃的赌徒心理。文章引述宝格丽道歉声明说,“正联动第三方国际服务商确保正确标示海外官网上的相关国家和地区”,指出这种做法当然有必要,但不是终点,“台湾是中国的”应成为集团上下的共识,但凡与中国打交道者都应该深化这种认知。文章最后强调,宝格丽不能一边赚着中国人的钱,一边伤害中国的利益。但愿宝格丽此次真正被敲醒,也期待其他奢侈品品牌公司别犯这种错误。有网民星期二指出,宝格丽在官网的店铺分布信息中,台湾前并未加“中国”二字。宝格丽当晚在官方微博道歉称。《人民日报》星期三稍早时也发表微评称,宝格丽的道歉难以服众,并质问这个道歉是否“专供”中国大陆?

封面图片

美媒:别被AI的智能吓到 真正可怕之处是它被高估被滥用

美媒:别被AI的智能吓到真正可怕之处是它被高估被滥用但是在上周,针对这股AI热潮的反弹开始出现。特斯拉、推特首席执行官埃隆·马斯克(ElonMusk)为首的数千名技术专家和学者签署了一封公开信,警告“人类面临的严重风险”,并呼吁暂停AI语言模型的开发六个月。与此同时,一家AI研究非营利组织提出申诉,要求美国联邦贸易委员会(FTC)调查ChatGPT的创建公司OpenAI,并停止其GPT-4软件的进一步商业化发布。意大利监管机构也采取行动,以数据隐私侵犯为由,彻底封杀了ChatGPT。有人呼吁暂停或放缓AI研究,或许这是可以理解的。几年前看起来不可思议甚至深不可测的AI应用程序现在正在迅速渗透到社交媒体、学校、工作场所甚至政治领域。面对这种令人眼花缭乱的变化,一些人发出了悲观预测,认为AI最终可能导致人类文明消亡。好消息是,对全能AI的炒作和恐惧可能被夸大了。虽然谷歌的Bard和微软的必应给人留下深刻印象,但它们和成为“天网”相差还很远。坏消息是,人们对AI快速进化的担忧已经成为现实。这不是因为AI将变得比人类聪明,而是因为人类已经在利用AI,以现有组织没有准备好的方式来压制、剥削和欺骗彼此。此外,人们认为AI越强大,他们和企业就越有可能将其无法胜任的任务委托给它。除了那些令人悲观的末日预言之外,我们可以从上周发布的两份报告初步了解AI对可预见未来的影响。第一份报告由美国投行高盛发布,主要评估AI对经济和劳动力市场的影响;第二份报告由欧洲刑警组织发表,主要讲述AI可能被刑事滥用的情况。从经济角度来看,最新的AI潮流主要是将曾经只能由人类完成的任务自动化。就像动力织布机、机械化装配线和自动取款机一样,AIGC有望以比人类更便宜、更高效的方式完成某些类型的工作。但是,更便宜、更高效并不总是意味着更好,任何与杂货店自助结账机、自动电话应答系统或客户服务聊天机器人打交道的人都可以证明这一点。与之前的自动化浪潮不同,AIGC能够模仿人类,甚至在某些情况下冒充人类。这既可能导致广泛的欺骗,也可能诱使雇主认为AI可以取代人类员工,即使事实并非如此。高盛的研究分析估计,AIGC将改变全球约三亿个工作岗位,导致数千万人失业,但也会促进显著的经济增长。然而,高盛的评估数字也不一定准确,毕竟他们曾经有过预测失误的历史。在2016年,该行曾预测虚拟现实头戴设备可能会变得像智能手机一样普及。在高盛的AI分析报告中,最有趣的是他们对各个行业进行了细分,即哪些工作可能被语言模型增强,哪些工作可能被完全取代。高盛的研究人员将白领任务的难度分为1到7级,其中“审查表格的完整性”为1级,可能被自动化的任务为4级,“在法庭上就一项复杂的动议做出裁决”为6级。据此得出的结论是,行政支持和律师助理工作最有可能被AI取代,而管理和软件开发等职业的生产效率将会提高。该报告乐观地预测,随着企业从掌握AI技能的员工那里获得更多好处,这一代AI最终可能会使全球GDP增长7%。但高盛也预计,在这个过程中,大约7%的美国人会发现他们的职业会被淘汰,更多的人将不得不学习这项技术以维持就业。换句话说,即使AIGC带来了更积极影响,其结果也可能导致大批员工失业,办公室和日常生活中的人类将逐渐被机器人取代。与此同时,已经有许多公司急于走捷径,以至于将AI无法处理的任务自动化,比如科技网站CNET自动生成错误百出的财经文章。当AI出现问题时,已经被边缘化的群体可能会受到更大的影响。尽管ChatGPT及其同类产品令人兴奋,但当今大型语言模型的开发商还没有解决数据集存在偏见的问题,这些数据集已经将种族歧视偏见嵌入到人脸识别和犯罪风险评估算法等AI应用中。上周,一名黑人男子再次因为面部识别匹配失误而被错误监禁。更令人担忧的是,AIGC有些情况下可能会被用于故意伤害。欧洲刑警组织的报告详细说明了AIGC如何被用于帮助人们实施犯罪,比如进行欺诈和网络攻击等。举例来说,聊天机器人能够生成特定风格的语言,甚至模仿某些人的声音,这可能使其成为钓鱼诈骗的有力工具。语言模型在编写软件脚本方面的优势可能会使恶意代码的生成大众化。它们能够提供个性化、情境化、循序渐进的建议,对于那些想要闯入民宅、勒索某人或制造管状炸弹的罪犯来说,它们可以成为万能指南。我们已经看到合成图像如何在社交媒体上散布虚假叙事,再次引发人们对深度造假可能扭曲竞选活动的担忧。值得注意的是,使语言模型容易受到滥用的原因不仅仅是它们拥有广泛的智慧,还有它们在知识方面存在根本缺陷。当前领先的聊天机器人经过训练后,当检测到有人试图将它们用于邪恶目的时会保持沉默。但正如欧洲刑警组织指出的那样,“只有在模型理解它在做什么的情况下,防止ChatGPT提供潜在恶意代码的安全措施才有效。”正如大量记录在案的技巧和漏洞所表明的那样,自我意识仍然是这项技术的弱点之一。考虑到所有这些风险,你不必担心世界末日的场景,就会看到AIGC的发展步伐放慢,让社会有更多时间来适应。OpenAI本身是作为非营利性组织成立的,前提是AI可以采用更加负责任的方式构建,而不会有实现季度收益目标的压力。但OpenAI现在正在一场势均力敌的竞赛中领先,科技巨头正在裁减他们的AI伦理学家,而且无论如何,这匹马可能已经离开了马厩。正如学术AI专家萨亚什·卡普尔(SayashKapoor)和阿尔文德·纳拉亚南(ArvindNarayanan)所指出的那样,现在语言模型创新的主要驱动力不是推动越来越大的模型,而是将我们拥有的模型集成到各种应用和工具中。他们认为,监管机构应该从产品安全和消费者保护的角度来看待AI工具,而不是试图像遏制核武器一样遏制AI。也许短期内最重要的是让技术专家、商业领袖和监管机构抛开恐慌和炒作,更加深入地理解AIGC的优点和缺点,从而在采用它时更加谨慎。如果AI继续发挥作用,无论发生什么,它的影响都将是颠覆性的。但过高估计其能力将使其危害更大,而不是更小。...PC版:https://www.cnbeta.com.tw/articles/soft/1353095.htm手机版:https://m.cnbeta.com.tw/view/1353095.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人