【总编推荐】曾毓林:蹭热度要自重身份总编说:死者已矣,但凡有同情心、同理心的人,都要照顾生者的感受。https://www.sinchew.com.my/?p=4640135

None

相关推荐

封面图片

但凡有一点同情心,都不会搞这么反人类的设计by匿名投稿

封面图片

但凡有一点同情心,都不会搞这么反人类的设计by匿名投稿吃瓜俱乐部@ChiGuaClub

封面图片

新时代的少年和大人一样没有同情心、共情心

封面图片

马斯克传记作者称其缺乏同情心:有时像个恶魔

马斯克传记作者称其缺乏同情心:有时像个恶魔艾萨克森周一在一档电视节目中说:“我对他作为工程师的身份印象更深刻。我认为他没有一点同情心和情感。”艾萨克森的这一评论并不新鲜。据报道,马斯克有一种直接了当的沟通风格,你并不总是知道这位亿万富翁会有什么期待。作家兼记者阿什利·万斯(AshleeVance)曾出版一本400页的马斯克传记,他对马斯克的评价是:“他对人际关系没有太多同情心,但他对人类有很多同情心。我认为他的情绪与普通人完全不同。”马斯克的同胞兄弟金巴尔·马斯克也曾说过,这位SpaceX和特斯拉CEO是一位商业“专家”,但他的“天赋不是同情他人”。在今年年初的一篇报道中,SpaceX的创始员工之一吉姆·坎特雷尔(JimCantrell)回忆了他与马斯克一起工作的时光。他说:“和埃隆一起工作就像和两个不同的人一起工作:一个是好的埃隆,一个是坏的埃隆,你永远不知道你会得到哪个。”艾萨克森在周一的节目中表示,马斯克的许多错误造就了他。他是一个有动力的人,对他来说不仅仅是为了钱。他还说,他很冲动,脑子里想到什么就会发Twitter。“当你非常接近一个人,就像我过去三年和他在一起一样,你了解那个人,你了解他的动机。他有很多缺点,有一种具有破坏性的恶魔模式。”“然而,当你写传记的时候,问题是你如何抓住那些黑暗的线索,并意识到你不能仅仅是把它们拔出来?如果没有恶魔模式和驱力,他就不会是现在的马斯克。”...PC版:https://www.cnbeta.com.tw/articles/soft/1371577.htm手机版:https://m.cnbeta.com.tw/view/1371577.htm

封面图片

ChatGPT在提供高质量、有同情心的医疗建议方面优于医生

ChatGPT在提供高质量、有同情心的医疗建议方面优于医生这项研究比较了医生和ChatGPT对真实世界健康问题的书面答复。一个有执照的医疗专家小组在79%的情况下更喜欢ChatGPT的回答,并认为ChatGPT的回答质量更高、更有同情心。艾尔斯说:"用人工智能改善医疗保健的机会是巨大的,"他也是加州大学旧金山分校医学院传染病和全球公共卫生处的创新副主任。"人工智能增强的护理是医学的未来。"在这项新的研究中,研究小组着手回答这个问题:ChatGPT能否准确地回应患者发送给医生的问题?如果是的话,人工智能模型可以被整合到卫生系统中,以改善医生对患者所发问题的回应,并减轻医生不断增加的负担。"ChatGPT可能能够通过医学执照考试,"研究报告的共同作者、UCSD奥特曼临床和转化研究所共同主任、UCSD医学院教授戴维-史密斯博士说,"但直接准确和富有同情心地回答病人的问题是一个不同的领域。""COVID-19大流行加速了虚拟医疗的采用,"研究报告的共同作者EricLeas博士补充说,他是高通研究所的成员,也是加州大学圣地亚哥分校赫伯特-沃特海姆公共卫生和人类长寿科学学院的助理教授。"虽然这使患者更容易获得护理,但医生却被大量寻求医疗建议的患者电子信息所困扰,这些信息导致了破纪录的医生职业倦怠。"为了获得大量不同的医疗问题和医生回答的样本,并且不包含可识别的个人信息,该团队转向了社交媒体,在那里有数百万的病人公开发布医疗问题,而医生会做出回应:Reddit的AskDocs。r/AskDocs是一个拥有约452,000名成员的子reddit,他们发布医疗问题,并由经过验证的医疗专业人士提交答案。虽然任何人都可以对问题作出回应,但版主会验证医疗保健专业人士的证书,而回应会显示回应者的证书水平。其结果是一个庞大而多样的病人医疗问题和来自有执照的医疗专业人士的相应答案。虽然有些人可能怀疑社交媒体上的问答交流是否是一个公平的测试,但团队成员指出,这些交流反映了他们的临床经验。该团队从AskDocs中随机抽取了195个交流,其中有一位经过验证的医生回答了一个公共问题。该团队向ChatGPT提供了原始问题,并要求它编写一份答复。一个由三名持证医疗专业人士组成的小组对每个问题和相应的回答进行了评估,并对回答是来自医生还是ChatGPT进行了盲审。他们根据信息质量和同情心来比较答复,并指出他们更喜欢哪一个。医疗保健专业人员评估小组在79%的情况下喜欢ChatGPT的回答而不是医生的回答。圣地亚哥HumanLongevity公司的执业护士、研究报告的合著者JessicaKelley说:"ChatGPT信息的回应细微而准确,往往比医生的回应更能解决病人的问题。"此外,ChatGPT的回答在质量上的评价明显高于医生的回答:ChatGPT的回答质量好或非常好是医生的3.6倍(医生22.1%,ChatGPT78.5%)。这些回答也更有同情心:ChatGPT的同情或非常同情的回答比医生高9.8倍(医生4.6%,ChatGPT45.1%)。加州大学旧金山分校医学院副临床教授、研究报告作者之一亚伦-古德曼博士补充说:"我从未想象过会这么说,但ChatGPT是我想给我的收件箱开的处方。该工具将改变我支持病人的方式"。"虽然我们的研究将ChatGPT与医生对立起来,但最终的解决方案并不是将你的医生完全扔掉,"布林茅尔学院计算机科学助理教授、研究报告的共同作者亚当-波利亚克博士说。"相反,医生利用ChatGPT是更好的、有同情心的护理的答案。""我们的研究是第一批显示人工智能助手如何潜在地解决现实世界的医疗保健提供问题的研究,"加州大学圣地亚哥分校健康部首席医疗官和首席数字官克里斯托弗-隆赫斯特博士说。"这些结果表明,像ChatGPT这样的工具可以有效地起草高质量、个性化的医疗建议,供临床医生审查,我们正在UCSDHealth开始这一过程。"医生-生物信息学家、加州大学圣地亚哥分校奥特曼临床和转化研究所联合主任、加州大学圣地亚哥分校医学院教授、研究报告共同作者MikeHogarth博士补充说:"重要的是,将人工智能助手整合到医疗保健信息中,要在随机对照试验的背景下进行,以判断人工智能助手的使用对医生和患者的结果有何影响。"除了改善工作流程,对人工智能助手信息传递的投资可能会影响病人的健康和医生的表现。约翰霍普金斯大学计算机科学的JohnCMalone副教授和研究报告的共同作者MarkDredze博士指出:"我们可以利用这些技术来训练医生以病人为中心的沟通,消除经常通过信息传递寻求医疗保健的少数民族人口所遭受的健康差异,建立新的医疗安全系统,并通过提供更高质量和更有效的护理来协助医生。"...PC版:https://www.cnbeta.com.tw/articles/soft/1357293.htm手机版:https://m.cnbeta.com.tw/view/1357293.htm

封面图片

中央社义大利拟禁止带动物乞讨防路人同情心遭滥用

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人