ChatGPT 目前英翻汉的水平,还是有不少错误,或者说这个模型根本不知道什么是正确,什么是错误。

ChatGPT目前英翻汉的水平,还是有不少错误,或者说这个模型根本不知道什么是正确,什么是错误。可比国内中信、天津之类的出版社,要好上不少。比如罗伯特的《故事》,这本这么好的书,翻译的是什么垃圾,我读了几次简体,读不下去,最后没办法是读的台湾繁体。最起码ChatGPT或者Deepl现在的翻译,没有让我读不在去的地方。更重要的是便宜,一本18万字书,翻译差不多3个小时,2美元。

相关推荐

封面图片

隐私保护是什么?或者说防御是什么?是懦弱吗?是被动?

隐私保护是什么?或者说防御是什么?是懦弱吗?是被动?并不是。如果你能在不自由的世界里为自己和同道营造一片自由空间,你活着这件事本身,就是反抗。这是一个分为多部分的系列文章,其中每个部分都包含独特的信息,所有这些信息都指向一个共同的主题:争取自由的运动中的自我保护。您肯定理解这是什么意思。其中所有链接都很重要,它们是具体的操作方法和详细的分析。《变得难以被追踪的简单方法(1)》https://www.iyouport.org/%e5%9c%a8%e4%b8%8d%e8%87%aa%e7%94%b1%e4%b8%ad%e5%88%9b%e9%80%a0%e8%87%aa%e5%b7%b1%e7%9a%84%e8%87%aa%e7%94%b1%ef%bc%9a%e5%8f%98%e5%be%97%e9%9a%be%e4%bb%a5%e8%a2%ab%e8%bf%bd%e8%b8%aa%e7%9a%84%e7%ae%80/

封面图片

ChatGPT 和樊登

ChatGPT和樊登如果一个人一年能读100本书,活到100岁,去掉10岁一下识字都比较难,那其实也就能读9000本书。美国一年出版新书30万本,还不谈已经出版的经典。书是绝对读不完,就算自己感兴趣的几个领域,都读不完。当意识到书这辈子都读不完,现在有一个更高效的读书方式,大家会不会用,一定会,重要的是如何用。ChatGPT通过学习书籍,让人可以和书对话,是大大提高人读书的效率,之后就是下载大量的书籍,然后大量的检索就可以。那这和樊登、罗振宇的区别在哪里?或者说,ChatGPT会不会让樊登失业?ChatGPT好处是不是人,对,就因为不是人,没有人的主观色彩,不会因为书里的哪个点,可能用户更感兴趣这样的思考。它可以更加客观地分析一本书,还可以通过不断检索和提问,找到自己想要的页数。之前的人不通过这样的方式读书是因为没有,而不是因为他们不愿意。可能之后读书就像读论文一样,从自己有个问题出发,先搜索相关书籍,然后检索书中想要的内容。读整本书的人,之后大概会越来越少吧?

封面图片

如果你想使用 ChatGPT,或者已经在日常的生活和工作中使用 ChatGPT,推荐@JimmyWang 看看翻译+整理的 Ch

如果你想使用ChatGPT,或者已经在日常的生活和工作中使用ChatGPT,推荐@JimmyWang看看翻译+整理的ChatGPT使用指南链接:https://learningprompt.wiki/docs/%F0%9F%91%8B%20WelcomeChatGPT其实不用prompt库,它对语义的理解很到位,只需要掌握框架,按照自己的需求输入通常的语言,即可使用。我在使用指南中学到的两个prompt的框架①ElavisSaravia总结的框架:-Instruction(必须):指令,即你希望模型执行的具体任务。-Context(选填):背景信息,或者说是上下文信息,这可以引导模型做出更好的反应。-InputData(选填):输入数据,告知模型需要处理的数据。-OutputIndicator(选填):输出指示器,告知模型我们要输出的类型或格式。https://github.com/dair-ai/Prompt-Engineering-Guide/blob/main/guides/prompts-intro.md②MattNigh总结的CRISPE框架:另一个我觉得很不错的Framework是MattNigh的CRISPEFramework,这个framework更加复杂,但完备性会比较高,比较适合用于编写prompt模板。CRISPE分别代表以下含义:-CR:CapacityandRole(能力与角色)。你希望ChatGPT扮演怎样的角色。-I:Insight(洞察力),背景信息和上下文(坦率说来我觉得用Context更好)。-S:Statement(指令),你希望ChatGPT做什么。-P:Personality(个性),你希望ChatGPT以什么风格或方式回答你。-E:Experiment(尝试),要求ChatGPT为你提供多个答案。https://github.com/mattnigh/ChatGPT3-Free-Prompt-List内容整理自ElvisSaravia的github

封面图片

只要有钱就能有第二家 ChatGPT 吗?

只要有钱就能有第二家ChatGPT吗?国内某个大V说:中国做出第二个ChatGPT的难度,就像第二个发现新大陆。意思就是第一个人是哥伦布,他有着巨多的不确定性,但当哥伦布发现了,之后的人就有了确定性,意思是想表达ChatGPT是第一个,之后投资就是确定性,只需要不断投资就可以。这个逻辑是有问题,请问原子弹现在有几个国家有?光刻机是否有举全国之力?航天飞船回收技术呢?说ChatGPT就是不断投资就一定有,意思就是有淘宝就有京东,有京东就有拼多多,但无论怎么样都要解释一下为什么ChatGPT不是那三种极端情况,而不是用一个不恰当的比方,认为这是一件投资钱就可以做到的事情。我这里还想举个例子——翻译。百度的文心一言画图的效果大家都有看见,很明显就是StableDiffusion做个套壳子,然后再嵌入自家的百度翻译,怎么说呢,就是垃圾。之前很多人担心,要是开源被国内公司抄了怎么看,大家也能看见什么效果,不用担心。翻译一直以来就是有明确需求,现在翻译准确度最好的公司应该是Deepl,为什么国内公司不努力把翻译做好?最起码在这个时候,不用那么尴尬。美国对中国禁售高端显卡,中国又没有自研的显卡可以使用,之后英伟达会源源不断地给ChatGPT输送高端显卡,而中国公司天天想着先买显卡再说吧。一边更好的显卡,更强的算力,一边算力不够,哪里来的勇气说中国只要不断投资就能造出第二个ChatGPT?

封面图片

苹果联合创始人:ChatGPT不懂人性 可能犯下可怕错误

苹果联合创始人:ChatGPT不懂人性可能犯下可怕错误在获得广泛赞誉的同时,它也引发了一些质疑。苹果公司联合创始人沃兹尼亚克日前在接受媒体采访时就表示,ChatGPT确实令人印象深刻,对人类非常有用。但同时,沃兹尼亚克又称,它也可能犯下严重的错误,他说:“问题是,在为我们做好事的同时,它也可能犯下可怕的错误,因为它不懂得人性。”沃兹尼亚克还将ChatGPT的这种潜在危害,与自动驾驶汽车的人工智能技术相提并论。他说,人工智能目前无法取代人类司机。沃兹尼亚克:“这就像你在驾驶一辆汽车,你知道其他汽车可能会做什么,因为你了解人类。”OpenAICEO萨姆·阿尔特曼(SamAltman)也承认,ChatGPT存在“偏见方面的缺陷”,有时它可能会给出有偏见的回应,包括种族主义和性别歧视等。当然,这不仅仅是ChatGPT的个人问题。本月早些时候,谷歌的同类产品Bard在回答有关韦伯太空望远镜的问题上出现失误,导致谷歌市值单日蒸发逾1000亿美元。尽管人们对这项技术持怀疑态度,但ChatGPT已经变得越来越受欢迎。最近,ChatGPT的开发者OpenAI获得了微软100约亿美元的投资,后者计划将OpenAI的人工智能引入必应搜索引擎和Office等产品。...PC版:https://www.cnbeta.com.tw/articles/soft/1344135.htm手机版:https://m.cnbeta.com.tw/view/1344135.htm

封面图片

饶毅嘲笑中美防疫专家都不懂分子生物学,要给他们科普什么是病毒,其实他那篇“科普”正确的部分不出高中生物范围,错误部分不出本科生物

饶毅嘲笑中美防疫专家都不懂分子生物学,要给他们科普什么是病毒,其实他那篇“科普”正确的部分不出高中生物范围,错误部分不出本科生物范围,并不涉及高深的分子生物学知识。他无自知之明要给人科普,反而再次暴露他缺乏生物学基础。基础不扎实,靠读文献是弥补不了的,因为读不太懂,歪曲原意。何况饶毅极可能没读过任何病毒进化论文献,才会把“毒性减弱趋势”当成外行看法,不知那曾经是进化生物学公认的定律,到上世纪80年代才遭到挑战,认为会有例外,修改为“毒性理论”。饶毅给北大本科生写的普通生物学讲义我看过一点,同样充满基础太差导致的错误,他是最不适合写基础教材的,还是无自知之明

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人