在 ChatGPT 的教导下,我今天又学会了用VBA批量导入数据和表格到PPT中。不得不说,ChatGPT真是个好老师!!!!

在ChatGPT的教导下,我今天又学会了用VBA批量导入数据和表格到PPT中。不得不说,ChatGPT真是个好老师!!!!如果你每周都在做着固定格式的日报周报PPT,我真的很建议你试一试跟GPT聊聊你的需求。另外我还学到了一个很重要的知识点:想定位PPT中的元素,其实不一定用到上周提到的隐藏坐标轴(https://web.okjike.com/originalPost/648061fae6d50309fb0a7722),甚至连占位符都不需要,你只需要——在第一页排好版,然后让VBA直接复制第一页就行……………………然后整个代码逻辑就是让VBA看图填空即可。

相关推荐

封面图片

这几天的学习成果,在 ChatGPT 的指导下,我终于学会用 VBA 写PPT的页面布局,以及批量生成了,成功帮客户解决了几千页

这几天的学习成果,在ChatGPT的指导下,我终于学会用VBA写PPT的页面布局,以及批量生成了,成功帮客户解决了几千页人工复制粘贴截图的需求(图1的数据已脱敏)虽然这个案例未必适用于所有人,但我想分享两个可能对你有用的经验,能帮助你很好地下需求。经验一,PPT其实有一个隐藏的坐标轴,见图2。有了这个坐标轴,你就能非常精确地和GPT确定每个设计元素的位置了,否则GPT会自由乱排。而坐标轴对应的参数叫coordinates,你可以通过它来描述图片的位置,这也是GPT告诉我的,见图3。通过两者的搭配,我就可以用代码固定所有设计元素的位置了。经验二,尽可能用参数来下需求,这样GPT更能听懂。我一开始也是什么参数都不懂。但其实每次GPT生成代码的时候,都像保姆一样加上备注,哪个参数控制什么写得非常清楚,它真的在努力地教会我……图4是我第一次给GPT下的图片定位指令;图5是我现在给GPT下的指令。妈的,我真的学会了。

封面图片

零基础让 ChatGPT 帮你做PPT:

零基础让ChatGPT帮你做PPT:1⃣把你的需求描述给ChatGPT,让它写一段vba,需求越清晰越好,见图2(需求都说不明白还不如自己做快)2⃣打开PPT,在自定义功能区启用【开发者工具】,见图33⃣在开发者工具里点击VisualBasic,新建一个模块把代码粘进去,点击运行就搞定,见图4︎︎出现问题的时候模仿甲方口吻反馈即可,但一定要指出具体的错误。常见问题1:运行的时候报错,直接反馈给AI改就行,见图5常见问题2:由于免费版经常掉线,刷新一下页面让AI继续写就行,见图6

封面图片

ChatGPT迅速学会下棋精髓 把人类给整不会了

ChatGPT迅速学会下棋精髓把人类给整不会了△奇怪的王车易位操作事情到这里开始不对劲起来。无论是棋盘上凭空出现的第9个黑兵(国际象棋黑白各只有8个兵):还是突然把斜线上的象吃掉的马:△马本来只能走“日”字简直不把规则放在眼里有木有!这般神奇操作吸引了一大波网友前来围观,有人直呼“这不就是我5岁表弟想赢棋的耍赖操作?”不过也可以说,ChatGPT分分钟学会了人类下棋精髓——耍赖……所以这场神奇的AI国际象棋大战,究竟谁赢了?发明了一套“全新”规则对战虽然只有1分32秒,但ChatGPT却整出了一套船新的规则。其一,可以“隔山打牛”,除了马以外,甚至连皇后、车和象都可以随便越子(跨过某个棋子到它后面去)。其二,不在棋盘上的子(被吃掉或不存在)可以原地复活,甚至当场吃掉对方的子:△死去的皇后突然攻击我有网友调侃,莫非这就是传说中的僵尸战术?其三,所有的子都可以“不按常理出牌”,例如车不仅可以越子,甚至还能走斜线……剧透个结局,ChatGPT最后输了,但依旧是以违反规则的形式——主动送将!有网友看完后调侃,这大概就是Calvinball国际象棋大师吧。(Calvinball,一种不受规则束缚的游戏方式,唯一的规则是“不能使用与上一场游戏相同的规则”)还有网友对ChatGPT的对手表示同情:这哪预判得了?(手动狗头)所以,在这场乱斗中赢过ChatGPT的对手来历如何?充当ChatGPT对手的AI名叫Stockfish,也是个历史悠久的开源国际象棋引擎了。它基于一个叫做NNUE的神经网络开发,于2008年发布,最初结构非常简单,就是一个4层全连接神经网络,配合alpha-beta搜索使用。这些年经过了几次迭代,已经到了第四代NNUE,在架构上进行了一些优化:现在Stockfish也已经迭代到了版本15.1,据说与Stockfish14对战中,胜场数达到败场数的9倍。作为一个经典国际象棋AI,它这些年经常出现在各种新AI论文中,作为下象棋的性能对比。例如DeepMind推出的AlphaZero就拿它做了对比,表示自己的性能比Stockfish更高。即便如此,Stockfish赢人类国际象棋高手还是绰绰有余的。“ChatGPT更适合写个象棋程序”看完比赛后不少人认为,ChatGPT显然不适合下国际象棋。有人试着和ChatGPT下了盘国际象棋,并在它做出错误操作时和它解释规则,每次ChatGPT都会主动道歉,“对不起,我知道了”,但还是坚持做出错误操作:大概这就是ChatGPT版本的“我错了,但我不改”吧(手动狗头)不过也有网友觉得,ChatGPT能下象棋已经很神奇了。它作为一种语言模型,其实擅长的方向不是国际象棋游戏,而更适合去写一套国际象棋引擎。事实上,不久前还真有网友这么做了,让ChatGPT自己用Python编写一套象棋程序。首先让它生成一套棋盘,并打印出来,效果如下:随后,让ChatGPT根据国际象棋规则,制定棋子移动的方法,包括兵、车、马、象、后、王六种。最后,再让ChatGPT生成一个函数,能充当机器人bot和对手进行对战。感兴趣的小伙伴们,可以去试试ChatGPT写的这套引擎,究竟好不好用~那么,你觉得ChatGPT的棋力如何呢?(手动狗头)ChatGPT写的国际象棋程序:https://medium.datadriveninvestor.com/writing-a-chess-program-in-one-hour-with-chatgpt-67e7ec56ba5d...PC版:https://www.cnbeta.com.tw/articles/soft/1346205.htm手机版:https://m.cnbeta.com.tw/view/1346205.htm

封面图片

2023,我们不得不面对ChatGPT引发的混乱

2023,我们不得不面对ChatGPT引发的混乱1月28日,美国“内幕”网站发表文章称,“ChatGPT才出现两个月,就已造成了难以言喻的混乱。”虽然ChatGPT诞生于去年,却有媒体把2023年视为ChatGPT元年。在我看来,这主要想说明,2023年将是人们不得不面对ChatGPT所引发混乱的一年。ChatGPT带来的惊喜与焦虑自诞生伊始,ChatGPT便受到了人们的狂热关注,各国注册者众多,但往往被告知“现在已经满负荷运转”而无法注册。历经月余,我终于在不久前注册成功,随后亲历的一些试验结果既令人惊喜和赞叹,也让我和诸多教育工作者一样感到担忧。我的一个体验是——用英文发出指令,“请写一首包含白雪与树林的(英文)诗歌”。在不到一分钟的时间,ChatGPT就给出了一首近乎完美的英文诗歌。我将其在朋友圈发布后,有许多英文系教授都深感惊喜,并赞叹“水平相当高!写得极好!太神奇了!”当然,ChatGPT的功能远不止于此。据“内幕”报告称,研究人员最近让ChatGPT通过了美国一项极其艰难的考试——美国医疗执照考试。该考试由三部分组成,报告称,ChatGPT“在没有任何培训或强化的情况下,所有三项考试成绩均达到或接近通过门槛”。这一成绩自然得到人们的夸赞。然而在称赞背后,人们应该看到ChatGPT之于学术界的焦虑与恐慌。事实上,在ChatGPT刚刚问世不久,很多人就感受到它给写作带来的巨大威胁。以《大西洋月刊》为例,它在ChatGPT诞生不到10天,便连续发表两篇颇有些耸人听闻的文章,一篇题为《大学中的论文已死》,一篇题为《高中英语的终结》。将两篇文章对照看,不难发现其所论述的是一回事儿,即从中学到大学,人们在语文教育与通识教育中一直训练学生掌握的写作本领已经走入死胡同。正如《大学中的论文已死》中所说,高校中的论文,尤其是本科生论文,长期作为人文教育的核心,是我们教育学生如何研究、思考和写作的方式。但是,人工智能的出现造成了整个传统即将被彻底颠覆的现象。《大学中的论文已死》一文还引述加拿大多伦多大学副教授凯文·布莱恩的话——他对ChatGPT的表现深感震惊,认为如此一来,自己就无法再给学生布置课外作业了。事实上,构建语言技术的工程师和语言教育工作者都没有为这一新生事物的出现及其后果做好准备。学术界仓促应战虽然几年前人们已经在谈人工智能时代的到来,但当ChatGPT如海啸般迎面砸来时,学术界基本上还是属于仓促应战。目前看,最主要的应对措施就是政策封堵、禁止使用或限制性使用。由于学校中已经出现学生使用AI生成的内容冒充个人作业,而人工智能造成的剽窃行为在当下的学术规则中很难得到证明,包括英国、法国、美国在内的诸多教育部门均出台政策,禁止在学校使用ChatGPT。当然,学术界受到的影响更大。1月26日,《科学》主编索普以社论的形式发表题为《ChatGPT很好玩,但不能成为作者》的文章,称在不到两个月的时间里,ChatGPT已经成为一种文化轰动,且对科学界和学术界造成严重影响。ChatGPT对撰写科学论文所带来的影响很令人担忧。他说,人们在最近的一项研究中发现,有大量由ChatGPT创建的论文摘要被提交给学术审稿人,但被发现比例不超过63%。他预计,今后这种由人工智能生成的文本将会更多。索普强调,多年来,《科学》系列期刊的作者会签署一份许可证,证明“该作品是原创的”。对于该刊来说,这足以表明ChatGPT所编写的文本是不可接受的——毕竟它是从ChatGPT中抄袭而来。索普说,我们现在正在更新编辑规则,强调不能在作品中使用由ChatGPT(或任何其他人工智能工具)所生成的文本,数字、图像或图形也不行。他特别强调,人工智能程序不能成为作者。如有违反,将构成科学不端行为,这与窜改图像或抄袭无异。在《科学》发表社论的前两天,《自然》也发表文章指出ChatGPT等工具威胁着科学的透明度,进而宣示该刊使用它们的基本规则,即任何人工智能工具都不会被接受为研究论文的署名作者,因为任何作者都承担着对所发表作品的责任,而人工智能工具无法做到这点。文章同时指出,如果研究人员使用了有关程序,应该在方法或致谢部分加以说明。包括《细胞》《柳叶刀》等在内的诸多科学类期刊也都发布了与此大体一致的规则。高校被迫修改反剽窃条例相比科学界,高校受到的影响更大。1月22日,美国斯坦福大学的《每日斯坦福》发表文章称,根据该报进行的一项非正式民意调查,有大量学生已经在期末考试中使用了ChatGPT。1月28日,《福布斯》发表文章称,“89%的学生承认使用ChatGPT做家庭作业,教育工作者正在与剽窃作斗争”。若想知道问题的严重性,不妨来看看《福布斯》对学生所做的详细调查。其中,48%的学生承认使用ChatGPT进行家庭测试或测验。53%的学生用它写了一篇论文,22%的学生用它写了一篇论文的大纲。72%的大学生认为ChatGPT应在他们的大学网络中被禁用。同时,在对ChatGPT有所了解的大学教授中,有72%的教授担心其用于作弊;超过1/3的教育工作者认为,ChatGPT应该在学校尤其是大学中被禁止,而66%的人支持学生使用它。学生之所以对此趋之若鹜,实在是因为ChatGPT的功能过于强大。根据美国宾夕法尼亚大学沃顿商学院MBA教授泰维奇的说法,ChatGPT在常青藤联盟MBA级别的运营管理考试中的表现能获得“B或B-”的成绩。据《华尔街日报》报道,美国犹他州韦伯州立大学的一位教授要求ChatGPT用他的声音写一条推文。几分钟内,该程序发出了十几条消息。这位教授对此的反应是,“天哪!这是有史以来最伟大的作弊工具。”由此,是否禁止ChatGPT真的成了人们需要面对的一个问题。当然,更多教师在思考该如何在自己的课程、学习指南中去部署阻止作弊的策略,并确保学生学会独立思考。美国一些高校已经将新技术纳入其学术诚信中。华盛顿大学和佛蒙特大学等已经修改了它们的学术诚信策略,将使用ChatGPT等人工智能工具纳入剽窃等学术不端范围。能否拓展使用当然,也有一些教师对ChatGPT的出现与发展持更积极的态度。据报道,宾夕法尼亚大学沃顿商学院副教授莫里克鼓励自己的学生使用ChatGPT。在他看来,“我们已经身处人工智能的世界,那就让我们分享人工智能的成果吧”。需要注意的是,莫里克在接受采访时说:“即使我不要求(他们使用ChatGPT),也可能无法阻止他们(去使用)。”这其中的无奈需要引起我们的关注。莫里克也承认,对于人工智能如何改变课堂评估,自己同样焦虑,但他认为教育工作者要与时俱进。他强调,当年高校曾经教学生如何在一个有计算器的世界里做数学,现在高校面临的挑战是要让学生意识到,世界再次发生变化,我们要教会他们怎样适应这种变化。赞同者中,有人持一个有趣的观点——目前专门校订英语写作中语法问题的人工智能程序Grammarly早已出现,既然人们可以使用它修改自己的语法、语汇等,为什么不能将ChatGPT视为此类程序的一种扩展呢?值得注意的是,近日,《美国高等教育纪事》发布公告,该报将与大学创新联盟主办网络会议,讨论“用于学生的人工智能工具”。该报指出,人工智能已经广泛应用于多个领域,但随着其进入高等教育,如何使其成为以学生为中心的使用工具?高校是否会采用人工智能已经不再是一个问题,现在关注的是如何合乎道德且高效地应用人工智能,改善学生的体验。希望教育领域、学术界和技术专家在此次会议上围绕高教机构如何从...PC版:https://www.cnbeta.com.tw/articles/soft/1342047.htm手机版:https://m.cnbeta.com.tw/view/1342047.htm

封面图片

当ChatGPT学会了写假新闻

当ChatGPT学会了写假新闻原来,这是一场由AI写作引发的乌龙,让人哭笑不得。事后,涉事业主在群里道歉。这件事情也看似了结,却结结实实给我们提了个醒:人工智能制作的假新闻,看起来比那些网友粗制滥造的谣言更像“新闻”,也势必会引发更广泛的传播。其实,我们早就应该明白,无所不能的AI,当然也可以造谣,或者准确地说,也可以被用来造谣,以及无意中形成谣言。近些年,在社交平台的席卷下,人人皆可创作,内容的庞杂与劣质、传播的失真与不确定性,都一再被诟病。现在,不仅用户可以生产内容,AI也可以,信息池也就更加杂乱了。有些时候,谣言的制造者和传播者都是无意识的,他们有的是误以为真,有的是在不确定真假的情况下私自分享,当这两种情形的量足够大时,谣言传播便形成了规模。关于杭州取消限行,有杭州朋友一周前就在群里讨论,期间大家也陆陆续续分享了一些各自看到的信息,其中就包括这份ChatGPT写的“新闻稿”,一开始还有朋友在群里问“消息保熟吗”,回答当然也是不确定的。不确定,就是我们不得不面对的社交媒体时代的信息生态。在最开始分享ChatGPT创作的那个微信群,至少会有“肇事者”的解释,以及内容诞生的来龙去脉,但是被分享到更多群聊、朋友圈、短视频平台后,“新闻稿”就成了孤零零的消息,大众不知道它从何而来、什么时候发出的,只能看见内容本身,然后将信将疑,“且传且围观”。或许有人会说,最后解释清楚不就行了,没必要担心。但问题是,廓清真相需要一个过程,真相覆盖谣言也需要一定的时间。而且,这还只是一个关于限行的假新闻,如果是和股市、投资等商业活动有关呢?市场变幻莫测,必然会受到假新闻的影响,最终给一些投资者、从业者甚至消费者带来损失。科技是一把双刃剑,AI也不例外。我们当然要积极地拥抱新技术、新事物,让它们为人类社会的文明与进步提供助力甚至是动力,但同时也要注意规避潜在的问题和风险,且这个工作有必要尽可能提前。现在,ChatGPT写出了以假乱真的“新闻”,就是一次警告。法律是科技的缰绳,我们要始终确保科技驶入正确的方向。当发明家造出第一辆汽车的时候,我们就应该想到《交通法》,面对AI,同样如此。在可以预见的将来,关于AI的立法,一定会逐渐补位,但我们要对这一事项有充分的预见性,以及行动的迫切性。值得一提的是,被称为全球首部人工智能立法的欧盟《人工智能法案》,将于3月底在欧洲议会进行投票。不久前,马斯克也表示,“AI安全需要立法保护,无论是飞机、汽车还是医疗,任何先进技术都可能威胁人类安全,而AI对于人类来说,则是一个更大的安全隐患。”为AI立法的共识,并不难达成。技术的问题,需要技术化地解决。比如,能否通过程序上的设置,给AI的假设性创作打上“纯属虚构”、且无法抹掉的标签?类似的修补和规范,也有待探索。当我们在为ChatGPT打开的新世界而激动万分时,那一丝冷静,也必不可少。...PC版:https://www.cnbeta.com.tw/articles/soft/1344911.htm手机版:https://m.cnbeta.com.tw/view/1344911.htm

封面图片

Gamma:下一代的 PPT 制作方式。

Gamma:下一代的PPT制作方式。文本转PPT,这里用ChatGPT生成了一段关于ChatGPT介绍的大纲和详细内容的Markdown,然后将这段内容交给Gamma,看它能做出什么样的效果。Gamma的基本功能是完全免费的,而使用AI功能则需要相应的积分(credits),注册赠送400credits。或者直接开通Pro账户(16美元/每月)(还挺贵)。用我的邀请链接注册也会双方各赠送200credits:https://gamma.app/signup?r=5gesmvu4uy95nkg

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人