我从未学过代码的人,在ChatGPT4的教导下,使用Python和Flask成了我的第一个项目:生词本。(他甚至从0开始教我怎么

我从未学过代码的人,在ChatGPT4的教导下,使用Python和Flask成了我的第一个项目:生词本。(他甚至从0开始教我怎么准备编程的工具,真的我哭死)主体需求是:制作一个按照艾宾浩斯遗忘曲线复习的生词本,即当用户记录了一个单词,这个单词需要在记录后的第1天,第2天,第4天,第7天,第15天展示在【复习单词】的页面,以供复习,一个单词总共复习5次。若用户在【复习单词】的页面,遗忘该单词,则重置复习次数,重新复习5遍。拆解需求的时候,我本来以为功能很简单,毕竟我自己就是产品经理,在实现的时候却也是有一个很好玩的小插曲。在实现过程中我遇到一个BUG,就是当我点击“遗忘”的时候,始终不会出现下一个单词,看代码已经重置了复习次数,而ChatGPT也帮我更改了很多遍代码,始终行不通。我最后想通ChatGPT不会帮你找逻辑上的错误,它只是注重在代码运行。“遗忘”的逻辑,除了重置记忆次数,还需要将“遗忘”的日期更新成该记忆曲线的第一天,这样才能保证这个单词会在后一天出现在复习页面。不然得话,昨天记录的单词,按展示规律它就应该出现在今天复习,无论我点了多少次遗忘,它的逻辑依旧是在今天复习的列表里,因此我点击“下一个”无法下一个。所以当我像ChatGPT提出更新逻辑后,代码运行成功了。最终ChatGPT4帮助我验收,把单词的添加日期默认成昨天了,这样当天填的单词,当天就可以出现在复习页面。这段代码我始终没改。而且在直接实现项目的时候,ChatGPT都给我贴心的标注了哪段代码是干嘛的,以至于我没学过代码,现在我大概也了解一些代码的运行原理,需要函数路由等。我把ChatGPT帮我写的全部上传到Github了,0代码的人搞这个还是很有成就感的。GitHub我也不会用,应该上传成功了吧。https://github.com/CoopyZhou/words.git如果没有成功,再教教我怎么搞吧。所以最后2个问题我需要解惑的:1.我想要开始自学程序,首先怎么去了解程序的基本运行逻辑?我整体做完就是知道flask大概是个框架,Python是实现我功能的函数。我做产品经理的时候就知道有前后端的区分,但是只是有个大概概念,比如前端交互,后端计算储存等。但是我其实连怎么实现运行的环境,需要哪些都不清楚。所以想知道基础知识哪里学习。

相关推荐

封面图片

在 ChatGPT 的教导下,我今天又学会了用VBA批量导入数据和表格到PPT中。不得不说,ChatGPT真是个好老师!!!!

在ChatGPT的教导下,我今天又学会了用VBA批量导入数据和表格到PPT中。不得不说,ChatGPT真是个好老师!!!!如果你每周都在做着固定格式的日报周报PPT,我真的很建议你试一试跟GPT聊聊你的需求。另外我还学到了一个很重要的知识点:想定位PPT中的元素,其实不一定用到上周提到的隐藏坐标轴(https://web.okjike.com/originalPost/648061fae6d50309fb0a7722),甚至连占位符都不需要,你只需要——在第一页排好版,然后让VBA直接复制第一页就行……………………然后整个代码逻辑就是让VBA看图填空即可。

封面图片

谷歌 Bard 现在可以自己编写代码来回答问题

谷歌Bard现在可以自己编写代码来回答问题谷歌表示Bard在逻辑和推理方面越来越好。谷歌说,现在当你问Bard一个计算任务,如数学或字符串操作,Bard不像其它大语言模型一样显示语言模型的输出,而是会写一个程序,并执行该程序,然后向用户显示该程序的输出作为答案。谷歌举例说,对于“请为我逆转Lollipop这个单词”的问题,ChatGPT会通过语言模型给出答案“pillopoL”,这个答案是错误的。而Bard会显示正确的结果,并给出计算的Python代码。当然,谷歌警告说,Bard可能会对你的问题解释错误从而犯错;也有可能编写了错误的程序,就像人类编写程序一样,往往第一遍是带有错误的。消息来源:投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

艾宾浩斯记忆表

名称:艾宾浩斯记忆表描述:根据艾宾浩斯遗忘曲线制作的记忆表,适合用来复习巩固学过的知识,比如背单词网盘里提供一个30天版本(考虫制作)和一个365天版本链接:https://www.aliyundrive.com/s/1SoE76X9UB6大小:271KB标签:#艾宾浩斯遗忘曲线#复习计划来自:雷锋频道:@Aliyundrive_Share_Channel群组:@alyd_g投稿:@AliYunPanBot

封面图片

ChatGPT明知自己写代码有漏洞 但你不问它就不说

ChatGPT明知自己写代码有漏洞但你不问它就不说这意味着它并不知道自己生成了糟糕的代码,但却查得出它写的代码有漏洞,也有能力修复这些漏洞。而在另一篇来自斯坦福的论文中,研究人员测试了另一位著名AI程序员Copilot,也发现了类似的问题。所以,用AI生成代码为啥会出现这种状况?写的程序中76%有安全漏洞研究人员试着让ChatGPT生成了21个程序。整个测试过程如下,先提交需求给ChatGPT,生成相关代码,再对这些代码进行测试,并检查问题、潜在的缺陷和漏洞等。研究人员给ChatGPT提了包括C++、C、Java和Python在内的21个写代码需求,这是评估的结果:统计表明,ChatGPT生成的21个程序中,有17个能直接运行,但其中只有5个程序能勉强通过程序安全评估,不安全代码率达到76%以上。于是,研究人员先试着让ChatGPT“想想自己生成的代码有啥问题”。ChatGPT的回应是“没啥问题”:只要用户每次的输入都是有效的,那么程序一定能运行!显然ChatGPT并没有意识到,用户并不都是行业专家,很可能只需要一个无效输入,就能“引炸”它写的程序:发现ChatGPT不知道自己写的程序不安全后,研究人员尝试换了种思路——用更专业的语言提示ChatGPT,如告诉它这些程序具体存在什么漏洞。神奇的是,在听到这些针对安全漏洞的专业建议后,ChatGPT立刻知道自己的代码存在什么问题,并快速纠正了不少漏洞。经过一番改进后,ChatGPT终于将剩余的16个漏洞程序中的7个改得更安全了。研究人员得出结论认为,ChatGPT并不知道自己的代码中存在安全漏洞,但它却能在生成程序后识别其中的漏洞,并尝试提供解决方案。论文还指出,ChatGPT虽然能准确识别并拒绝“写个攻击代码”这种不道德的需求,然而它自己写的代码却有安全漏洞,这其实有着设计上的不合理之处。我们试了试发现,ChatGPT确实会主动拒绝写攻击性代码的要求:大有一种“我不攻击别人,别人也不会攻击我写的代码”自信感。程序员们在用它辅助写代码的时候,也需要考虑这些问题。Copilot也存在类似问题事实上,不止ChatGPT写的代码存在安全问题。此前,斯坦福大学的研究人员对Copilot也进行过类似调查,只不过他们探查的是用Copilot辅助生成的程序,而并非完全是Copilot自己写的代码。研究发现,即便Copilot只是个“打辅助”的角色,经过它改写的代码中,仍然有40%出现了安全漏洞。而且研究只调查了Copilot生成代码中的一部分,包括C、Python和Verilog三种编程语言写的程序,尚不知道用其他语言编写的程序中,是否还存在更多或更少的安全漏洞。基于此,研究人员得出了如下结论:ChatGPT等AI生成的代码安全性并不稳定,用某些语言写的代码比较安全,而用其他语言写的代码却很容易遭受攻击。整体来看,它们就是一个黑盒子,生成的代码是有风险的。这并不意味着AI代码工具不能用,只是我们在使用时,必须考虑这些代码的安全性。...PC版:https://www.cnbeta.com.tw/articles/soft/1356413.htm手机版:https://m.cnbeta.com.tw/view/1356413.htm

封面图片

苹果前工程师:Siri 的代码过时且复杂,难以赶超 ChatGPT

苹果前工程师:Siri的代码过时且复杂,难以赶超ChatGPT苹果前工程师约翰・伯基(JohnBurkey)曾于2014年受命改进Siri,并于2016年从苹果离职。他说Siri笨拙的设计使得其难以添加新功能。伯基表示,Siri之所以能够回答诸如“今天天气怎么样”或者“你能播放这首歌”等简单问题,都是从存储餐馆位置或音乐家名字等大量单词的数据库中提取信息。他表示,这样一来Siri能响应的请求数量有限,工程师必须向数据库不断添加新的单词来扩展其功能。伯基坦言,苹果Siri的数据库就是“一个大雪球”,添加新单词可能需要长达六周的时间,因为工程师们需要对数据库进行全面修复,如果是整合诸如搜索等类似Chatgpt类似的高级功能甚至可能需要一年左右的时间。伯基说,即使是更新Siri的基本功能也可能需要数周的时间,因为苹果Siri的代码过时且复杂。当下,特别是在OpenAI将大型语言模型升级到GPT-4之后,广受欢迎的人工智能聊天机器人ChatGPT正用让人们热衷的新功能威胁着语音助手技术。苹果Siri团队的员工一直在测试人工智能语言模型,不过目前还没有发布任何产品。苹果公司没有立即回应置评请求。来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

ChatGPT 生成的大部分代码是不安全的

ChatGPT生成的大部分代码是不安全的加拿大魁北克大学的研究人员在arXiv上发表论文,分析了ChatGPT所生成代码的安全性。研究人员表示结果令他们倍感担忧。ChatGPT生成的部分代码甚至达不到最低安全标志,而当你问它时它还知道代码是不安全的。研究人员让ChatGPT使用C、C++、Python和Java四种语言生成了21个程序和脚本。研究人员称,ChatGPT似乎知道它生成的代码是不安全的,但就是不说,除非你问它。ChatGPT拒绝生成攻击性代码,但却会生成有漏洞的代码,这在道德上是不一致的。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人