[Original] 又一个Python脚本在chatGPT帮助下初步完成

最近一直在忙碌着完善一个脚本,是下载订阅号文章的脚本。
其实很早之前就写好了这个脚本的初稿,是从网上找来的一段现成代码修改的,能够简单查询订阅号的文章列表,也尝试通过这个文章列表下载文章,虽然能简单工作但是工作的流程条理还不够清晰,没有想明白应该怎么保存、怎么增量更新、怎么转换格式清理内容……
前一段又一次封号,有些担心不一定什么时候真的这个号没有了,那自己当初写的那么多东西有些可惜。所以原本打算用来下载其他订阅号文章的脚本就成为自己备份文章的工具基础,但原本没有解决的问题需要逐一解决才能满足自己的需要。
好在如今人工智能加成,有各种代码辅助方式可以帮助像我这样代码水平不高的人解决原本难以解决的问题。在尝试过若干种智能插件之后自己选择的是 cursor 代码编辑器,可以直接借助 chatGPT 辅助编程。
先是让 chatGPT 优化了原本的基础代码,转眼代码精简又条理清晰,马上高大上起来,一点不像自己过去写的一看就是初学者的野路子代码。
接下来一步一步通过询问让 chatGPT 写出了循环获取文章列表并且能够增量更新的代码,自动将下载的列表本地化并且记录最后下载的位置信息,每次重新执行都可以从最后的位置继续下载。看着自己搞出来这些代码都要觉得自己就是半个高手了。
然后又生成一段从列表中逐一获取文章内容并保存到本地目录的脚本,提了要求生成可以增量下载的代码。这次规则比较简单,只要判断本地已经有对应文件就不再下载列表文章。
最后利用自己过去的一段 html 转 markdown 的基础代码在 chatGPT 的帮助下稍微优化,解决了文章转档的目标。
现在所有功能运行正常,不知不觉自己订阅号已经有差不多一千一百篇文章,因为下载文章列表持续频繁调用接口造成自己的接口临时被限制无法继续下载,但也已经下载了差不多一千篇的列表并且完成全部文章的页面文件下载,只是暂时还没有全部转换 markdown 文章,还要再检查一下格式中有没有遗漏。
这感觉真的非常美妙,成就感十足。最后说一句,自己当前使用的只是 chatGPT 3.5,如果使用 GPT 4 应该可以达成更强大的水平,个人实现独立大项目开发触手可及。