自动下载以及总结论文神器ChatPaper

AI应用信息3个月前发布 XIAOT
215 0

面对每天海量的arxiv论文,以及AI极速的进化,我们人类必须也要一起进化才能不被淘汰。

作为中科大强化学习方向的博士生,我深感焦虑,现在AI的进化速度,我是连开脑洞都赶不上。

因此我开发了这款ChatPaper,尝试用魔法打败魔法。

ChatPaper根据用户输入的关键词,自动在arxiv上下载最新的论文,再利用ChatGPT3.5的API接口强大的总结能力,将论文总结为固定的格式,以最少的文本,最低的阅读门槛,为大家提供最大信息量,以决定该精读哪些文章。

也可以提供本地的PDF文档地址,直接处理。

祝大家在这个极速变化的时代中,能够和AI一起进化!

这段代码虽然不多,但整个流程走通也花了我近一周的时间,今天分享给大家。

使用步骤:

Windows,mac和Ubuntu系统应该都可以;

python版本最好是3.9,其他版本应该也没啥问题

1. 在apikey.ini中填入你的OpenAI key。注意,这个代码纯本地项目,你的key很安全!

2. 使用过程要保证XXXX!

3. 安装依赖:最好XX,或者用国内源。

“` bash

pip install -r requirements.txt

“`

4. 运行chat_paper.py, 比如:

“`python

python chat_paper.py –query “ChatGPT robot” –filter_keys “chatGPT robot” –max_results 1

“`

5. 参数介绍:

“`

[–pdf_path 是否直接读取本地的pdf文档?如果不设置的话,直接从arxiv上搜索并且下载]

[–query 向arxiv网站搜索的关键词,有一些缩写示范:all, ti(title), au(author),一个query示例:all: ChatGPT robot]

[–key_word 你感兴趣领域的关键词,重要性不高]

[–filter_keys 你需要在摘要文本中搜索的关键词,必须保证每个词都出现,才算是你的目标论文]

[–max_results 每次搜索的最大文章数,经过上面的筛选,才是你的目标论文数,chat只总结筛选后的论文]

[–sort arxiv的排序方式,默认是相关性,也可以是时间,arxiv.SortCriterion.LastUpdatedDate 或者 arxiv.SortCriterion.Relevance, 别加引号]

[–save_image 是否存图片,如果你没注册gitee的图床的话,默认为false]

[–file_format 文件保存格式,默认是markdown的md格式,也可以是txt]

    © 版权声明

    相关文章

    暂无评论

    暂无评论...