Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

输出的总结和搜索的文章无关 #109

Open
mikanseialien opened this issue Mar 27, 2023 · 12 comments
Open

输出的总结和搜索的文章无关 #109

mikanseialien opened this issue Mar 27, 2023 · 12 comments

Comments

@mikanseialien
Copy link

搜索的三篇文章都是粒子物理的输出的却是机器学习的

`PS D:\Users\1234\Downloads\ChatPaper-main\ChatPaper-main> python chat_paper.py --query "Lambda" --filter_keys "Lambda" --max_results 3
Key word: reinforcement learning
Query: Lambda
Sort: SortCriterion.Relevance
all search:
0 $Λ\barΛ$ final-state interaction in the reactions $e^+e^-\to φΛ\bar Λ$ and $e^+e^- \to ηΛ\bar Λ$ 2023-03-09 09:24:22+00:00
1 A dendrite generated from {0,1}^Λ, CardΛ\succ \aleph 2014-02-15 13:40:30+00:00
2 Faddeev calculations for the A=5,6 Lambda-Lambda hypernuclei 2003-03-12 07:11:44+00:00
filter_keys: Lambda
筛选后剩下的论文数量:
filter_results: 3
filter_papers:
0 $Λ\barΛ$ final-state interaction in the reactions $e^+e^-\to φΛ\bar Λ$ and $e^+e^- \to ηΛ\bar Λ$ 2023-03-09 09:24:22+00:00
1 A dendrite generated from {0,1}^Λ, CardΛ\succ \aleph 2014-02-15 13:40:30+00:00
2 Faddeev calculations for the A=5,6 Lambda-Lambda hypernuclei 2003-03-12 07:11:44+00:00
All_paper: 3
paper_path: ./pdf_files/Lambda-2023-03-27-09$Λ_barΛ$ final-state interaction in the reactions $e^+e^-_to φΛ_bar Λ$ and $e^+e^- _to ηΛ_bar Λ$.pdf
section_page_dict {'Abstract': 0, 'Introduction': 0, 'Results': 2, 'References': 6}
0 Abstract 0
1 Introduction 0
start_page, end_page: 0 2
2 Results 2
start_page, end_page: 2 6
3 References 6
start_page, end_page: 6 8
paper_path: ./pdf_files/Lambda-2023-03-27-09\A dendrite generated from {0,1}^Λ, CardΛ_succ _aleph.pdf
section_page_dict {'Abstract': 0, 'Introduction': 0, 'Conclusion': 2}
0 Abstract 0
1 Introduction 0
start_page, end_page: 0 2
2 Conclusion 2
start_page, end_page: 2 5
paper_path: ./pdf_files/Lambda-2023-03-27-09\Faddeev calculations for the A=5,6 Lambda-Lambda hypernuclei.pdf
section_page_dict {'Abstract': 0, 'Introduction': 1, 'Methodology': 1, 'Discussion': 4, 'Results and Discussion': 4, 'References': 10}
0 Abstract 0
1 Introduction 1
start_page, end_page: 1 1
2 Methodology 1
start_page, end_page: 1 4
3 Discussion 4
start_page, end_page: 4 4
4 Results and Discussion 4
start_page, end_page: 4 10
5 References 10
start_page, end_page: 10 15
summary_result:

  1. Title: Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images in the Wild.

  2. Authors: Shangzhe Wu, Christian Rupprecht, Andrea Vedaldi, Andrew Zisserman

  3. Affiliation: 中第四个作者的机构: Department of Engineering Science, University of Oxford, UK.

  4. Keywords: Unsupervised Learning, Deformable 3D Objects, Symmetry, Deep Learning, Convolutional Neural Networks.

  5. Urls:

  1. Summary:
  • (1):本文主题是关于使用深度学习的无监督学习方法,从野外环境的图像中学习可变形三维物体的对称性。

  • (2):过去的方法仅在有限的三维物体上使用,因此不适用于复杂或大小不一的数据集。作者针对此问题提出了无监督的方法,该方法可以在没有人工注释的情况下推断出对称性和可变形信息,并能够很好地推广到新的数据集上。该方法还可以越来越多地处理具有不同刚度和形状的变形物体,例如可被人类持续变形的软物体。

  • (3):本文中作者展示了一个新的基于卷积神经网络的无监督学习方法,该方法使用对称性处理层来学习三维物体的对称性和可变形信息。

  • (4):作者的方法在不需要手动注释或准备三维网格的情况下从大规模的、具有变形和对称性的三维物体图像数据中学习的表示高效地推断出三维物体的对称性和可变形信息,以实现对物体进行分割和处理。实验结果证明了作者提出的方法,在各种大小、形状和可变形物体的无监督学习方面都取得了很好的效果,从而显着提高了三维物体的处理效率和准确性。
    prompt_token_used: 3311 completion_token_used: 560 total_token_used: 3871
    response_time: 28.887 s
    conclusion_result:

  1. Conclusion:
  • (1): 本研究的意义在于提出了一种使用深度学习进行无监督学习的方法,能够从多样的野外环境图片中学习三维物体的对称性和可变 形信息。此方法能够很好地推广到新的数据集中,使得三维物体的处理效率和准确性都得到显著提高。

  • (2): 创新点: 本文提出的无监督学习方法是首次将对称性处理层应用于学习三维物体的对称性和可变形信息。这一创新点能够解决现 有方法只适用于有限的三维物体,对于复杂或大小不一的数据集效果不佳的问题。 此外,本方法能够很好地推广到新的数据集中,处理 不同刚度和形状的变形物体,例如可被人类持续变形的软物体。

性能: 作者提出的方法在不需要手动注释或准备三维网格的情况下,从大规模的、具有变形和对称性的三维物体图像数据中学习的表示高效地推断出三维物体的对称性和可变形信息。实验结果证明在无监督学习方面能够取得很好的效果,显著提高了三维物体的处理效率和准确性。

工作量: 尽管本研究提出的方法能够在无需人工注释的情况下推断出对称性和可变形信息,但仍需要大量的三维物体图像数据进行训练,因此对于数据集的收集和处理仍需要相当的工作量。
prompt_token_used: 857 completion_token_used: 497 total_token_used: 1354
response_time: 24.768 s
summary_result:`

@kaixindelele
Copy link
Owner

好奇怪啊,它总结的论文和url是对应的,但为什么和下载的不一样呢?感觉应该是文档读取读错了

@stanwsh
Copy link

stanwsh commented Mar 27, 2023

情况相同,不过我是读取本地的文件夹,同一篇文献执行多次都是和原文不相关的结果。
执行:python chat_paper.py --pdf_path "pdfs"
输出如下:
Key word: reinforcement learning
Query: all: ChatGPT robot
Sort: SortCriterion.Relevance
root: pdfs dirs: [] files: ['emn.pdf']
max_font_sizes [10.25, 11.0, 11.0, 11.0, 11.0, 11.0, 11.0, 11.0, 18.0, 26.0]
section_page_dict {'Results': 1, 'Discussion': 6, 'Methods': 7, 'References': 8}
0 Results 1
start_page, end_page: 1 6
1 Discussion 6
start_page, end_page: 6 7
2 Methods 7
start_page, end_page: 7 8
3 References 8
start_page, end_page: 8 10
------------------paper_num: 1------------------
0 emn.pdf
summary_result:

  1. Title: Knowledge-Enhanced Medical Named Entity Recognition with Short Text (机器学习相关的文章)

@luashiping
Copy link

我也碰到了,有些文章输出的结论和文章不一致的情况,我在chat_paper.py的第110行这里改成paper = Paper(path=paper_path)就可以了。但是有些文章改了这个之后又会出现不一致的情况

@luashiping
Copy link

luashiping commented Mar 29, 2023

https://arxiv.org/abs/1808.09772v2 这篇论文我这样改了下好了

def summary_with_chat(self, paper_list):
    htmls = []
    for paper_index, paper in enumerate(paper_list):
        # 第一步先用title,abs,和introduction进行总结。
        text = ''
        text += 'Title:' + paper.title + "\n"
        text += 'Url:' + paper.url + "\n"
        text += 'Abstrat:' + paper.abs + "\n"
        text += 'Paper_info:' + paper.section_text_dict['paper_info'] + "\n"

我在相应的字段后面加了个换行,就可以了

@CodefromJiangHu
Copy link

读取本地pdf,得出的结果是机器学习相关的论文;

@eddy131415
Copy link

读取本地pdf,得出的结果是机器学习相关的论文;

我也遇到一樣的問題,讀取本地植物相關論文6篇,得出的結果至少有三篇是機器學習。看了看源碼沒找著問題,還請其他大神

@CodefromJiangHu
Copy link

读取本地pdf,得出的结果是机器学习相关的论文;

我也遇到一樣的問題,讀取本地植物相關論文6篇,得出的結果至少有三篇是機器學習。看了看源碼沒找著問題,還請其他大神

源码里面添加字段的时候,直接添加PDF的文件夹就行,不要让他为空
parser.add_argument("--pdf_path", type=str, default=r'pdf', help="if none, the bot will download from arxiv with query")

@eddy131415
Copy link

读取本地pdf,得出的结果是机器学习相关的论文;

我也遇到一樣的問題,讀取本地植物相關論文6篇,得出的結果至少有三篇是機器學習。看了看源碼沒找著問題,還請其他大神

源码里面添加字段的时候,直接添加PDF的文件夹就行,不要让他为空 parser.add_argument("--pdf_path", type=str, default=r'pdf', help="if none, the bot will download from arxiv with query")

我把源碼:
parser.add_argument("--pdf_path", type=str, default='', help="if none, the bot will download from arxiv with query")

改成您:
parser.add_argument("--pdf_path", type=str, default=r'pdf', help="if none, the bot will download from arxiv with query")

並使用指令:
python chat_paper.py --pdf_path "D:\pythonmenu\chat_paper\Sprout0416”

會一樣得出至少有三篇是機器學習結果的問題,請問我這是指令錯誤了嗎? 感謝回覆!

@kaixindelele
Copy link
Owner

实在抱歉,目前论文里面解析不到abstract和introduction,就会瞎编。尤其是生物和医学的一些论文,后期我们将更新另外一种解析方案,最近实在是太忙了,一直没有更新。等我更新了我就艾特大家

@CodefromJiangHu
Copy link

python chat_paper.py --pdf_path "D:\pythonmenu\chat_paper\Sprout04
根目录创建名为pdf的文件夹,把你要总结的pdf文件放里面
直接> python chat_paper.py

@eddy131415
Copy link

python chat_paper.py --pdf_path "D:\pythonmenu\chat_paper\Sprout04
根目录创建名为pdf的文件夹,把你要总结的pdf文件放里面
直接> python chat_paper.py

照您做的一樣的狀況,我這狀況是都有抓到資料夾中的pdf,但輸出的結果非pdf內的內容。可能還是得等大神更新了!!
非常感謝!

实在抱歉,目前论文里面解析不到abstract和introduction,就会瞎编。尤其是生物和医学的一些论文,后期我们将更新另外一种解析方案,最近实在是太忙了,一直没有更新。等我更新了我就艾特大家

再麻煩您了!

@wangfeng35
Copy link

实在抱歉,目前论文里面解析不到abstract和introduction,就会瞎编。尤其是生物和医学的一些论文,后期我们将更新另外一种解析方案,最近实在是太忙了,一直没有更新。等我更新了我就艾特大家

辛苦

本地一个文件 竟然不停地重复总结 总结到后面就不是原来文件的内容了。 搞得无法输出

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

7 participants