实时追踪科研动态丨7.26精选新论文,附ChatPaper综述

作为科研人员,每天需要检索和浏览大量的学术文献,以获取最新的科技进展和研究成果。然而,传统的检索和阅读方式已经无法满足科研人的需求。

ChatPaper,一款集检索、阅读、知识问答于一体的文献知识工具。帮助你快提高检索、阅读论文效率,获取最新领域研究动态,让科研工作更加游刃有余。
在这里插入图片描述

结合前沿动态订阅功能,精选arXiv当日热门新论文,形成论文综述,让大家更加快速了解前沿动态。

如果想要对某篇论文进行深入对话,可以直接复制论文链接到浏览器上或者直达ChatPaper页面:https://www.aminer.cn/chat/g/

2023年7月26日精选新论文列表:

1.Contrastive Example-Based Control 论文详情页

https://www.aminer.cn/pub/64a29620d68f896efa28f818/

论文讨论了强化学习中的挑战,即实际问题很少符合马尔可夫决策过程(MDP)的模型,与环境的交互往往很昂贵,并且指定奖励函数也很具挑战性。为了应对这些挑战,先前的研究提出了从转移动力学样本和高回报状态示例中完全学习的数据驱动方法。这些方法通常从高回报状态学习奖励函数,使用该奖励函数标记转移,并将离线强化学习算法应用于这些转移中。虽然这些方法在许多任务上可以取得良好结果,但它们可能很复杂,通常需要正则化和时差更新。本文提出了一种离线的、基于示例的控制方法,该方法学习多步转移的隐式模型,而不是奖励函数。我们展示了这个隐式模型可以表示基于示例的控制问题的Q值。在一系列基于状态和基于图像的离线控制任务中,我们的方法优于使用学习奖励函数的基线方法;额外的实验表明改进了鲁棒性和数据集大小的扩展能力。

2.LoraHub: Efficient Cross-Task Generalization via Dynamic LoRA Composition 论文详情页

https://www.aminer.cn/pub/64c09a963fda6d7f06e3e219/

论文介绍了一个名为LoraHub的框架,旨在通过组合使用不同任务上训练的LoRA模块,实现对未见任务的可调适应性。该论文指出,使用LoraHub,只需要从新任务中获得一些示例,就可以流畅地组合多个LoRA模块,无需人类专业知识。这种组合既不需要额外的模型参数,也不需要梯度。实验结果表明,LoraHub可以在少量示例的情况下有效地模拟在上下文学习中的性能,不需要每个推理输入旁边提供上下文示例。该研究的一个重要贡献是建立了一个LoRA社区,用户可以分享他们训练的LoRA模块,以促进其应用到新任务中。这一资源预计将扩大对通用智能和生产中的LLMs的应用和推进。

3.ARB: Advanced Reasoning Benchmark for Large Language Models 论文详情页

https://www.aminer.cn/pub/64c09a9c3fda6d7f06e3e9dd/

尽管大型语言模型在各种定量推理和知识基准测试中表现出令人瞩目的性能,但许多基准测试在语言模型得分越来越高的情况下逐渐失去了实用性,尽管它们尚未达到专家水平。为了解决这个问题,研究人员引入了一个名为ARB的新的基准测试,其中包含了数学、物理、生物学、化学和法律等多个领域的高级推理问题。他们评估了最新的模型(如GPT-4和Claude)在ARB上的表现,并发现当前的模型在更具挑战性的任务上得分远低于50%。为了改进自动和辅助评估能力,他们引入了基于评分标准的评估方法,允许GPT-4对自己的中间推理步骤进行评分。此外,他们对ARB的符号子集进行了人工评估,并发现注释者和GPT-4的评分存在一定程度的一致性。

4.Predicting Code Coverage without Execution 论文详情页

https://www.aminer.cn/pub/64c09a9c3fda6d7f06e3e898/

论文针对计算代码覆盖率的问题,指出了计算代码覆盖率所需的资源较大,并且需要整个程序的上下文才能计算代码片段的覆盖率。为了降低计算代码覆盖率的成本,作者提出使用机器学习来预测代码覆盖率,只需要源代码的上下文即可。作者提出了一种名为“Code Coverage Prediction for Large Language Models (LLMs)”的新的评估任务,旨在评估LLMs在理解代码执行方面的能力。作者通过执行测试和收集代码覆盖信息,创建了一个名为COVERAGEEVAL的数据集,并报告了四种用于代码相关任务的最先进的LLMs的性能。最后,作者还论证了代码覆盖率作为指标和预训练数据源对于LLMs在软件工程任务的整体性能是有价值的。

5.Decision-Focused Learning: Foundations, State of the Art, Benchmark and Future Opportunities 论文详情页

https://www.aminer.cn/pub/64c09a9c3fda6d7f06e3e956/

论文主要讨论了决策导向学习(Decision-focused learning, DFL)这一新兴的机器学习范式。DFL旨在训练模型以优化决策,在一个端到端系统中整合了预测和优化。这一范式有望在许多面临不确定性的现实世界应用中改变决策制定方式,其中对于这些决策模型中未知参数的估计经常成为一个重要障碍。本论文全面回顾了DFL,并深入分析了各种用于整合机器学习和优化模型的技术,提出了一个根据其特点进行分类的DFL方法分类法,并对这些方法进行了广泛的实证评估,提出了适用于DFL的基准数据集和任务。最后,该研究为DFL研究的当前和潜在未来方向提供了有价值的见解。

6.Group Activity Recognition in Computer Vision: A Comprehensive Review, Challenges, and Future Perspectives 论文详情页

https://www.aminer.cn/pub/64c09a9c3fda6d7f06e3e93c/

文主要讨论了计算机视觉中的群体活动识别的问题。群体活动识别通过识别群体关系来有效地模拟场景中的层次关系,并从群体中准确提取有区别的时空特征,具有广泛的应用前景。论文首先综述了相关文献和不同的群体活动识别方法,包括传统方法和基于空间结构、描述符、非深度学习、分层循环神经网络、关系模型和注意机制的最新方法。接着,论文介绍了每个模块的关系网络和关系架构。然后,论文探讨了群体活动识别方法,并将其性能与最先进的技术进行了比较。论文总结了现有的挑战,并为新来者提供了全面的指导,以了解群体活动识别。最后,论文还回顾了群体活动识别的新方向和可能性。

7.FacTool: Factuality Detection in Generative AI – A Tool Augmented Framework for Multi-Task and Multi-Domain Scenarios 论文详情页

https://www.aminer.cn/pub/64c09a9c3fda6d7f06e3e92d/

论文指出了生成预训练模型在合成高质量文本方面的优势,但也提出了在生成的文本中识别事实错误的挑战。具体而言,论文指出了以下几个问题:(1)随着生成模型处理越来越多样化的任务,包含事实错误的风险也越来越高。(2)生成的文本往往很长,并且缺乏对个别事实的明确定义的细粒度。(3)在事实检查过程中缺乏明确的证据。在考虑到以上挑战的情况下,该论文提出了FacTool,一个用于检测大型语言模型生成文本中事实错误的任务和领域无关的框架(例如ChatGPT)。通过在基于知识的问答、代码生成、数学推理和科学文献回顾等四个不同任务上进行实验,论文展示了所提方法的有效性。

8.Analyzing Chain-of-Thought Prompting in Large Language Models via Gradient-based Feature Attributions 论文详情页

https://www.aminer.cn/pub/64c09a9c3fda6d7f06e3e869/

论文指出了生成式预训练模型在产生高质量文本的同时,也带来了鉴别生成文本中事实错误的挑战。具体问题有:(1)更多种类的任务由生成模型处理时,存在包含事实错误的风险增加。(2)生成的文本往往较长,缺乏明确定义的事实粒度。(3)在事实核查过程中缺乏明确的证据。鉴于上述问题,本文提出了一个面向任务和领域的框架FacTool,用于检测大型语言模型(如ChatGPT)生成的文本中的事实错误。对四个不同任务(基于知识的问答、代码生成、数学推理和科学文献综述)进行的实验证明了该方法的有效性。

9.Strivec: Sparse Tri-Vector Radiance Fields 论文详情页

https://www.aminer.cn/pub/64c09a963fda6d7f06e3e1eb/

论文提出了一种名为Strivec的新型神经表示方法,用于以稀疏分布和紧凑因子分解的本地张量特征网格,将3D场景建模为辐射场。该方法利用张量分解来建模张量网格,与最近的TensoRF方法不同,TensoRF方法使用全局张量并侧重于矢量-矩阵分解,而Strivec方法则利用一组局部张量,并应用经典的CANDECOMP/PARAFAC (CP)分解将每个张量分解为能够沿空间轴表示本地特征分布并紧凑地编码本地神经场的三个向量。同时,作者还应用多尺度的张量网格来发现几何和外观的共性,并利用多尺度三向量分解的空间相干性。最终,辐射场的属性通过聚合多尺度上多个局部张量的神经特征进行回归得出。这些三向量张量在实际场景表面周围是稀疏分布的,通过快速粗略重建发现,利用了3D场景的稀疏性。实验证明,相较于先前的方法,包括TensoRF和Instant-NGP,我们的模型在使用参数明显较少的情况下可以实现更好的渲染质量。


如何使用ChatPaper?

使用ChatPaper的方法很简单,打开AMiner首页,从页面顶部导航栏或者右下角便可进入ChatPaper页面。

在这里插入图片描述

在ChatPaper页面中,可以选择基于单篇文献进行对话和基于全库(个人文献库)对话,可选择上传本地PDF或者直接在AMiner上检索文献。

猜你喜欢

转载自blog.csdn.net/AI_Conf/article/details/131954576