YuyaoGe's Website
YuyaoGe's Website
About
Publications
Posts
Light
Dark
Automatic
LLM
论文解读 | 2月最新大模型综述——来自Word2Vec作者Tomas Mikolov
Word2Vec作者Tomas Mikolov二月最新关于大模型综述
Yuyao Ge 葛钰峣
Mar 16, 2024
2 min read
论文分享
编码实践 | 一文读懂Self-Attention机制
这篇文章将用编码复现Transformer架构中使用的自注意力机制。
Yuyao Ge 葛钰峣
Mar 10, 2024
3 min read
编码实践
论文解读 | Auto CoT——利用聚类自动生成CoT
在过去CoT有两种范式,一种是Zero-shot,在问题末尾添加"Let’s think step by step"。另一种Manual CoT(Few-shot CoT),每个例子由问题和推理链组成。第二种方法表现是否好取决于CoT写的好不好,不过这需要人手工来写。本文通过提出Auto-CoT这一方法使得Few-shot CoT可以自动生成,解放双手!
Yuyao Ge 葛钰峣
Mar 2, 2024
1 min read
论文分享
论文解读 | 思维链越长大模型越聪明?
思维链(Chain of thought - CoT)在过去的实践中已经证明对提升大模型的推理能力有显著帮助。然而,目前还没有一项工作解释思维链长度与推理能力之间的关系。本文围绕这一核心问题,围绕CoT做了系统实验,并给出许多有意思和反直觉的结论。
Yuyao Ge 葛钰峣
Feb 26, 2024
1 min read
论文分享
论文解读 | 大模型的涌现是幻影
本文揭示了大模型并不存在「涌现」,大模型的能力随着参数的增长是线性增长的。
Yuyao Ge 葛钰峣
Dec 16, 2023
2 min read
论文分享
我们该如何监督比人类更强的AI? | Weak-to-strong generalization
如今AI的能力越来越强,接近甚至已经超越人类的能力,人类已经很难监督这类超人AI了。那么该如何监督比人类更强大的超人AI呢?
Yuyao Ge 葛钰峣
Dec 15, 2023
1 min read
笔记
论文解读 | 面向LLM的图结构多模态表示
This paper explore the impact of encoding global and local graph structures using different modalities, particularly focusing on node classification tasks
Yuyao Ge 葛钰峣
Nov 21, 2023
10 min read
论文分享
论文解读 | Graph-Guided Reasoning for Multi-Hop Question Answering in Large Language Models
提出了一种基于大模型的图引导的面向多步推理问题的推理方式。本文的主要贡献有两点:提出上述推理方式,提出允许变量定义的用于知识三元组提取的上下文学习方法
Yuyao Ge 葛钰峣
Nov 20, 2023
2 min read
论文分享
论文解读 | GraphText —— 图到文本的映射
在本文,作者跟据图结构的特点提出了一种将图映射到文本空间的框架GRAPHTEXT
Yuyao Ge 葛钰峣
Nov 14, 2023
1 min read
论文分享
论文解读 | ReAct——LLM推理范式 推理+动作
LLM ReAct范式,在大语言模型中结合推理和动作
Yuyao Ge 葛钰峣
Oct 27, 2023
1 min read
论文分享
«
»
Cite
×