
神经正切核 (ntk)的进展如何,好像热度不高了? - 知乎
我对神经正切核的理论进展了解不多,只是看过维基的程度,理论上的进展确实可能热度没那么高了,毕竟像NTK这样的大突破不是天天有。 但是在应用方面,我认为它的热度依然很高。目 …
RoPE外推优化——支持192K上下文长度 - 知乎
Sep 26, 2025 · Baichuan2-Turbo-192k 今天,我们要介绍的就是其背后的技术, 通过 dynamic ntk 等方法提升大模型的长文本理解、外推能力。 在上一篇文章中,我们详细介绍了旋转位置编 …
再论大模型位置编码及其外推性(万字长文) - 知乎
Sep 23, 2025 · 图4-6 不同插值方法的效果(这里的scale是指位置插值中扩大的倍数k,alpha是指NTK中的lambda参数或者是公式(15)中的alpha参数) 从图中可以看出在 时,NTK可以在 …
基于Transformer的LLM的context length是由什么决定的? - 知乎
Jul 7, 2025 · Dynamic NTK Scaling: 一种更复杂但效果显著的 RoPE 缩放变体。 不仅仅是线性缩放频率,而是对 RoPE 中的旋转角频率 θ 作分层或非线性放大/压缩。 源于神经正切核 …
深度学习理论之Neural Tangent Kernel第一讲:介绍和文献总结
基本介绍在神经网络中,neural tangent kernel (NTK) 是描述无限宽深度神经网络在梯度下降训练过程中演化的核。它最开始由Arthur Jacot, Franck Gabriel, 和Clément Hongler在2018年发表 …
黄伟 - 知乎
Nov 19, 2025 · 扩散模型也是演化算法! 在我们最近的工作中,我们发现扩散模型和演化算法是一体两面的——将扩散模型的降噪视作演化过程,使用简单的贝叶斯方法,我们就可以得 …
深度学习理论研究之路 - 知乎
深度学习理论之Feature Learning 综述和介绍 继Neural Tangent Kernel (NTK)之后,深度学习理论出现了一个理论分支,人们常常称它为feature learning (theory)。 不同于NTK,feature …
徐帅婧 - 知乎
Dec 31, 2024 · 继Neural Tangent Kernel (NTK)之后,深度学习理论出现了一个理论分支,人们常常称它为feature learning (theory)。 不同于NTK,feature learning认为神经网络在梯度下降过 …
CVHub-理论篇 - 知乎
位置编码之路:SIN->ALiBi->RoPE ->PI->NTK->YARN 前言:假期翻看了一年前总结的有关位置编码的笔记,发现在某些角度上有了新的理解,本次也分享出来。
深度学习理论方向的综述性论文有哪些? - 知乎
深度学习理论方向的综述性论文有哪些? 指以数理方法来研究深度学习原理,或者对相关现象进行动力学解释,子研究方向暂时只能想到NTK、Mean Field、Feature Learning相关… 显示全部 …