[LG]《WhoSaidNeuralNetworksAren'tLin

爱生活爱珂珂 2025-10-11 06:04:03

[LG]《Who Said Neural Networks Aren't Linear?》N Berman, A Hallak, A Shocher [Ben-Gurion University & NVIDIA & Technion] (2025)

线性化神经网络新突破:Linearizer框架全解析

神经网络被广泛认为是非线性的,但线性其实是相对于特定向量空间的。最新论文《WHO SAID NEURAL NETWORKS AREN’T LINEAR?》提出Linearizer架构,通过在两个可逆神经网络之间夹入一个线性算子,实现了在新定义的向量空间中将传统非线性网络变为精确线性映射!

核心思想:

1️⃣ 利用两个可逆网络gx和gy定义加法和数乘的新操作,从而诱导出新的向量空间X和Y。

2️⃣ 在这两个空间间,夹入一个线性算子A,使得整个映射f(x) = g_y⁻¹(A g_x(x))是线性的。

3️⃣ 线性算子A的性质直接映射到f,支持奇异值分解、伪逆、正交投影等线性代数工具。

4️⃣ 线性映射的复合仍为Linearizer,支持多种组合操作。

三大应用亮点:

🔹 一步流匹配(One-step Flow Matching):传统扩散模型需要多步采样,我们通过Linearizer只需一步即可完成生成,极大提升效率且效果相当。

🔹 模块化风格迁移:将风格映射为线性算子,风格间线性插值实现自然过渡,风格组合更加灵活。

🔹 架构级幂等性实现:通过设计线性幂等算子,实现全局投影生成模型,解决传统幂等性训练难题。

理论贡献:

- 定义新向量空间的加法与数乘操作,证明其完备性与Hilbert空间结构。

- 证明Linearizer映射的伪逆也为Linearizer,支持精确编码与解码。

- 提供线性算子A的奇异值分解对应整体网络的SVD,实现线性代数分析工具的无缝迁移。

实验验证:

- MNIST与CelebA数据集上的一步流匹配生成质量与传统多步采样等效,FID分数接近且采样速度显著提升。

- 通过线性伪逆实现高质量图像插值与逆映射,验证信息保真性。

- 风格迁移示例展示多种风格的自然过渡与融合,支持模块化风格组合。

- 幂等生成模型实现任意输入的投影,输出匹配目标分布,展现全局投影潜力。

未来展望:

- 扩展Linearizer至更大规模与高分辨率数据,推动高效生成模型发展。

- 利用线性算子矩阵指数模拟连续时间动态,开辟物理与时序建模新途径。

- 深入理论分析Linearizer的表达能力极限,结合其他算子学习框架拓展应用。

论文链接:arxiv.org/abs/2510.08570

Linearizer架构突破了神经网络非线性的传统认知,架起了非线性表达力与线性代数解析力之间的桥梁,开启了神经网络设计和应用的新纪元。值得机器学习研究者和实践者深入关注!

神经网络 线性代数 生成模型 扩散模型 风格迁移 机器学习 AI研究

0 阅读:0
爱生活爱珂珂

爱生活爱珂珂

感谢大家的关注