大一统!深度学习和传统机器学习终迎来统一的RPN理论框架表示




背景介绍在过去的 70 年里,人工智能领域在研究的问题和使用的模型方面都经历了巨大的变化。随着新学习任务的出现,各种基于不同先验假设的机器学习模型被提出以解决这些问题。在上图中,我们展示了过去 50 年里主导人工智能领域的三种类型的机器学习模型,包括概率图模型、支持向量机、和深度神经网络。随着技术上的重要突破,这些模型各自有其辉煌时期,并在当今的数据科学和机器学习相关的各种研究和应用任务中得到了广泛的探索和利用。区别于以往的基础机器学习模型,在本文中,我们提出了 Function Learning Task 这个概念。具体来说,Function Learning Task 这个任务名称中提到的 Function 不仅指构成我们提出的 RPN 模型中的 Component Functions,还指我们提出的模型作为智能系统将输入信号与期望输出响应关联的 Cognitive Functions长期以来,Function Learning 基本被简单等同于连续函数拟合和回归任务。但其实在心理学和认知科学中,研究者们也使用 Function Learning 的概念来模拟人类和其他智能主体的刺激-反应关系的心理诱导过程,其过程涉及知识获取、信息处理和推理等一系列复杂的过程。在本文中,Function Learning 被视为是智能模型学习中最基本的任务,涵盖了基于多模态数据的多种学习任务,包括但不限于:
  • 连续函数近似
  • 离散视觉和语言数据的识别与预测
  • 认知和逻辑依赖关系的归纳
  • 等其他任务

论文标题:

RPN: Reconciled Polynomial Network Towards Unifying PGMs, Kernel SVMs, MLP and KAN

论文链接:

https://arxiv.org/abs/2407.04819

项目主页:

https://www.tinybig.org/

Github链接:

https://github.com/jwzhanggy/tinyBIG

PyPI Package:

https://pypi.org/project/tinybig/





RPN 模型结构

为了解决上面提到的 Function Learning 包括的各种复杂任务,本文将介绍一种新型深度函数学习模型(deep function learning),即Reconciled Polynomial Network”(RPN)。在模型架构方面,如上图所示,RPN 由三个组成函数构成:数据扩展函数(data expansion function)参数调和函数(parameter reconciliation function)、和余项函数(remainder function)

受泰勒定理启发,RPN 将输入数据与模型参数分离,并将目标函数近似为数据扩展函数与参数调和函数的内积,然后加上余项函数。

  • 数据扩展函数根据数据扩展函数的定义,RPN 将数据向量从输入空间投射到中间隐层(更高维度)空间,投射后的数据将由新空间中的新的基向量表示。

  • 参数调和函数为了应对数据扩展带来的“维度灾难”问题,RPN 中的参数调和函数将一组减少的参数合成为一个高阶参数矩阵。这些扩展的数据向量通过与这些生成的调和参数的内积进行多项式集成,从而将这些扩展的数据向量投射回所需的低维输出空间。

  • 余项函数此外,余数函数为 RPN 提供了额外的补充信息,以进一步减少潜在的近似误差。

相比现有的深度学习模型,RPN 中的所有组成函数都具有具体的物理意义。这些函数与简单内积和求和操作的直接应用相结合,使 RPN 相比于其他现有基础模型具有更大的可解释性。



具有“广度”和“深度”的RPN模型结构

RPN 拥有高度灵活的架构,能够构建具有不同复杂性、容量和完整度的模型。本文中,为了在设计上提供更大的建模能力,我们通过结合多头(Multi-Head)、多通道(Multi-Channel)、以及多层(Multi-Layer)的基础结构,来构造兼具“广度”和“深度”的 RPN 模型架构:
  • 广度模型结构RPN 提供了 Multi-Channel 和 Multi-Head 的模型结构构建机制,允许用户扩展模型的广度,使得模型能够有更加广泛的数据扩展能力和更大的模型容量。

  • 深度模型结构RPN 也提供了 Multi-Layer 的模型结构构建机制,允许用户构建多层的深度模型结构,使得模型能够通过多层函数嵌套变换,能够学习更加复杂数据分布。

此外,如下图所示,我们还通过嵌套和扩展的数据扩展函数(extended and nested data expansion functions),为构建具有类似上述“广度”和“深度”能力的 RPN 模型提供了更具适应性和轻量级的构造机制。



RPN 功能函数列表

在本文中,我们引入了数据扩展函数、参数调和函数,和余项函数这三种组成函数,它们是 RPN 模型的构建模块。通过有效地组合这些组成函数,我们可以构建一个多头、多通道和多层架构,使 RPN 能够应对广泛的学习挑战。在本文中,我们提出了 25 类数据扩展函数、10 类参数调和函数和 5 类余项函数,部分功能函数的表示和基本信息都总结在了上面的列表中。



基础模型的统一表示:PGM, kernels SVM, MLP 和 KAN

RPN 实现了丰富的功能函数,具体列表如上图所示。通过组合使用上述功能函数,RPN 不仅可以构建功能强大的模型结构,并且可以统一现有基础模型的表示,包括 PGMs,kernel SVM,MLP 和最近的 KAN。



实验验证

为了验证提出的 RPN 模型的有效性,本文通过大量的实验结果和分析,证明了 RPN 在多种 Function Learning Task 上的有效性。并且通过使用远远低于现有模型的参数量,RPN 就可以获得比现有模型更好的学习效果,这可以大大降低现有模型训练和测试时所需的计算时间和显存空间。

在本文中,具体的实验任务包括:连续函数拟合,离散图片和文本分类,以及概率关系预测等。

6.1 连续函数拟合

RPN 可以有效的拟合连续函数,本文提出和使用了三个连续函数数据集来测试 RN 在连续函数拟合上的表现。我们使用了三类连续函数数据集,包括

  • 基础函数(elementary function)
  • 复合函数(composite function)
  • 费曼函数(Feynman function).

如下图在费曼函数上的结果显示,在绝大多数的连续函数上 RPN 都可以获得比 MLP 和 KAN 至少低 甚至 的拟合误差。

6.2 离散图片和文本分类除了连续函数以外,我们也在离散图片和文本数据集上测试了 RPN 的实验效果,包括:
  • MNIST 图片数据集

  • CIFAR10 图片数据集

  • IMDB 文本数据集

  • SST2 文本数据集

  • AGNews 文本数据集
通过数据扩展函数(data expansion function),RPN 可以把输入的数据扩展到更高维度的空间,如下图所示:在扩展空间中,RPN 通过参数调和函数(parameter reconciliation function)可以使用更少的科学系变量来获得更好的学习效果,部分结果如下图所示:

6.3 概率关系预测

除上面结果之外,通过使用概率数据扩展函数(probabilistic data expansion function),RPN 也可以有效的预测输入数据变量之间的依赖关系,其可以有效的增强 RPN 在概率和统计方面的可解释性。

我们在几个传统的 tabular 数据集上测试了 RPN 在概率关系预测上的表现,其中数据集包括:
  • Iris Species 数据集

  • Pima Indians Diabetes 数据集

  • Banknote Authentication 数据集
下图我们展示了 RPN 在 Iris 数据集上预测出来的变量依赖关系的图示。相比其他概率模型,RPN 预测出来的变量依赖关系更加符合现实情况:



RPN 的解释性和构造动机

本文也通过从“机器学习”和“生物神经科学”等多个角度讨论我们 RPN 模型设计的解释。通过这些讨论,我们旨在阐明 RPN 模型设计的动机和优势。

7.1 机器学习角度

根据经典的 Vapnik-Chervonenkis dimension(VC-dimension)理论,如上图所示,随着模型的 VC 维度增加,模型的容量和复杂性增加,训练误差逐渐减少。同时,对于高 VC 维度的复杂模型,测试误差先减少,达到一个和谐的“甜点”,然后呈现 U 形增加。除了借用的 VC 理论曲线外,我们还增加了一条红色曲线表示学习成本。随着 VC 维度增加,模型变得更复杂,没有必要的参数调节,学习成本会急剧增加。

对于 RPN 模型,VC 维度由数据扩展函数和参数调和函数决定,如果余项函数非零,也会有影响。这些组件共同影响模型的复杂性和学习能力。

通过数据扩展函数将数据实例投影到高维空间,我们增加了模型的表示复杂性。然而,参数调和函数通过在高维空间中减少数据实例的参数调和,减轻了学习成本,并引导测试误差向最佳范围靠近。当然,在实际操作中,扩展和协调函数之间的完美平衡难以实现,可能导致学习误差和性能下降,但余项函数可以弥补潜在的不足,提高 RPN 的鲁棒性。

7.2 生物神经科学角度

与其他现有神经模型(包括 MLP 和 KAN 及其衍生物)不同,RPN 从神经科学的角度提供了更准确的真实世界生物神经元建模。大多数读者对神经科学支持人工神经元和神经网络模型设计的基本背景知识有一定了解,但为了帮助读者更好地理解 RPN 模型,我们在文章中也简要描述生物神经元的结构和工作机制,如上图所示。

生物神经元的工作机制实际上启发了 RPN 模型的当前设计。其中,数据扩展函数通过将神经元的细胞状态投射到高维空间来建模,而不是原始空间。

这种方法使我们能够建模复杂状态,包括神经元的尖峰曲线,而不仅仅是简单的二进制 0/1 状态或在 [0, 1] 范围内的整数。参数调和函数调整参数以适应神经元的高维状态,促进信号传输到连接的神经元。这模拟了在形成突触时神经递质-配体门控离子通道的制造。此外,余项函数允许跳层数据投射,反映了生物神经元的广泛连接,从而实现更快的信号传输。

RPN讨论:优点,局限性,以及后续工作

8.1 RPN 优点理论优点RPN 模型将数据与参数解耦,并根据泰勒定理将几种机器学习和深度学习基础模型架构形式化为扩展数据实例与调和参数的内积。从机器学习理论的角度来看,数据扩展函数负责将输入数据向量从一个基础空间投影到另一个空间;参数调和函数则会适应参数维度并根据 VC 理论对其进行正则化以避免过拟合。

同时,从生物神经科学的角度来看,数据扩展函数模拟了神经元在激活前、激活期间和激活后的复杂状态;参数调和函数制造神经递质及其配体门控离子通道以组成突触。RPN 模型架构使得从理论机器学习和生物神经科学的角度更容易解释结果和学习过程的物理意义。


技术优点RPN 模型为经典机器学习模型和一系列深度模型提供了一个统一的表示框架。我们用非深度机器学习模型(如 SVM 和概率模型,包括朴素贝叶斯、贝叶斯网络和马尔可夫网络)和深度模型(如 MLP 和 KAN)作为示例,说明它们如何用 RPN 表示。此外,RPN 的多层、多头和多通道设计为未来模型设计和部署在各种应用中的灵活性提供了显著的支持。RPN 中的统一表示大大简化了未来机器学习、深度学习和人工智能模型与系统的设计与开发。

计算优点RPN 在每一层中将数据与参数解耦允许它们的计算分别路由到不同的芯片、机器和云平台,保护数据隐私和模型参数安全。此外,RPN 依赖内积计算便于在各种计算平台、系统和硬件上进行并行化。RPN 模型可以用传统的误差反向传播有效训练。梯度计算和参数更新可以在不同计算设施之间最小化消息传递地局部执行,使得 RPN 在现实世界大规模系统和模型中部署时显著减少计算资源和能源消耗。

8.2 RPN 局限性和后续工作主要方向

建模局限性尽管我们旨在用 RPN 统一现有的机器和深度学习基础模型,但仍有大量模型我们尚未覆盖或调查如何用 RPN 表示。例子包括树家族模型(如决策树、梯度提升树和随机森林)、集成学习模型(如 bagging、boosting 和 stacking 模型)、无监督学习模型(如 k-means、主成分分析)和强化学习模型(如 q-learning、策略梯度方法)。

多这些模型可以用 RPN 表示;例如,决策树可以用条件概率解释,集成学习模型可以用 RPN 的多头多通道机制建模。然而,我们将这些模型的探索留待未来的研究。

效率局限性RPN 中的数据扩展函数将数据实例扩展到更高维度以更好地逼近目标函数。虽然我们可以利用深层架构在每一层约束扩展空间的维度,但数据实例的中间表示仍可能消耗大量计算资源,并且深层架构可能引入更高的计算时间开销。例如,如果我们计划用 RPN 构建具有更长上下文宽度的语言模型,某些扩展函数(如组合扩展和那些用克罗内克积定义的)可能不适用。

此外,在设计数据扩展函数、参数调和函数和余项函数时,我们没有考虑任何优化高性能计算系统性能的技术,这可能潜在地解决效率问题。我们打算在未来的工作中研究这些领域。

学习局限性本文中的 RPN 模型训练仍依赖误差反向传播算法,近年来该算法因其高计算成本、收敛缓慢以及对超参数和初始化的敏感性而受到批评。此外,更高维度的扩展可能导致输入数据实例的输出更宽,可能引发过拟合和性能鲁棒性问题。然而,在每一层将参数从数据解耦到不同函数提供了探索新模型训练算法的机会, 本文未讨论这一点。我们认为设计 RPN 的新学习算法是未来研究的重要方向之一。


结论

在本文中,我们介绍了 Reconciled Polynomial Network(RPN)作为一种用于深度函数学习任务的新型基础模型。通过引入多层、多头和多通道,RPN 具备灵活的模型架构,并在各种多模态数据上的多样化深度函数学习任务中表现出优越的建模能力。此外,通过特定选择的组成函数——包括数据扩展、参数调和,以及余项函数,RPN 提供了一个将几种有影响力的基础模型统一到一个标准表示中的框架。

为了展示 RPN 的有效性,本文在众多基准数据集上进行了广泛的实证实验,用于各种深度函数学习任务。结果一致表明,RPN相较于其他基础模型表现出卓越的性能。

为了促进 RPN 的采用、实施和实验,本文发布了一个名为tinybig的综合工具包。tinybig工具包提供了本文介绍的预实现组成函数的丰富库,允许研究人员快速设计、定制和有效部署 RPN 模型用于各种学习任务。

tinybig工具包和网站介绍10.1 github 源码和 PyPI 项目页面

tinybig 提供了一个丰富的预实现函数库,包括 25 类数据扩展函数、10 类参数调和函数和5类余项函数,以及完整的模型框架和优化的模型训练管道。这个集成工具包使研究人员能够快速设计、定制和部署 RPN 模型,覆盖广泛的深度函数学习任务。

关于 tinybig 的具体信息,欢迎查看官方网站和项目在 github 的主页。

Github Repository: 

https://github.com/jwzhanggy/tinyBIG 


PyPI Package: 

https://pypi.org/project/tinybig/


10.2 项目网站

除此之外,我们还问这个项目搭建了完整的项目网站,网站中包含了完整的项目文档,代码示例,和入门教程。网站链接和部分网站页面如下所示:

Official Website: 

https://www.tinybig.org/

10.2.1 网站主页

10.2.2 文档目录

10.2.3 Tutorial 列表

10.2.4 代码示例列表



更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


···


相关推荐

  • 诚邀您参与2024网民网络安全感满意度调查活动
  • 程序员应该掌握的三种编程语言——有Zig无Rust?
  • [开源]一个既能购物又能即时聊天的电商系统,致力于打造最佳实践
  • 复旦打老师的男生,到手的研究生没了,北大已回应,打人原因曝光
  • 【第23讲】使用AI将老照片动起来
  • 百度员工:曾经年薪百万,失业后现在吃块肉也要看老婆脸色
  • 智能风控系统:框架搭建与设计(一)
  • 得物AB实验平台数据驱动决策实践
  • 12.3K Star 炫酷万人关注!!!浏览器中的数据库设计大师
  • KDD 2024|港大黄超团队深度解析大模型在图机器学习领域的「未知边界」
  • 权重、代码、数据集全开源,性能超越Mistral-7B,苹果小模型来了
  • 机器人版的「斯坦福小镇」来了,专为具身智能研究打造
  • 专访诺奖得主:大模型是记忆还是理解?
  • Spring Boot集成Spring Batch快速入门Demo
  • 如何准备源码面试?
  • 去了一家很恶心的小公司,遭了老罪了!
  • 如何用JavaScript实现视频观看时间追踪
  • 聊一聊 Node.js(Express)的 req.body、req.params 和 req.query 区别和应用场景
  • 重磅!国家超算互联网正式上线!
  • 突发!微软蓝屏,全球宕机。。。