当前位置:网站首页 > C++编程 > 正文

cnn网站是什么意思(cnn是什么意思网络语)



KAN卷积神经网络来了! 就在昨天Alex Bodner团队发布一篇推文,展现了关于 KAN卷积神经网络 的研究成果。

是的你没看错,KAN卷积神经网络 已经被实现了。

什么是 KAN?

KAN 连接应用的函数定义为一个学习的 B 样条曲线,加上一个残差激活函数 b(x),所有这些乘以一个可学习的参数 w。

KAN的高效实现代码和KAN卷积神经网络实现代码我一起打包好了,大家可以在我的微信公众号【小师妹依依】回复【333】获取

KAN Convolutions(KAN卷积)是一种特殊的卷积操作,它在每个边缘上应用一个可学习的非线性函数,并将它们相加。

KAN卷积的核相当于一个具有4个输入和1个输出神经元的KAN线性层。

假设我们有一个KxK的核(或称为卷积核)。

在这种情况下,对于该矩阵的每个元素,我们有一个,其参数数量是:。由于实现上的问题,高效的KAN(Kernel Activation Network)定义了:

这给予了激活函数更多的表达能力。

因此,线性层的参数数量是。

所以,对于KAN卷积,我们总共有个参数,而普通的卷积只有个参数。

考虑到(在我们的实验中)通常介于和之间,但倾向于是一个较小的值,介于2和16之间。

初步评估

我们测试的不同架构是:

只是进行了一些初步实验来评估KAN卷积的性能,以下是一些研究结果:

卷积层列表中的每个元素包含了卷积的数量和对应的核大小

基于28x28的MNIST数据集,我们可以观察到KANConv & MLP模型在准确度上与传统的大型ConvNet相比是可以接受的。

然而,不同之处在于KANConv & MLP所需的参数数量是标准ConvNet所需参数的七分之一。

此外,KKAN在准确度上比中等规模的ConvNet低0.04,但参数数量几乎只有一半(94k vs 157k),这显示了这种架构的潜力。

目前,我们并没有看到KAN卷积网络在性能上相对于传统卷积网络有显著的提升。

我们认为这是由于我们正在使用简单的数据集和小型模型所导致的,因为我们的架构的优势在于其所需的参数数量显著少于我们尝试过的最佳架构(大型ConvNet,这是一个不公平的比较,因为其规模庞大)。

在对比具有相同MLP连接的2个等价的传统卷积层和KAN卷积层时,传统方法略微胜出,准确度提高了0.06,而KAN卷积和具有几乎一半参数数量的KAN线性层则准确度降低了0.04。

简而言之,KAN卷积是一种特殊的卷积技术它通过使用可学习的非线性函数来提高卷积层的表达能力,并且可能在某些任务中能以较少的参数达到接近甚至相当的性能。

例子

为MNIST构建KANConv

KAN的高效实现代码和KAN卷积神经网络实现代码我一起打包好了,大家可以在我的微信公众号【小师妹依依】回复【333】获取

到此这篇cnn网站是什么意思(cnn是什么意思网络语)的文章就介绍到这了,更多相关内容请继续浏览下面的相关推荐文章,希望大家都能在编程的领域有一番成就!

版权声明


相关文章:

  • cpu参数对比(CPU参数对比(AMD))2025-08-14 13:45:06
  • MSVCP140.dll下载(msvcp140.dll下载装好了还是不行)2025-08-14 13:45:06
  • git clone与git pull区别(git clone 和git pull)2025-08-14 13:45:06
  • 连接 断开(cable线连接断开)2025-08-14 13:45:06
  • excel表格怎么锁表(excel如何锁)2025-08-14 13:45:06
  • ceph容量损耗(ceph扩容)2025-08-14 13:45:06
  • 消息认证码mac值(消息认证码mac是否可以用作hmac)2025-08-14 13:45:06
  • codependence什么意思(coded的意思)2025-08-14 13:45:06
  • ifstream读取文件不存在报错吗?(c++ifstream读取文件)2025-08-14 13:45:06
  • conda如何删除虚拟环境(conda怎么删除环境)2025-08-14 13:45:06
  • 全屏图片