设置首页收藏本站
开启左侧

不太理解深度学习的理论这部分

[复制链接]
lanmp 发表于 2024-12-24 10:35:47 | 显示全部楼层 |阅读模式
为何用大量可调整的线性变换加上一些固定不变的非线性变换(激活函数)就可以解决所有问题?比如说2次,3次或者更高次的回归其实也可以用这种架构做近似。
有没有文章分析这个理论的文章,可能不是针对深度学习的,也许很早之前就有数学方面的证明了,但我找不到。
奖励计划已经开启,本站鼓励作者发布最擅长的技术内容和资源,流量变现就在现在,[点我]加入吧~~~Go
x55admin 发表于 2024-12-25 12:10:53 | 显示全部楼层
本帖最后由 x55admin 于 2024-12-26 21:39 编辑

算我没说
奖励计划已经开启,本站鼓励作者发布最擅长的技术内容和资源,流量变现就在现在,[点我]加入吧~~~Go
 楼主| lanmp 发表于 2024-12-25 13:36:48 | 显示全部楼层
x55admin 发表于 2024-12-25 12:10
其实核心思想就是梯度下降(求导),获取loss然后反向更新参数,找出拟合函数.找资料学习一下深度学习的理论基 ...

你说的这些是实现方式,我问的是可行性理论的证明
奖励计划已经开启,本站鼓励作者发布最擅长的技术内容和资源,流量变现就在现在,[点我]加入吧~~~Go
 楼主| lanmp 发表于 2024-12-28 16:22:16 | 显示全部楼层
我找到答案了:通用近似定理 universal approximation theorem
奖励计划已经开启,本站鼓励作者发布最擅长的技术内容和资源,流量变现就在现在,[点我]加入吧~~~Go
您需要登录后才可以回帖 登录 | 注册

本版积分规则

快速回复 返回顶部 返回列表