本文共 451 字,大约阅读时间需要 1 分钟。
这是学了神经网络一课时的伙伴发我的,也算是一个总结吧!
我们一起来看看他的了解!
- 这门课程和数学有很大的联系,让我感受到了数学的神奇伟大美丽课程中用到了求导、线性函数、非线性函数即线性组合、非线性处理。
- 大概就是用局部的线性函数来表示全体的非线性函数,类似积分了
- 比较重要的一张图
- 单层神经网络:原始值、隐含层、输出层、输出值。神奇的x与y,好强大
![学习神经网络一课时,我想说的话!](https://imgconvert.csdnimg.cn/aHR0cDovL3AxLnBzdGF0cC5jb20vbGFyZ2UvcGdjLWltYWdlLzllNGMzMmE0ZTFhMzRhZTBiN2ExZjQzMTBmZTA0NTY4?x-oss-process=image/format,png)
解决非线性问题,每一个神经元,将输入值进行线性组合,然后转化为非线性结果
- 认识了几个函数:梯度下降,损失函数,激励(活)函数
- 逻辑回归模型
- 反向传播算法,个人理解就是通过电脑计算机判断,如果错误就返回给一个信号,然后计算机修改然后不断的改正错误和刺激,来达到人工智能神经网络
![学习神经网络一课时,我想说的话!](https://imgconvert.csdnimg.cn/aHR0cDovL3AxLnBzdGF0cC5jb20vbGFyZ2UvcGdjLWltYWdlLzQyNGI3ZWU5MzRmMTQ1YmJiZGQ3ZDY0ZTg0NDA3ZmQ5?x-oss-process=image/format,png)
- 激励函数暂时学了三种
- 默认ReLU函数
- Sigmoid函数,(需要整个区间可导)
- tanh函数
![学习神经网络一课时,我想说的话!](https://imgconvert.csdnimg.cn/aHR0cDovL3A5LnBzdGF0cC5jb20vbGFyZ2UvcGdjLWltYWdlLzZiNDEzZWRmNDcxNjRlMmNhMmM3MmFkMzhkMjAyM2U1?x-oss-process=image/format,png)
其实这块儿说难不难,说简单它也难,学习这块儿有困难的伙伴,可以留言,需要视频学习教程的伙伴,也可以留言:人工智能,老师有总结视频教程,可以分享大家!
转载地址:http://ebkab.baihongyu.com/