reshape
1.人工神经元:
权重与偏置
激活函数(sigmoid、relu、tanh)
人工神经元实现布尔运算(与、或、非、异或)
import numpy as np
def sigmoid(x):
return 1 / (1 + np.exp(-x))
print(sigmoid(5))
2.神经网络简介:
分类任务与回归任务
损失函数(均方差、交叉熵)
0需要放在后面,否则会报错
np.max(-0.21x1 +0.3x2+0.7*x3,0)
下面两个写法相同
sigmoid= lambda x :1 / (1 + np.exp(-x))
def sigmoid(x):
return 1 / (1 + np.exp(-x))