整流線性單位函数(Rectified Linear Unit, ReLU),又称修正线性单元,是一种人工神经网络中常用的激勵函数(activation function),通常指代以斜坡函数及其变种为代表的非线性函数。 比较常用的线性整流函数有斜坡函数 f ( x ) = max ( 0 , x ) {\displaystyle
線性整流層(Rectified Linear Units layer, ReLU layer)使用線性整流(Rectified Linear Units, ReLU) f ( x ) = max ( 0 , x ) {\displaystyle f(x)=\max(0,x)} 作为這一層神經的激勵函數(Activation