C# 클래스 SuperNeuro.Layers.Activations.Softplus

The softplus activation: log(exp(x) + 1).
상속: BaseLayer
파일 보기 프로젝트 열기: tech-quantum/SuperchargedArray 1 사용 예제들

공개 메소드들

메소드 설명
Backward ( SuperArray outputgrad ) : void

Calculate the gradient of this layer function

Forward ( SuperArray x ) : void

Forwards the inputs and compute the output

Softplus ( ) : SuperchargedArray

Initializes a new instance of the Softplus class.

메소드 상세

Backward() 공개 메소드

Calculate the gradient of this layer function
public Backward ( SuperArray outputgrad ) : void
outputgrad SuperArray The calculated output grad from previous layer.
리턴 void

Forward() 공개 메소드

Forwards the inputs and compute the output
public Forward ( SuperArray x ) : void
x SuperArray The input SuperArray for this layer.
리턴 void

Softplus() 공개 메소드

Initializes a new instance of the Softplus class.
public Softplus ( ) : SuperchargedArray
리턴 SuperchargedArray