프로그램 사용/yolo_tensorflow
ReLU - Rectified Linear Unit
구차니
2024. 1. 10. 10:31
ReLU는 일종의 threshold 함수인데(loss 함수 혹은 손실 함수 등등등..)
0 미만은 0 으로 억제하는 함수이다.
그나저나 Rectified를 찾아보니 정정하다(correct) 정류하다 등으로 뜻이 나오는데
수정된 선형 단위 라고 번역을 하면 되려나?
[링크 : https://ko.wikipedia.org/wiki/ReLU]
retifier는 전자회로에서 "정류기"로 많이 번역되는데, 다이오드 등을 통해서 교류를 직류로 바꾸는 걸 의미한다.
[링크 : https://ko.wikipedia.org/wiki/정류기]
그나저나 다이오드의 전압 그래프를 보면 ReLU랑 비슷한 것 같으면서도 아닌것 같기도 하고(...?!)
아무튼 머.. 그렇다고 한다.