ReLU는 일종의 threshold 함수인데(loss 함수 혹은 손실 함수 등등등..)
0 미만은 0 으로 억제하는 함수이다.
그나저나 Rectified를 찾아보니 정정하다(correct) 정류하다 등으로 뜻이 나오는데
수정된 선형 단위 라고 번역을 하면 되려나?
[링크 : https://ko.wikipedia.org/wiki/ReLU]
retifier는 전자회로에서 "정류기"로 많이 번역되는데, 다이오드 등을 통해서 교류를 직류로 바꾸는 걸 의미한다.
[링크 : https://ko.wikipedia.org/wiki/정류기]
그나저나 다이오드의 전압 그래프를 보면 ReLU랑 비슷한 것 같으면서도 아닌것 같기도 하고(...?!)
아무튼 머.. 그렇다고 한다.
'프로그램 사용 > yolo_tensorflow' 카테고리의 다른 글
텐서플로우 v1 을 v2로 마이그레이션은 실패 -_- (0) | 2024.01.10 |
---|---|
골빈해커의 3분 딥러닝 github (0) | 2024.01.10 |
softmax (0) | 2024.01.10 |
텐서플로우 학습 (0) | 2024.01.09 |
ssd(single shot detect) 결과 처리 (0) | 2024.01.03 |