TensorFlow가 5월 14일 Google I/O로 돌아왔습니다!
지금 등록하세요
SELU
컬렉션을 사용해 정리하기
내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.
SELU(스케일 지수 선형 단위).
SELU(Scaled Exponential Linear Unit) 활성화 함수는 다음과 같이 정의됩니다.
-
if x > 0: return scale * x
-
if x < 0: return scale * alpha * (exp(x) - 1)
여기서 alpha
및 scale
미리 정의된 상수( alpha=1.67326324
및 scale=1.05070098
)입니다.
기본적으로 SELU 활성화 함수는 elu 함수의 출력에 scale
(> 1)을 곱하여 양수 입력에 대해 1보다 큰 기울기를 보장합니다.
scale
가 올바르게 초기화되고(정규 분포를 사용하는 LeCun
참조) 입력 단위 수가 "충분히 큰" 한 입력의 평균과 분산이 두 개의 연속 레이어 간에 유지되도록 alpha
및 스케일 값이 선택됩니다.
참고: 정규 분포와 함께 LeCun
이니셜라이저와 함께 사용됩니다.
공공 생성자
| SELU (Ops tf) SELU(Scaled Exponential Linear Unit) 활성화를 만듭니다. |
상속된 메서드
java.lang.Object 클래스에서 부울 | 같음 (개체 arg0) |
마지막 수업<?> | getClass () |
정수 | 해시 코드 () |
최종 무효 | 알림 () |
최종 무효 | 통지모두 () |
끈 | toString () |
최종 무효 | 대기 (long arg0, int arg1) |
최종 무효 | 기다리세요 (긴 arg0) |
최종 무효 | 기다리다 () |
공공 생성자
공개 SELU (Ops tf)
SELU(Scaled Exponential Linear Unit) 활성화를 만듭니다.
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2023-12-01(UTC)
[{
"type": "thumb-down",
"id": "missingTheInformationINeed",
"label":"필요한 정보가 없음"
},{
"type": "thumb-down",
"id": "tooComplicatedTooManySteps",
"label":"너무 복잡함/단계 수가 너무 많음"
},{
"type": "thumb-down",
"id": "outOfDate",
"label":"오래됨"
},{
"type": "thumb-down",
"id": "translationIssue",
"label":"번역 문제"
},{
"type": "thumb-down",
"id": "samplesCodeIssue",
"label":"샘플/코드 문제"
},{
"type": "thumb-down",
"id": "otherDown",
"label":"기타"
}]
[{
"type": "thumb-up",
"id": "easyToUnderstand",
"label":"이해하기 쉬움"
},{
"type": "thumb-up",
"id": "solvedMyProblem",
"label":"문제가 해결됨"
},{
"type": "thumb-up",
"id": "otherUp",
"label":"기타"
}]