렐루1 18. 비선형 활성화 함수 1. 비선형 활성화 함수(Activation Functions)신경망의 성능을 향상시키기 위해 사용선형 함수는 입력값과 가중치를 곱한 결과를 그대로 출력하기 때문에 신경망에서 여러 개의 활성화 함수를 사용한다면 최종 출력값은 입력값과 가중치의 선형 조합으로 표현되므로 입력 데이터의 비선형 관계를 표현할 수 없음신경망이 입력 데이터의 비선형 관계를 잘 학습할 수 있도록 하기 위해 비선형 활성화 함수가 필요1-1. 시그모이드import numpy as npimport matplotlib.pyplot as pltdef sigmoid(x): return 1 / (1 + np.exp(-x))x = np.arange(-5.0,5.0,0.1)y = sigmoid(x)plt.plot(x,y)# 가운데 점선 추가#.. 2024. 6. 13. 이전 1 다음