
x = 신호(입력값)이라 하고, 영어로는 input이라고 함
w = 가중치라 하고, 영어로는 Weight라고 함(약자)
b = 편향이라 하고, 영어로 Bias라고 함(약자)
f = 활성화 함수라 하고, 영어로 Activation Function이라고 함
뉴런(노드)으로부터 전달받은 신호 x가, 시냅스에서 가중치 w가 곱해져서, 이것이 cell body로 들어간다. cell body에서 가중치가 곱해진다고 하는 글을 봐서 헷갈렸는데, 전자가 맞는 것이다. 이렇게 각기 뉴런과 시냅스를 거쳐 들어온 x*w의 값들이 cell body에 모여 전부 합쳐지고(가중합,sum), 이 합쳐진 값에 편향인 b값이 더해진다.
이렇게 더해진 값들은 활성화 함수를 거쳐 출력값(output)이 되어 나간다.
라는 것이 퍼셉트론의 기본 이론이라는 것은 알았는데, 왜 굳이 가중치와 편향 값을 더하는 것인지? 의문이 들어, 열심히 구글링 해 본 결과 https://jh2021.tistory.com/3 이 분의 글이 정말 명확하고 알기 쉽게 설명해 주고 있다. 데이터들마다 중요도가 모두 같을 리 없기 때문에, 중요도의 정도에 따라 w를 달리 해주어야 하고, 데이터들마다 각기 성향 또한 다르기 때문에 b값을 달리 해주어야 한다.
또한, 활성화 함수를 사용하는 이유에 대해서는 https://syj9700.tistory.com/37 이 분의 글이 도움이 되었다.
활성화 함수에 대한 자세한 내용은 다음 글에 작성하는 걸로.
'인공지능(ML) > 딥러닝' 카테고리의 다른 글
코드 실습: 선형 회귀(텐서플로우) (0) | 2023.09.16 |
---|---|
최적화 알고리즘: 경사하강법 (0) | 2023.09.16 |
비용함수를 쓰는 이유 (0) | 2023.09.16 |
목적함수, 비용함수 그리고 손실함수 (0) | 2023.09.16 |
선형 회귀 (0) | 2023.09.16 |