Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- IT연합동아리
- sending 404
- 자바
- 코틀린
- 빅데이터
- 이것만보면돼
- NEXTERS
- 딥러닝
- 알고리즘
- 안드로이드
- ubuntu
- kotiln
- 소켓통신
- ubuntu18.04
- cuda-10.2
- 빅데이터청년캠퍼스
- 청년인재
- nvcc
- Android
- 빅데이터청년인재
- resample2d_cuda
- 넥스터즈
- flownet
- utuntu
- 백준
- 인공지능
- clean architecture
- 데이터청년캠퍼스
- DataBinding Error
- 머신러닝
Archives
- Today
- Total
보초의 코딩일기장
데이터 청년 캠퍼스 17일차 본문
2019.07.23
perceptron
-
신경망의 목적은 내 답을 잘 찾아주는 Weight을 구하는 것임. 그리고 편향을 넣어서 학습이 되게끔 만드는 것
==> Y = W*X+b -
어떤 입력 노드가 출력 노드의 오차에 기여했다면 두 노드의 연결 가중치는 해당 입력 노드의 출력과 입력노드의 오차에 비례하여 조절한다. (가장 많이 틀린 값부터 수정하는 것임)
-
그런데, 퍼셉트론은 XOR을 선형으로 분류가 불가능. 그래서 비선형으로 문제를 해결해야 한다.
-
Delta Rule 학습과정
- 신경망의 가중치를 적당한 값으로 초기화
- 입력 데이터를 넣고 신경망의 출력값을 얻고 출력값과 실제 값의 오차를 계산
- 델타 규칙에 따라 가중치 갱신값을 계산
- 신경망의 가중치를 조절
- 전체 학습 데이터에 대해 2~4 단계를 반복
- 신경망의 오차가 줄어들 때 까지 2~5단계 반복
배열의 차원 수 확인 np.ndim()
배열의 형상 확인 shape()
Sigmoid 와 step function 차이:
- 매끄러움
- 계단 함수 : 0을 기점으로 출력이 급격하게 변화 ->학습이 잘 안됨
- 시그모이드 함수 : 입력에 따라 연속적 변화
1
2
3
4
5
6
7
8
9
10
11
12
|
import numpy as np
import matplotlib.pyplot as plt
def step_function(x):
return np.array(x>0,dtype=np.int)
X=np.arange(-5.0,5.0,0.1)
Y=step_function(X)
plt.plot(X,Y)
plt.ylim(-0.1,1.1)
plt.show()
|
cs |

1
2
3
4
5
6
7
8
9
10
|
def sigmoid(x):
return 1/(1+np.exp(-x))
X=np.arange(-5.0 , 5.0, 0.1)
Y=sigmoid(X)
plt.figure(figsize=(15,10))
plt.plot(X,Y)
plt.ylim(-0.1,1.1)
plt.show()
|
cs |

1
2
3
4
5
6
7
8
9
10
|
def relu(x):
return np.maximum(0,x)
X=np.arange(-5.0 , 5.0, 0.1)
Y=relu(X)
plt.figure(figsize=(15,10))
plt.plot(X,Y)
plt.ylim(-0.1,5)
plt.show()
|
cs |

'데이터청년캠퍼스' 카테고리의 다른 글
데이터 청년 캠퍼스 9~10일차 (0) | 2019.07.22 |
---|---|
데이터 청년 캠퍼스 사전 강의 (0) | 2019.07.05 |
데이터 청년 캠퍼스 2일차 (0) | 2019.07.05 |
데이터 청년 캠퍼스 1일차 (0) | 2019.07.05 |
빅데이터 청년캠퍼스 면접후기 (2) | 2019.07.05 |