본 내용은 유투브 강의를 바탕으로 작성되었습니다.
링크 : www.youtube.com/watch?v=3QjGtOlIiVI&list=PL1Kb3QTCLIVtyOuMgyVgT-OeW0PYXl3j5&index=1
이미지는 3D array 이다.
L1 distance 는 이미지 1과 이미지 2의 절대값을 취한 형태의 모든 합
distances 한 줄로 가장 가까운 train image 찾는다.
L1 을 사용할 지 L2를 사용할 지는 여러 실험을 통해 최적의 파라미터를 찾아야 한다. 이를 하이퍼파라미터라고 함.
-100%, 트레이닝 데이터셋에 동일한 이미지가 존재하기 때문에 distance가 0, 자기 자신과 비교하는 셈.
Q. 잉 먼말이지.
-상황에 따라 다름. 1위는 정확한 클래스 예측하겠지만, 2위,3위는 엉뚱한 클래스를 예측할 수도 있다.
최적의 distance 와 k 를 찾는 것이 바로 하이퍼파라미터를 찾는 것.
그렇다면 하이퍼파라미터를 찾기 위해 계속 바꿔가면서 테스트 셋을 사용해야 하나.
-절대 안된다. 테스트 셋은 최후에 사용해야 한다. 트레이닝 셋에서 해야 함.
파란 박스는 k = 5 일 경우를 뜻함.
해당 그림은 k=7일 때 매우 성능 좋다는 뜻 (빨간 세로줄)
가장 중요한 파트
리니어 클래시피케이션은 파라미터 기반의 접근 방식을 취함. (Parametric approach)
행렬 [32x32x3] 을 쭉 펴서 한 개의 거대한 컬럼으로 펼침 = 3072x1 컬럼이 만들어짐
결과적으로 우리가 컨트롤해야 하는것은 3072x1 이다.
10x1 이 나오기 위해 W 는 10x3072 이어야 한다.
f(x, W) 값이 낮으면 성능이 굉장히 낮다는 것을 의미한다.
리니어 클래식파이어 학습과정을 시각적으로 표현한 것.
리니어 클래식파이어가 분간하기 힘든 클래스는?
-형태는 같지만 컬러가 반대가 되는 사진, 형태는 다르지만 색상이 같은 경우, 그레이사진은 성능이 많이 떨어질 것이다.
스코어 펑션이 제일 낮은 개구리는 성능이 많이 안좋다는 거임.
이를 해결할 수 있는게 스코어를 로스 펑션으로 만드는 작업이 필요함.
loss 펑션: 나온 결과의 score가 어느정도 좋거나 나쁘냐 하는 것을 정량화 한 것. 이게 중요.
다음 강의에서 계속
'CS231n 공부하기' 카테고리의 다른 글
Lecture 13 | Generative Models (1) | 2021.01.12 |
---|---|
Lecture 7 | Training Neural Networks II (0) | 2020.12.01 |
Lecture 4 | Backpropagation and NN part 1 (0) | 2020.10.20 |
Lecture 3 | Loss fn, optimization (0) | 2020.10.19 |
댓글