DeepLearning28 Loss function, Cost function, Objective-function * 손실 함수 ( loss function) --> "a data" * 비용 함수 ( cost function) --> "entire dataset" * 목적 함수 (objective function) --> "최대 최소값을 구하는 함수" * 머신러닝을 통한 예측값이 실제값과 차이(오차)와 관련된 식 * 이 함수의 값을 최소화 하거나 최대화 하는 목적의 식을 (objective function)이라고 함 * 예측값과 실제 값의 오차를 최소화 하면 비용함수 혹으 손실함수라고 한다. Objective function > Cost function > Loss function 2022. 2. 20. Disparity Map * stereo 정합을 위한 주 이미지 (left image, right image, 또는 왼쪽에서 보는 시야와 오른쪽에서 보는 시야를 말함) 에서의 객체의 위치 상이 다른 차이를 말한다. 이 차이를 parallax하게 만드는 것을 disparity Map이라고 한다. 우리의 뇌는 2차원 이미지로부터 Depth information을 계산하여 disparity를 계산한다. * pixel의 disparity는 그 픽셀에 대한 최소 제곱합들의 shift value와 같다. * 왼쪽 시야와 오른쪽 시야로부터 보이는 특징의 position 사이의 2D vector라고 설명할 수 있다. 이는 깊이에 반비례하고, 3차원 위치에(x,y,d)점으로 부터 mapping 될 수 있다. 2022. 2. 20. Translation equivariance vs Translation invariance * Equivariance란, 함수의 입력이 바뀌면 출력 또한 바뀐다는 뜻 * Translation equivariance는 입력의 위치가 변하면 출력이 동일하게 위치가 변한채로 나온다는 뜻이다. - 따라서 convolution 연산을 하면 translation equivariance 특성과 더불어 Parameter를 공유하기 때문에 필터 하나로 다양한 위치에서 특징을 추출할 수 있게 되고, 결국 이미지의 stationarity 가정과 잘 맞아 떨어지게 된다 * Invariance란 불변성이라는 뜻으로, 함수의 입력이 바뀌어도 출력은 그대로 유지되어 바뀌지 않는다. * Maxpooling -> 대표적인 small translation invariance 중 하나이다. * convolution과 Param.. 2022. 2. 20. ill-posed problem * 불량 조절 문제 * 수학적으로 1개의 유일한 정답이 존재하지 않는 문제 2022. 2. 20. 이전 1 ··· 4 5 6 7 다음