분류 전체보기
-
ResNet-101 Classification 실습 연습deep learning/computer vision 2024. 2. 11. 23:53
Computer Vision에서의 classification model들에 대한 outline을 검토하면서, 대표적인 모델인 ResNet-101을 활용하여 CIFAR10 데이터셋에 대한 기본적인 classification 모델을 실습해보고자 한다. PyTorch를 활용하여 Classfication 학습 및 테스트 모델을 만들어보면서, 모델 구축에 사용되는 PyTorch 문법을 연습해보고, Classification Model의 전체적인 Architecture를 학습하고, 주요 Hyper-Parameter들에 대한 조정을 통한 성능 변화 여부 검토, Loss Function 및 Optimizer에 대한 분석을 진행해보려고 한다. Classification Model Architecture는 크게 6단계로 ..
-
Classficiation Model Outlinedeep learning/computer vision 2024. 2. 10. 21:38
Conputer Vision에 있어 주요 Classification Model들의 탄생 배경과 특징, architecture 구성과 의의 및 한계에 대해서 간단하게 요약해보고자 한다. 주요 model에 대해서는 paper review를 통해 자세하게 분석하고, 코드 리뷰까지 해보려고 한다. Annotiation 데이터 집합의 데이터 정보 또는 레이블을 추가하는 프로레스 (데이터에 대한 추가 정보를 제공하는 것) 종류 : bounding box, keypoint, segmentaiton bounding box : 이미지 내 개체의 위치 및 크기를 정의 keypoint : joint 혹은 landmark와 같은 개채 내의 특정 관심 지점을 표시 segmentation : 이미지 내 객체의 경계를 포함하는 것..
-
Classification Evaluation Metricsdeep learning/computer vision 2024. 2. 9. 14:34
Confusion Matrix(혼동 행렬, 오차 행렬) 분류 모델(classifier)의 성능을 측정하는 데 자주 사용되는 표로 모델이 두 개의 클래스를 얼마나 헷갈려하는지 알 수 있다. T(True): 예측한 것이 정답 F(False): 예측한 것이 오답 P(Positive): 모델이 positive라고 예측 N(Negative): 모델이 negative라고 예측 TP(True Positive): 모델이 positive라고 예측했는데 실제로 정답이 positive (정답) TN(True Negative): 모델이 negative라고 예측했는데 실제로 정답이 negative (정답) FP(False Positive): 모델이 positive라고 예측했는데 실제로 정답이 negative (오답) FN(Fa..
-
Generative AI with Diffusion Models 01lecture 2024. 2. 8. 00:43
강의 수강 내용 과정에서 의미있었던 부분으로 내용을 정리해보려고 한다. 완벽한 짜임새 혹은 내용의 전문성 보다도 기억에 남는 키워드와 내용들, 필기했던 부분들을 남겨보려고 한다. 강의에서 배운 딥러닝 모델, 코드 구현, 프로젝트, 각종 개념 등은 다른 카테코리에서 따로 다뤄보는 것을 목표로 한다. Diffusion model은 deep generative model로, 주어진 text와 묘사대로 학습 데이터에 없는 형태의 이미지를 생성한다. (GAN과의 차이점) Diffusion model의 back bourne model은 U-Net이다. U-Net은 모델의 모양이 U자라고 해서 붙어진 이름으로, 그 구조는 Auto Encoder와 GAN과 상당히 유사하며, VAE의 아이디어를 많이 차용하고 있다. U..
-
Auto Encoderdeep learning/generative model 2024. 2. 7. 23:23
1. 개념 입력을 출력으로 복사하는 신경망으로, Encoder를 통해 데이터를 암호화하고, Decoder를 통해 암호화된 데이터를 재출력하는 역할을 수행하는 비지도 학습 모델 2. Auto Encoder 설계 아이디어 PCA(Principal Component Analysis)의 아이디어를 차용한 것으로, 더보기 * PCA 상관관계가 있는 고차원의 자료를 자료의 변동을 최대한 보존하는 고유값과 고유 벡터를 이용하여 저차원의 자료로 변환시키는 분석 기법으로, 차원의 수는 줄이면서 자료의 핵심 attribute만 계승함으로써 데이터의 복잡도를 줄여 computing cost를 절약하고, 데이터의 가장 중요한 변동성을 나타냄으로서 데이터의 탐색과 해석에 도움을 주는 데이터 분석 기법 input data를 x,..
-
-
-
Batch Normalizationdeep learning/normalization 2024. 2. 6. 23:55
개념 Neural Network에서 Mini Batch 단위로 입력되는 각 Layer의 입력을 정규화하여 학습을 안정화 시키는 학습 기술 Batch Normalization Layer에서 Normalization 기본 전제 전체 (N, 28, 28, 1) 데이터에 대해 batch_size = n 일 경우, Mini Batch = N/n개이고, 최초 Conv2D Layer의 kernel unit = 75, kernel size = (3, 3), input shape = (28, 28, 1)일 때 작동 원리 75개의 각 커널은 random하게 선택된 1개의 Mini Batch 내 모든 data point에 대해 Convolution 연산을 수행하고, 그 결과 값으로 각 data point에 대한 평균값과 분..