본문 바로가기
[비디오이미지프로세싱] 17. Convolutional Neural Networks Lecture 17 •Introduction to Deep Learning Continued.. • Layers in Convolutional Neural Networks (CNN) • Types of Layers • Fully Connected (FC), Convolution, Pooling, Softmax… Convolutional Neural Networks (CNN) 합성곱 신경망 나의첫 6장 p.236~257 밑시딥 7장 p.227~260 모두딥 16장 p. 209~240 CNN이란? CNN 쉽게 이해하기 컨볼루션 신경망은 입력된 이미지에서 다시 한번 특징을 추출하기 위해 커널(=필터, 슬라이딩 윈도)을 도입하는 기법임.(collection of layer) 새롭게 만들어진 층을 컨볼루션(합성곱.. 2022. 10. 19.
[비디오이미지프로세싱] 14~16. Loss Function & Optimization, Neural Networks & Backpropagation Lecture 14 • Recap: Linear Classification • Loss Function & Optimization • Regularization • Overfitting & Underfitting • Optimization Lecture 15 • Neural Networks 신경망 • Introduction • Backpropagation 역전달(역전파) Lecture 16 •Introduction to Deep Learning • Recap: • Computational Graph • Backpropagation • Brief History • Types of Layers • Fully Connected (FC), Convolution, Pooling, Softmax… Linear Cl.. 2022. 10. 19.
[비디오이미지프로세싱] 11~13. k-means, Principal Component Analysis Lecture 11 • Traditional Unsupervised Learning • Clustering method: k-means Lecture 12 • Traditional Unsupervised Learning • Principal Component Analysis (PCA) 주성분 분석 • :Dimensionality Reduction 차원 축소 Lecture 13 • Tutorials of kMeans (Image Segmentation) kMeans (Image Segmentation) k 평균 알고리즘 나의첫 4.7장 p.140~149 3차 과제 Classification(지도학습-분류)은 label 개수가 정해져있지만 Clustering(비지도학습-군집화)은 label 개수가 미리 정해.. 2022. 10. 19.
[비디오이미지프로세싱] 08~10. Support Vector Machine Lecture 8 • Traditional Classification Methods • K-Nearest Neighbors (KNN) continued • Validation sets: hyperparameter tuning Lecture 9 • Traditional Classification Methods • Support Vector Machine (SVM) Lecture 10 • Tutorials of k-nearest neighbors (kNN) • Image Classification • Cross Validation Support Vector Machine (SVM) 서포트 벡터 머신 나의첫 4.3장 p.57~74 https://skyil.tistory.com/m/150 ex) 서울 어딘가에 .. 2022. 10. 19.
[비디오이미지프로세싱] 05~07. Stochastic Gradient Descent, K-Nearest Neighbors Lecture 5 • Gradient Descent (GD) Continued (Extension to Higher Dimension) • Stochastic Gradient Descent (SGD) 확률적 경사 하강법 Lecture 6 • Traditional Classification Methods • K-Nearest Neighbors (KNN) Lecture 7 • Tutorials of Linear Regression Stochastic Gradient Descent (SGD) 확률적 경사 하강법 밑시딥 6.1.2장 p.190~191 모두딥 9장 p.122~123 나의첫 5.8.5장 p.208~209 https://everyday-deeplearning.tistory.com/m/entry/SGD.. 2022. 10. 19.
[비디오이미지프로세싱] 03~04. Linear Regression, Gradient Descent Lecture 3 • Linear Regression 선형 회귀 • Gradient Descent 경사 하강 Lecture 4 • Tutorials of Python and necessary libraries 지도학습과 비지도학습 - 학습 : 데이터를 특별한 알고리즘에 적용해 머신러닝 모델을 정의된 문제에 최적화하는 과정 - 지도학습 (Supervised Learning) : 정답을 알려주면서 진행되는 학습. 학습시 데이터와 함께 레이블(=정답, 실제값, 타깃, 클래스, y값)이 항상 제공됨. 주로 주어진 데이터와 레이블을 이용해 새로운 데이터의 레이블을 예측해야 할 때 사용됨. 예측값은 분류값, y hat 등으로도 표현함. 장점 : 손쉽게 모델의 성능을 평가할 수 있음. 단점 : 데이터마다 레이블을 달.. 2022. 10. 18.