분류 전체보기
-
[docker] vscode ssh 접속(Linux container 원격 접속)Server/Raspberry Pi 2023. 4. 6. 17:50
로컬 환경 : windows , vscode가 설치된 환경 서버 환경 : linux, docker container - docker container : ubuntu linux Visual Studio Code > extension Remote - SSH extension에서 "Remote - SSH" ssh 확장 프로그램을 설치합니다. 설치 후 "F1" 버튼을 눌러 ">ssh:Connect to Host..." 를 클릭합니다. 해당 칸에 [name]@[IP]:[port] 형식으로 입력합니다. 해당 서버에 접속하기 위한 서버의 패스워드를 입력합니다. vscode의 exploere를 클릭하면 다음과 같은 화면이 나옵니다. 접속한 linux server의 디렉토리를 오픈할 수 있습니다. ssh연결한 linu..
-
[AI] Gradient Descent Methods (경사하강법)AI 2023. 4. 4. 11:01
Stochastic gradient descentsingle sample에서 계산된 기울기(Gradient)로 업데이트합니다. Mini-batch gradient descent데이터의 하위 집합(subset)에서 계산된 기울기(Gradient)로 업데이트합니다. Batch gradient descent전체 데이터에서 계산된 기울기(Gradient)로 업데이트합니다. Batch-Size Matters(문제) Batch-SizeBatch-Size란 모델 학습 중 parameter를 업데이트할 때 사용할 데이터 개수를 의미합니다. 즉, 연산 한 번에 들어가는 데이터의 크기입니다.Batch 크기 만큼 데이터를 활용하여 모델이 예측한 값과 실제 정답간의 오차(손실함수)를 계산하여 Optimizer가 paramte..
-
[AI] Optimization(최적화)AI 2023. 4. 3. 22:08
Optimization최적화는 신경망 분야에서 손실함수의 값을 최소화하는 Hyper Paramter의 값을 찾는 것을 말합니다.(Hyper Parameter : 사용자가 직접 정의하는 Parameter)Batch Size, Learning rate 등 모델에 관한 Hyper Paramter를 말합니다. 최적화 방법으로 대표적으로 확률적 경사하강법(Stochastic Gradient Descent, SGD)가 있습니다. 2차 함수가 있을 때, Learning rate(lr)을 따라 하강합니다.Learning rate는 Hyper Paramter로, Learning rate가 작으면 하강하는 속도가 느려져 학습을 시키는데 시간이 많이 걸리고, Learning rate가 너무 크면 하강하는 폭이 커져서 학습이..
-
[AI] Neural Network, 활성 함수, MLPAI 2023. 4. 3. 19:42
Neural Network (신경망)인공신경망 뉴런 모델은 생물학적인 뉴런을 수학적으로 모델링한 것입니다.여러개의 뉴런으로부터 입력 값을 받아서 세포체(cell body)에 저장하다가 자신의 용량을 넘어서면 외부로 출력 값을 내보내는 것처럼, 인공신경망 뉴런은 여러 입력값을 받아서 일정 수준을 넘어서면 활성화되어 출력값을 내보냅니다.신경망은 선형 모델과 활성함수를 합성한 함수입니다.활성화 함수활성화 함수는 선형 함수가 아닌 비선형 함수여야 합니다.선형 함수란 출력이 입력의 상수배만큼 변하는 함수입니다.예를 들어 f(x) = wx + b 일 때, (w, b는 상수) 직선 그래프가 나옵니다.반대로 비선형 함수는 직선 1개로 그릴 수 없는 함수입니다.인공 신경망의 능력을 높이기 위해서는 은닉층을 계속 추가해야..
-
[AI] 딥러닝 기초AI 2023. 3. 31. 23:25
Key Components of Deep Learning▶Data▶Model▶Loss▶AlgorithmDatamodel이 학습하는 dataModelData를 변환(transform)하는 방법Model의 성질에 따라 결과가 달라진다.종류▶ AlexNet▶ GoogLeNet▶ ResNet▶ DenseNet▶ LSTM▶ DeepAutoEncoders▶ GANLossLoss Function(=cost function)Model 성능의 "나쁨"을 나타내는 지표 → "현재 Model이 Data를 얼마나 잘 처리하지 못하냐"를 나타내는 지표.(데이터를 토대로 산출한 model의 예측 값과 실제 값의 차이를 표현하는 지표)달성하고자 하는 것의 근사치(proxy).위 그림은 간단하게 그린 학습 로직입니다.Input1이 ..
-
[AI] seabornAI 2023. 3. 27. 14:22
SeabornMatplotlib 기반 통계 시각화 라이브러리 Categorical API데이터의 기본 통계량 Countplot 함수countplot함수는 seaborn의 Categorical API에서 대표적인 시각화로 범주를 이산적으로 세서 막대 그래프로 그려주는 함수입니다. Parameter-x : data frame(pandas)의 feature, x축 범주 지정-y : data frame(pandas)의 feature, y축 범주 지정-data-hue : data frame(pandas)의 feature, 색상 적용할 attribute name(=head)지정 - hue_order : 색 구분을 위한 색 순서 지정-order : data 순서 지정-palette : 색상 지정-c..