AI
-
[AI] Pandas (작성중)AI 2023. 5. 12. 14:36
Pandas데이터 조작 및 분석을 위해 Python 프로그래밍 언어로 작성된 software library입니다. 적용되는 데이터- SQL 테이블 또는 Excel 스프레드 시트에서와 같이 이질적으로 유형이 지정된 열이 있는 테이블 형식 데이터- 행 및 열 레이블이 포함된 임의의 행렬 데이터- 시계열 데이터- 다른 형태의 관찰 / 통계 데이터 세트 함수차원이름설명1차원Series균일한 유형의 배열로 표시된 1차원 데이터.테이블의 열과 같다.모든 유형의 데이터를 보유하는 1차원 배열.2차원DataFrame2차원 배열 또는 행과 열이 있는 테이블과 같은 2차원 데이터 구조. DataFrame다중 함수 적용하는 Method는 다음과 같다.- 테이블 형태로 정리해주는 함수 어플리케이션 : pipe()- 행 혹은 ..
-
[AI] Gradient Descent Methods (경사하강법)AI 2023. 4. 4. 11:01
Stochastic gradient descentsingle sample에서 계산된 기울기(Gradient)로 업데이트합니다. Mini-batch gradient descent데이터의 하위 집합(subset)에서 계산된 기울기(Gradient)로 업데이트합니다. Batch gradient descent전체 데이터에서 계산된 기울기(Gradient)로 업데이트합니다. Batch-Size Matters(문제) Batch-SizeBatch-Size란 모델 학습 중 parameter를 업데이트할 때 사용할 데이터 개수를 의미합니다. 즉, 연산 한 번에 들어가는 데이터의 크기입니다.Batch 크기 만큼 데이터를 활용하여 모델이 예측한 값과 실제 정답간의 오차(손실함수)를 계산하여 Optimizer가 paramte..
-
[AI] Optimization(최적화)AI 2023. 4. 3. 22:08
Optimization최적화는 신경망 분야에서 손실함수의 값을 최소화하는 Hyper Paramter의 값을 찾는 것을 말합니다.(Hyper Parameter : 사용자가 직접 정의하는 Parameter)Batch Size, Learning rate 등 모델에 관한 Hyper Paramter를 말합니다. 최적화 방법으로 대표적으로 확률적 경사하강법(Stochastic Gradient Descent, SGD)가 있습니다. 2차 함수가 있을 때, Learning rate(lr)을 따라 하강합니다.Learning rate는 Hyper Paramter로, Learning rate가 작으면 하강하는 속도가 느려져 학습을 시키는데 시간이 많이 걸리고, Learning rate가 너무 크면 하강하는 폭이 커져서 학습이..
-
[AI] Neural Network, 활성 함수, MLPAI 2023. 4. 3. 19:42
Neural Network (신경망)인공신경망 뉴런 모델은 생물학적인 뉴런을 수학적으로 모델링한 것입니다.여러개의 뉴런으로부터 입력 값을 받아서 세포체(cell body)에 저장하다가 자신의 용량을 넘어서면 외부로 출력 값을 내보내는 것처럼, 인공신경망 뉴런은 여러 입력값을 받아서 일정 수준을 넘어서면 활성화되어 출력값을 내보냅니다.신경망은 선형 모델과 활성함수를 합성한 함수입니다.활성화 함수활성화 함수는 선형 함수가 아닌 비선형 함수여야 합니다.선형 함수란 출력이 입력의 상수배만큼 변하는 함수입니다.예를 들어 f(x) = wx + b 일 때, (w, b는 상수) 직선 그래프가 나옵니다.반대로 비선형 함수는 직선 1개로 그릴 수 없는 함수입니다.인공 신경망의 능력을 높이기 위해서는 은닉층을 계속 추가해야..
-
[AI] 딥러닝 기초AI 2023. 3. 31. 23:25
Key Components of Deep Learning▶Data▶Model▶Loss▶AlgorithmDatamodel이 학습하는 dataModelData를 변환(transform)하는 방법Model의 성질에 따라 결과가 달라진다.종류▶ AlexNet▶ GoogLeNet▶ ResNet▶ DenseNet▶ LSTM▶ DeepAutoEncoders▶ GANLossLoss Function(=cost function)Model 성능의 "나쁨"을 나타내는 지표 → "현재 Model이 Data를 얼마나 잘 처리하지 못하냐"를 나타내는 지표.(데이터를 토대로 산출한 model의 예측 값과 실제 값의 차이를 표현하는 지표)달성하고자 하는 것의 근사치(proxy).위 그림은 간단하게 그린 학습 로직입니다.Input1이 ..
-
[AI] seabornAI 2023. 3. 27. 14:22
SeabornMatplotlib 기반 통계 시각화 라이브러리 Categorical API데이터의 기본 통계량 Countplot 함수countplot함수는 seaborn의 Categorical API에서 대표적인 시각화로 범주를 이산적으로 세서 막대 그래프로 그려주는 함수입니다. Parameter-x : data frame(pandas)의 feature, x축 범주 지정-y : data frame(pandas)의 feature, y축 범주 지정-data-hue : data frame(pandas)의 feature, 색상 적용할 attribute name(=head)지정 - hue_order : 색 구분을 위한 색 순서 지정-order : data 순서 지정-palette : 색상 지정-c..
-
[AI] Week3 학습 정리AI 2023. 3. 23. 17:59
RNNRNN은 Short-Term dependency를 잘 잡지만, Long-Term dependency는 잘 못잡는다.→해결하기 위해 LSTM 나옴LSTM은 Gate 3개 사용 → Parameter 많이 필요→ Parameter 줄이기 위해 Gate하나 없앤 Gated Recurrent Unit 나옴AttentionAttention이란?Decoder에서 출력 단어를 예측하는 시점마다 Encoder에서의 전체 입력 문장을 다시 한 번 참고하는 것 Self-Attention이란?단어 간의 관계성 연산 결과를 활용하여 연관성이 높은 단어끼리 연결해주기 위해 활용하는 것 Attention 과 Self-Attention 의 차이Attention과 Transformer의 Self-Attention는 비슷하지만 차..