IT/ML

[Machine Learning] 인공지능이란?

aram 2022. 11. 3. 01:30

 

인공지능 ⊃ 머신러닝 ⊃ 인공신경망 ⊃ 딥러닝

인공지능 : 인간이 가진 지적 능력을 컴퓨터를 통해 구현하는 기술
머신러닝 : 알고리즘을 이용해서 컴퓨터가 데이터로부터 스스로 학습해서  판단이나 예측을 수행하는 인공지능의 성능을 향상시키는 방법
딥러닝 : 인공신경망을 기반으로 복잡하고 비선형적인 문제를 스스로 학습해서 문제해결하는 기술

 

>> 이러한 알고리즘은 사물 분류패턴 발견결과 예측정보 기반 의사결정 등을 수행하도록 설계됨

 


머신러닝 학습 종류

- 지도학습(Supervised Learning) : 특징(Feature)와 정답(Label)을 학습시킴(정답이 있는 데이터 활용&학습)
    > 회귀(예측), 분류
- 비지도학습(Unsupervised Learning) : 정답이 없이 데이터의 특징(입력데이터)만 학습, 데이터간의 관계를 찾는 학습방법
    > 군집(Clustering), 연관, 차원축소
- 강화학습 : 학습하는 시스템이 행동을 실행하고 그 결과에 따른 보상이나 벌점(숫자)을 받는 방식으로 학습
    > 알파고, 고위험 주식 시장 등
- 준지도학습 : 한 쪽의 소량 데이터에 있는 추가 정보를 활용해 다른 대용량 데이터 학습에서의 성능을 높이는 것을 목표
    > ‘데이터 labeling’ 작업에 소요되는 많은 자원과 비용 때문에 등장

지도학습
(Supervised Learning)
Classificaion(분류)
: 범주형 분류
: 질적
: 평가측도(MSE, MAE, MAPE, RASE..)
- kNN 
- Naive Bayes 
- Support Vector 
- Logistic Regression 
- Decision Tree 
- Random Forest 
- Neural Network
Regression(회귀)
: 연속형 수치 예측
: 양적
: 평가측도(오분류율, 특이도, 민감도...)
- Linear Regression 
- Locally Weighted Linear
- Ridge
- Lasso
비지도학습
(Unsupervised Learning)
  - Clustering
- K-Means
- Density Estimation
- Exception Maximization
- Pazen Window
- DBSCAN

- 그룹화(grouping) : 군집분석, 연관성분석 계열
- 차원축소(dimensionmality reduction) : 변수선택, 변수 결합

 


- 예측 주목적 : 해석이 난해한 모형도 후보 모형 (인공신경망, 랜덤 포레스트, SVM, 딥러닝 모형 등) => 블랙박스 모형

- 추론 주목적 : 해석이 쉽고 직관적인 모형, 관계파악이 주목적 (의사결정나무, 회귀모형 등) => 화이트박스 모형


변수 간 관계

- 독립관계(영향x)

- 상관관계(한 변수가 변하면 다른 한 변수도 변화)

- 인과관계(한 변수가 다른 변수의 변화에 원인 되는 관계): 성립조건 - 시간우선성, 공변성, 외생변수통제

- 쌍방항적 인과관계(원인과 결과과 동시에 될 수 있음 > 인과성이 쌍방으로 미침)

- 조정관계(독립변수가 종속변수에 미치는 영향력이 독립변수2(조절변수)에 따라 다른 경우

- 매개관계(독립변수의 결과면서 동시에 종속변수의 원인이 되는 변수의 관계)

- 참고: https://m.blog.naver.com/ad_factory/110187577997

 


딥러닝 동작원리

- 단층 퍼셉트론(single layer perceptron)

출처 : https://velog.io/@hyunsuki/Single-layer-Perceptron(단층 퍼셉트론)

> 각 노드의 입력치*가중치의 합과 활성화 함수가 가지고 있는 임계치와 비교

 

- 다층 퍼셉트론(MultiLayer Perceptron, MLP)
: 비선형 문제까지도 해결 가능
: 심층 신경망 (Deep Neural Networks)으로 불림
: 수동으로 특징을 추출하지 않고 데이터에서 직접 기능을 학습하는 신경망 아키텍처와 함께 레이블링된 대단위 데이터를 활용하여 훈련

출처: https://m.blog.naver.com/PostView.naver?isHttpsRedirect=true&blogId=msnayana&logNo=221015378970

단층 퍼셉트론들의 조합으로 신경망은 상호 연결된 노드의 집합으로 구성되어 있는 레이어로 이뤄짐

 


딥 신경망 유형

- CNN(Convolutional Neural Networks) ConvNet
: 이미지에서 직접 특징을 추출하여 작동
: 사전 훈련되지 않으며 네트워크가 이미지 모음에서 훈련하는 동시에 학습
: 수십 개 또는 수백 개의 숨겨진 레이어를 사용하여 이미지의 다른 특징을 감지하는 방법을 학습 
: 숨겨진 모든 레이어는 학습된 이미지 특징의 복잡도를 증대합니다.

https://velog.io/@sorij95/CNN-1

 

- 순환신경망(RNN. Recurrent Neural Network)
: 순차적 정보가 담긴 데이터에서 규칙적인 패턴을 인식하고, 추상화된 정보를 추출 
: 텍스트, 음성, 음악, 영상 등 순차적 데이터를 다루는 데 적합
: 그레디언트 소실 문제(Gradient Vanishing Problem)가 있어 패턴 학습을 못하는 경우를 개선하기 위해, LSTM(Long Short Term Memory)가 개발됨
: 자동 작곡, 작사, 저술, 주가 예측 등 다양한 분야에 활용

출처 : https://dhpark1212.tistory.com/entry/RNN-LSTM

 

- 볼츠만 머신(RBM. Restricted Boltzmann Machine)
: 확률밀도함수(probability density function, pdf)를 모델링하는 Generative Model
: 목적 = 확률분포를 정확히 학습해 좋은 sample을 sampling하는 것

출처: https://angeloyeo.github.io/2020/10/02/RBM.html  원본: https://www.asimovinstitute.org/neural-network-zoo/

 

- 심층 신뢰 신경망(DBN. Deep Belief Network)
: 잠재 변수(latent variabl)의 다중 계층으로 이뤄진 신경망
: 사전 훈련된 RBM을 층층이 쌓아 올린 구조
: 라벨이 없는 데이터에 대한 비지도학습 가능
: 부분적인 이미지에서 전체를 연상하는 일반화, 추상화 과정을 구현 가능

출처 : http://blog.skby.net/심층신뢰망 (DBN, Deep Belief Network)

 

- GAN(Generative Adversarial Network. 생성 대립 신경망)
: 비지도 학습 방법
: 훈련으로 학습된 패턴을 이용해, 이미 지나 음성을 생성할 수 있다.
: 이미지 및 음성 복원 등에 적용

출처 : https://m.blog.naver.com/euleekwon/221557899873

 

* 내용참고&출처 : 태그에서 수강한 수업을 복습 목적으로 정리한 내용입니다.