본문 바로가기
Data Science

딥러닝 처음 접할 때 어려워하는 몇가지 핵심 개념들

by leanu 2024. 11. 8.

신경망 (Neural Network)

딥러닝의 핵심 구조는 '신경망'이에요. 신경망은 뇌의 신경세포(뉴런)가 연결되어 있는 방식을 본떠 만든 모델인데요.

여기서 뉴런은 데이터를 처리하는 작은 단위입니다.

 

신경망은 여러 층(layer)으로 구성되며,

이 층을 통해 데이터를 점점 더 복잡하게 처리할 수 있습니다.

 

 

학습 과정 (Training)

딥러닝 모델을 만든 뒤, 이 모델이 데이터를 바탕으로 스스로 배울 수 있게 하는 과정이 "학습" 과정입니다.

이때 모델은 처음에는 아무것도 모르고, 단순히 임의의 답을 내는데요.

임의의 답과 실제 답을 보고 틀린 부분을 수정하게 되고,

데이터를 많이 볼 수록 점점 더 정확한 예측을 할 수 있게 되죠.

 

 

역전파 (Backpropagation)

학습 과정에서 오차를 수정하는 방법이 바로 역전파입니다.

처음에 모델이 낸 답과 실제 답 사이의 차이(오차)를 계산하고,

그 오차가 각 층의 뉴런들에게 어떤 영향을 주는지 역으로 추적해 가며 각 뉴런이 가진 가중치(weight)를 조금씩 수정합니다.

이렇게 해야 모델이 다음엔 더 정확한 답을 낼 수 있습니다.

 

예를 들어, 수학 문제를 틀렸다면, 어디서 잘못 계산했는지,

어떤 공식이 틀렸는지 역으로 찾아서 수정해 나가는 과정과 비슷하죠.

역전파는 이러한 과정을 수학적으로 구현된 것이라 생각하면 됩니다.

 

 

과적합 (Overfitting)과 일반화 (Generalization)

과적합은 모델이 학습 데이터에 너무 집착해서, 새로운 데이터에 대한 예측을 잘 못하게 되는 현상입니다.

일반화는 다양한 데이터를 학습해도 새로운 데이터에 잘 대응할 수 있는 능력을 말해요.

 

예를 들면 모의고사만 달달 외운 학생은 모의고사는 잘 풀지만

실제 시험에서는 응용이 어려운 경우가 과적합에 해당되고요.

문제에서 핵심 원리를 이해한 학생은 조금 달라진 비슷한 유형의 문제도 잘 풀 수 있죠?

이런 경우 일반화가 잘되었다고 합니다.

딥러닝에서는 과적합을 방지하고 일반화를 높이기 위해 데이터를 다양한 방식으로 주입하거나 규제 기법을 활용한답니다.

 

 

'Data Science' 카테고리의 다른 글

Contrastive Learning  (2) 2024.11.12
트랜스포머 (Transformer) 모델  (1) 2024.11.09
Activation Functions  (0) 2024.11.07
precision & recall  (4) 2010.11.30
False positive & False negative  (0) 2010.11.08

댓글