본문 바로가기

인공지능4

Tensor of PyTorch 우리가 딥러닝 모델을 훈련시키거나 테스트할 때, 데이터(이미지, 텍스트 등)를 일정한 형태의 벡터로 변환한 뒤 그것을 인공 신경망의 입력으로 넣어 결과가 나올 때 까지 진행시킨다. 벡터들은 수의 집합으로 이루어져 있고, 딥러닝 모델의 성능을 높인다는 것은 곧 원하는 답이 출력되도록 얼마나 파라미터들이 최적화되어있느냐는 질문과 동일하다. 결론적으로 잘 작동하는 딥러닝 모델을 만들기 위해 실제 세계의 데이터들을 적절히 변환하여 딥러닝 모델이 소화할 수 있는 형태로 만들어줘야 한다. 딥러닝 모델을 설계를 위해서 PyTorch는 근본적인 데이터 구조인 텐서(Tensor)를 제공한다. 파이토치의 Tensor는 하나의 데이터 형으로, 차원 수에 관계 없이 일반화된 벡터 또는 행렬이라고 볼 수 있다. 즉, 하나의 숫.. 2024. 2. 28.
PyTorch로 사전학습 된 모델 사용하기 사전학습 된 모델(pretrained models)을 사용하는 것은 굉장히 유용하다. 이제 막 머신러닝(딥러닝)에 첫 발을 내딛는 나와 같은 초심자도 딥러닝 전문가들이 시간과 지식을 갈아 넣어 만들어 놓은 모델들을 통해 빠르고 쉽게, 그리고 높은 성능을 내는 모델을 사용할 수 있기 때문이다. 심지어 딥러닝에 대한 지식이 없는 사람도, 사전학습 된 모델을 통해 꽤 그럴듯한 모델을 만들 수 있다. 이처럼 사전학습 된 모델을 내가 수행하려는 작업에 맞추어 파라미터를 조정하는 것을 파인 튜닝(Fine-Tuning)이라고 한다. 이제 어떻게 파이토치로 사전학습 된 모델을 사용할 수 있는지 살펴보자. 파이토치를 사용하기 위한 가상환경이나 필요한 라이브러리는 미리 다운받아놓았다. CV(Computer Vision)과.. 2024. 2. 21.
MAP MLE에 이어 MAP에 대해 정리해보자. 사실 MLE를 이해했다면 MAP 또한 어렵지 않게 이해할 수 있을 것이다. MAP(Maximum A Posterior, 최대 사후 확률)는 베이즈 통계학에서 사후 확률의 최빈값(mode)을 가리킨다. 최대 사후 확률에 대응하는 모수(Parameter)는 MLE와 마찬가지로 모수의 점 추정으로 사용할 수 있지만, 최대우도에서는 어떤 사건이 일어날 확률을 가장 높이는 모수를 찾는 것에 비해, 최대 사후 확률 모수는 모수의 사전 확률과 결합된 확률을 고려한다는 점이 다르다. (출처 - 위키백과) 위 정의를 다시 설명해보자면, MAP 또한 MLE와 거의 비슷한 방식으로 파라미터를 추정하는데, MAP에는 MLE와 다르게 Parameter의 사전 확률과 결합된 확률을 함께 .. 2024. 2. 15.
MLE MLE(Maximum Likelihood Estimation, 최대우도법)란 어떤 확률변수에서 추출(sampling)한 값들을 토대로 그 확률변수의 모수(parameter)를 구하는 방법이다. 어떤 모수가 주어졌을 때, 원하는 값들이 나올 가능도(likelihood)를 최대로 만드는 모수를 선택하는 방법이다. (출처 - 위키백과) 예를 들어, 우리가 윷을 던져 앞면 또는 뒷면이 나오는 확률을 구하는 실험을 한다고 해보자. 윷을 던져 앞면(납작한 면)이 나오는 경우를 H, 뒷면(볼록한 면)이 나오는 경우를 T라고 해보자. 동전 대신 윷을 예시로 선택한 이유는 동전의 경우 앞, 뒤가 나올 확률을 자명하게 50:50으로 예측 가능 하지만, 윷은 앞 뒷면의 모양이 다르므로 단순하게 확률을 50:50으로 단정지을.. 2024. 2. 14.