AI

CS 182: Lecture 2, Part 1,2: Machine Learning Basics

꼰딩 2025. 10. 30. 18:12

Part 1

 

머신러닝의 학습 종류에는 여러가지가 있는데 대표적인게 아래 3가지이다.

1. 지도학습 (superised learning)

정답이 있는 데이터로 학습시켜서 x에 대해 y를 예측

학습데이터: (x, y) 처럼 x와 y(정답)이 한쌍으로 이루어져 있다.

함수에 대한 세타, 즉 파라미터를 구하는데 최대한 실제 y와 가까워 지도록 자동으로 설정함

2. 비지도학습 (unsupervised learning)

정답이 없는 데이터로 학습시켜서 표현을 학습

예를들어 generative modeling (이미지 생성 등), self-supervised representation leraning 등이 있다.

최근 핫한 llm으로 이미지 생성하는것들이 이거에 속한다. 이미지를 생성하면 그 이미지는 실제 존재하는 사람, 사물이 아니니까.

3. 강화학습 (reinforcement learning)

행동에 대한 피드백을 받으면서 점점 보상이 큰 쪽으로 답을 교정

강화학습은 지도학습을 포함한다.

또 다른 예시: 공부, 유튜브 추천, 광고, 치료 등

 

Part 2

확률을 예측하는게 이산적인 레이블을 예측하는것보다 자연스럽고 학습하기 쉽다.

이산적인 레이블은 a or b or c 이런식으로 명확하게 구분이 있다.

확률은 a일 확률 0.3, b일 확률 0.5, c일 확률 0.2 처럼 연속적인 값으로 표현할 수 있고, 점진적으로 변할 수 있다.

즉, smoothness 하게, 오차를 줄이는 방향으로 부드럽게 변할 수 있다.

 

그래서 계산식도 확률을 예측하는 함수로 표현한다.

그런데 확률은 항상 양수여야하고, 각각의 확률을 전부 더했을때 결과가 1이 되어야 한다.

어떤 함수든 상관없고 위 조건만 만족하면 된다.

 

softmax는 지수함수(exp)를 사용한다.

분모에는 각 score의 지수합, 분자에는 해당 요소의 score의 지수이므로 모든 확률을 합한것은 1이 된다.

지수함수는 실수 전체를 0~무한대로 1:1 매핑하므로 적합하다.

softmax는 argmax를 부드러운 형태로 일반화한 함수이다.

 

---

이전에 공부했을때보다 설명이 풍부해서 좋습니다.

특히 왜 소프트맥스를 도입하게 되었는지, 왜 확률로 따지는지 설명이 제일 좋네요.