본문 바로가기

전체 글

(22)
Notion으로 이동 ㄱㄱ https://spring-hat-f58.notion.site/My-Page-23040b3213f880038126fdcaafaa50f8
ABC 414 후기 오랜만에 복귀했는데 의외로 잘 쳤다? 풀이 A.$X_i \leq X \text{ and } Y \leq Y_i$인 갯수 카운팅 B. 숫자 다 더해서 100 넘으면 Too Long, 아니면 그대로 출력 C. 좀만 생각하니 https://www.acmicpc.net/problem/30446 이 문제가 생각이 났다. 1~1000000까지 돌아서 회문수 만든 다음에 $A$에 대해서도 회문인지 확인하면 끝. 중간에 범위를 착각한 바람에 1~100000까지 돌아서 틀리길래 10분 간 뇌정지가 왔었다. D.간단한 그리디 문제. 정렬한 후 구간의 길이를 구한 뒤 가장 큰 $m$개의 구간 길이를 빼면 정답. E.$a = bx + c, 1 \leq a, b, c, \leq N$을 만족하는 $N$의 갯수를 구하는 문제이다...
Lecture 11: Unsupervised Learning 오랜만에 쓴다...What is unsupervised learning? 비지도학습$($Unsupervised Learning$)$이란, 이때까지 어떤 데이터와 그 데이터에 대한 정답을 이용해 학습하는 방식과 다르게, 어떤 데이터에 대한 정답 없이 데이터의 특성을 학습하는 과정이다. 대표적으로 k-means $($EM algorithm의 일반화$)$ 등등이 있다. 이때 k-means란, 센트로이드들를 초기화한 뒤, 클러스터링을 해서 센트로이드들이 바뀌지 않을 때까지 다시 센트로이드들을 찾는 과정을 반복해서 적절한 센트로이드를 찾는 알고리즘이다. Does k-mean algorithm Terminate? 그런데, k-means 알고리즘은 항상 수렴할까? k-means 알고리즘의 비용함수는 $\mu^{c^{..
[단단한 강화학습] 1장 - 강화학습이란 강화학습이란? 주어진 상황에서 어떠한 행동을 취할지 학습하는 것. 행동의 결과는 최대한의 이득을 가져와야 하며, 그 이득의 함수는 수치적 표현이 가능해야 한다. 학습자는 어떤 행동을 취할지에 대한 어떠한 지침 없이 시행착오를 통해서 찾아내야 한다. 강화학습은 정답이 미리 존재하는 지도 학습이나 정답 없이 데이터에서 패턴을 읽어내야 하는 비지도학습과는 구별되는 제 3의 학습 방법이다.  강화학습의 구성 요소 정책: 특정 시점에서 학습자가 취하는 행동.보상 신호: 강화학습이 성취해야 할 목표를 정의함. 무엇이 좋은가를 즉각적으로 안내함.가치 함수: 장기적인 관점에서 평가한 지표.환경 모델: 현재 상태와 취해지는 행동으로부터 다음 상태와 보상을 예측.모델과 계획을 사용해서 강화학습 문제를 해결 $\righta..
Lecture 10 - Feature/Model Selection 모델의 복잡도$($Complexity measures$)$ 모델은 복잡도는 다음 두 요소와 관련되어 있다. 파라미터의 수파라미터의 노름Regularization 머신러닝에서 규제는 학습 과정에서 우리가 가진 training 데이터셋에 대한 overfitting 정도를 줄이고, 일반화 성능을 높이기 위한 도구이다. 학습 과정에서 규제는 $J(\theta) + \lambda R(\theta)$에서 $\lambda R(\theta)$ 항이다. 여기서 $\lambda$는 규제 $R$의 중요도를 조절하는 하이퍼파라미터이다. 규제로 사용되는 함수는 여러 가지가 있으나, 대표적으로 두 개를 따지자면 L1/L2 regularization이다. L1 regularization은 Lasso라고도 하며, $R(\theta)..
Lecture 9: Generalization & Regulazation training loss/error/cost 우리는 training을 할 때 손실 함수 J를 MSE$($Mean Squared Error$)$를 이용해서 $J(\theta) = \frac{1}{n}\sum_{i=1}^{n} (y^{(i)} - h_{\theta}(x_i))^2$로 정의한다. 우리는 gradient descent를 통해서 J를 줄여야 하나, 문제는 J가 줄어든다고 해서 항상 모델의 정확성이 높다는 것은 아니란 것이다. 그래서 우리는 training 말고 test를 할 때 모델의 정확성 평가를 위해 test에서도 독립적인 test 데이터셋 $D$를 이용해 손실 함수 $L$을 다음과 같이 정의한다. $L(\theta) = E_{(x, y) \sim D}[(y - h_{\theta}(x))^2]..
Chapter 5: 교대로 두는 게임에서 탐색 알고리즘 - 1 아래의 내용은 "게임 AI를 위한 탐색 알고리즘 입문"의 내용을 나름대로 정리한 것이다. 내가 짠 코드는 다음과 같으며, 책의 코드와 다를 수 있다.https://github.com/radicalparty/ai_search/tree/main/5이번에 알고리즘을 소개하기 위한 게임은 다음과 같다.  설명플레이어 목적게임이 종료될 때까지 높은 기록 점수를 얻음플레이어 수2인플레이어의 행동 타이밍대결 상대와 교대로 행동플레이어가 가능한 행동상하좌우 네 방향(가만히 있는 건 불가능)게임 종료 조건정해진 턴 수를 넘김기타캐릭터는 게임판 중심칸을 끼고 가로 방향으로 좌우 대칭이 되도록 배치. 캐릭터가 이동한 위치에 점수가 있다면 자기 점수에 더하고 위치의 점수를 0으로 만든다. 미로 구현 AlternateMazeS..
Lecture 8 - Neural Network Why Linear Regression not work well? 우리가 머신러닝을 실습할 때 자주 보는 문제인 여러 요소$($집 위치, 크기, 집의 질 등등$)$를 가진 데이터가 있을 때 집의 가격을 예측하는 문제를 생각해보자. 우리는 전에 이 요소들을 파라미터화한 후, 적절하게 Linear Regression으로 풀어서 문제를 해결했을 것이다. 이와 같이 선형 회귀는 데이터셋이 주어질 때 1. 데이터들에 있는 요소들을 분석한 후, 2. 요소들을 적절한 기준에 따라 정량화하고, 3.이 정량화한 데이터셋으로 선형 회귀를 실행해서 적절한 예측 식을 얻는다.  하지만, 선형 회귀로 구한 예측은 잘 작동하지 않을 때도 많다. 부동산을 예시로 들자면 두 가지 이유가 있는데, 입력과 출력의 관계가 선형적인 관계가..