[ Google API 설치 with pip ] Google API를 사용하기 위해서 python 모듈을 설치. Google API 깃허브 README.md에 다음과 같이 모듈을 설치하라고 나온다. $ pip install --upgrade google-api-python-client$ pip install --upgrade google-auth google-auth-oauthlib google-auth-httplib2 Google API Github에서 제공하는 python 코드는 모두 python2 버전이었다. print를 비롯한 간단한 문법만 조금 바꿔주고 python3를 쓰면 되지만 그게 귀찮아서 python2 모듈을 다운 받으려 하는 순간 ! python3를 받고나서 pip은 자동으로 PATH가..
Machine Learning의 침체기Machine learning의 침체기는 이 XOR 문제로부터 시작됐습니다. And와 Or 문제는 쉽게 문제가 풀리지만 XOR은 쉽게 풀리지 않았죠.어떻게 선을 긋더라도 +와 -를 구분하지 못한다!하지만 Neural network의 등장으로 XOR문제를 풀 수 있게 됩니다. Deep learning(Neural network)와 Machine learning의 차이점을 적은 글에서 언급했지만 Input을 알맞게 변화시키면서 학습하면 XOR문제를 풀 수 있습니다.XOR 문제의 PerceptronMachine learning과 Neural network의 차이는 node 개수의 차이에 있습니다. node는 Neural network에서 Perceptron으로 불리죠. X..
[ Deep Learning 과 Machine Learning] 알파고가 세상에 나왔을 때, Deep Learning, Machine Learning, AI, 인공지능과 같은 단어들이 붐을 일으켰죠. 수많은 비슷한 단어들이 쏟아져 나오면서 사람들이 혼용하는 경우도 많았습니다. 대표적으로 Machine learning과 Deep learning은 혼용하지만 엄연히 다른 뜻을 가지고 있습니다. 인공지능의 개념은 1950년대 후반에 나왔을 정도로 그 역사가 오래되었습니다. 하지만 실제로 사용되고 알려지기 시작한건 최근이죠. 그 이유는 SNS와 같은 서비스가 많이 나오면서 데이터의 양이 급격히 증가했고 GPU의 성능이 좋아짐에 따라 기계학습이 낼 수 있는 성과가 대중들에게 알려질 정도로 인상 깊었기 때문입니다...
[ (MNIST Dataset을 만나보기 전에) Dataset 제대로 사용하기 ] 여태까지 우리는 수많은 Instance가 있는 Dataset을 통해 학습을 시켜 알맞은 Weight와 Bias를 찾고 다시 똑같은 Dataset을 주고 정답과 맞는지 정확도를 계산해왔습니다. 이게 효율적일까라는 질문에 조금 의문점이 생기는데요.비유하자면 한 학생이 정답을 확인할 수 있는 모의고사를 치른 뒤, 채점을 하고 오답노트를 만들었습니다. 그런데 같은 시험지로 다시 모의고사를 치뤘습니다. 그리고 100점을 맞았죠! (그렇지 못한사람이 많다는건 저도 잘 알고 있습니다.) 그렇다면 이 학생은 수능도 잘 볼까요? 장담하지 못합니다. 이제 이렇게 생각해보겠습니다. 똑같이 모의고사를 치르고 오답노트를 만들었습니다. 그리고 10..
[Learning Rate] 실습과정에서 Learning Rate는 Optimize한 이후 Minimize하는 과정에서 등장합니다. optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.1)train = optimizer.minimize(cost) 위의 예시에서는 Learning Rate를 0.1로 잡았는데요. 이 의미는 뭘까요? [그림1] 기울기가 줄어드는 방향으로 Minimize하는 과정 (과장해서 그림) [그림1]은 GradientDescentOptimize로 기울기를 구하고, minimize로 기울기를 줄이는 방식을 그림으로 표현했습니다. Learning Rate가 0.1이므로 0.1의 비율만큼 기울기가 줄어들죠. 이 식을 보더라도 알파값 ..
[Weight의 의미] Softmax Regression을 진행하기 전에 먼저 데이터는 어떤 set을 가지고 있는지, 어떤 의미를 가지는지 정리하는게 좋을 것 같습니다. Hypothesis는 여전히 XW + b로 사용됩니다.[그림1] Hypothesis를 통해 값이 나오는 과정 X행렬과 Y행렬의 shape은 알고 있으면 W행렬의 shape을 정할 수 있고 그 과정은 굉장히 중요하다는 걸 알고 있습니다. 저 연산과정의 의미를 조금더 이해해보려고 합니다. A, B, C 등급으로 N명의 학생들의 최종학점을 매기기 위해서 4종류의 데이터(출석, 과제, 중간고사 점수, 기말고사 점수)를 가져왔다고 가정합니다. 그리고 연산이 끝난 뒤에는 하나의 Instance(한명의 학생) 당 A, B, C의 등급이 매겨져야하죠...
[Softmax Regression] Softmax Regression은 A,B,C..., 여러개의 결과값으로 분류되는 데이터를 학습하기 위한 방법론입니다.Multi-Class Classification이죠. [그림1] 세가지의 Class를 가진 데이터가 있다. [그림1]과 같이 3가지의 Class로 나눌 수 있는 데이터가 있을 때, 우리는 세가지의 Linear한 선으로 분류할 수 있습니다.[그림2] 세번 Linear한 직선으로 두가지로 분류하는 건 세번의 Binary Classification을 한다는 것과 같다. 직선은 다음으로 생각할 수 있습니다. 'A or Not A' 선일 때, A이면 1, Not A이면 0입니다. 'B or Not B' 선일 때, 'C or Not C'도 같은 개념으로 생각할 ..
[당뇨병 환자 예측] 코드는 이전 Logistic Regression 게시글의 코드를 거의 그대로 사용했습니다.http://twoearth.tistory.com/25?category=795201 당뇨병에 걸린 환자들(1)과 걸리지 않은 환자들(0)의 데이터가 있습니다.https://github.com/hunkim/DeepLearningZeroToAll/blob/master/data-03-diabetes.csv 이 데이터를 보면 instance는 800개가 조금 안되고, 알 수 없는 데이터들이 8열까지 있고 맨 마지막 9열에는 당뇨병에 걸린지에 대한 여부가 0과 1로 표시되어 있습니다. 변수가 어떤것을 의미하는지는 굉장히 중요합니다. 그 이유는 데이터가 수치가 아닌 indexing일 수도 있기 때문입니다...
[표본조사 (Sample Survey)] 표본조사는 전수조사와 비교되는 말입니다.전수조사 (Complete Survey)는 모집단(전체)을 조사하는 일이죠.표본조사는 모집단을 대표하는 집단(표본)을 대상으로 조사합니다. 우리는 평소에 통계에 관심도 없다가도 투표날짜가 다가오면 어쩔 수 없이 아주 얕은 통계상식을 접하게 됩니다.투표날 TV를 틀어보면 방송사별로 출구조사 결과가 실시간으로 나오는데요.출구조사(투표를 마친 사람을 대상으로 조사)도 표본조사 중 하나입니다.그리고 투표가 모두 끝난 뒤 개표하는 과정은 전수조사에 해당되죠. [그림1] 전수조사와 표본조사 별 사용되는 기호 우리가 주로 하는 작업은 일반화 입니다. 전수조사보다 표본조사가 비용이 적게 들고 시간이 짧게 걸리므로 표본조사를 통해 모집단의 ..
[Logistic Regression] Logistic Regression은 0과 1, 두개의 결과값이 나오는 데이터를 학습하기 위한 방법론입니다.Binary Classification이죠. 그래서 Logistic Classification 보다는 Logistic Regression이 조금 더 정확한 말입니다. 하지만 이 회귀의 결과는 (나중에 알게되겠지만) 특정 기준으로 "분류"되고, "Logistic" Classification는 Logistic, 즉 Sigmoid 함수(무한대의 입력을 0~1의 사이값으로 출력)에 착안한 방법론이기 때문에 Classification에 가깝습니다. 먼저 Sigmoid 함수를 도입하게된 과정을 알아보죠.간단합니다. 우리는 이진분류에 많은 이점을 알고있죠. 스팸/햄 메일(..
- 알고리즘
- 딥러닝
- LR
- query string
- 크롤링
- Express
- Crawling
- DFS
- 크롤러
- Machine Learning
- neural network
- 백준
- 재귀
- softmax
- BFS
- 머신러닝
- Queue
- Crawler
- Linear Regression
- logistic regression
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |