반응형

2017/09/10 2

Char-CNN / RNN(Seq 2 Seq)

현재 > https://www.slideshare.net/healess/python-tensorflow-ai-chatbot 위 강의를 보고 있다.강의내용 중 초반에 Char-CNN을 사용하는데 이유로 다른 알고리즘보다 압도적인 성능을 갖고있다고 한다. 뭐 그렇다 치자 그 다음슬라이드에 Seq-2-Seq 를 소개하면서 RNN을 소개한다.음.. 근데 여길 보니까 자연어 처리할때 많이 보였던 Encoder-Decoder모델이 보인다. 그래서 이걸 좀 파봐야겠다. 굳이 파볼 필요 없이 그저 소개정도에 그쳤으니 나도 여기서 마무리하도록 한다. LSTM 뭐 어쩌구 저쩌구 여러 알고리즘이 있는데각 알고리즘을 알고써야 각 인자를 적당한 걸 넣을 수 있기때문에 학습한다 정도로 이해하는게 좋을 것 같다. 결국 따져보니 이..

IT/IT뻘글 2017.09.10

ML seminar in JEJU세미나에서 들었던 RNN , CNN, DNN 관련 정리

세미나에서 여러 팀이 발표할때 발표의 구조는 대략 비슷했다. 1. Motivation- 나는 이걸 평소에 하고있었는데 이게 궁금해졌다.2. Model- 이를 모델링하기 위해 나는 RNN을 썼다 or DNN? CNN을 썼다.3. 학습 Struggling - 이를 학습을 1주일시키고 했던 결과는 이렇고 그래서 모델을 바꿨다.. 혹은 학습을 더 시켰더니 이렇게 변했다.4. 결과- Heres our masterpiece...- Please visit our git page. 보통 이런 구조로 얘기가 흘러간다. 그런데 여기서 확 짜증이 나는 포인트는 2. 모델링 부터다. 우선 내가 RNN, CNN, DNN이게 뭔지 몰랐다. 대부분 발표팀이 RNN을 썼던건 기억나는데 그게 나오고나서 바로 모델을 짠 수학공식이 나온..

IT/IT뻘글 2017.09.10
반응형