본문 바로가기

728x90

전체 글

(61)
[코세라] [Week 1] 1. Recurrent Neural Networks Recurrent Neural Networks 1. Why sequence models? 2. Notation 3. Recurrent Neural Networks 4. Backpropagation through time 5. Different types of RNNs 6. Language model and sequence generation 7. Sampling novel sequences 8. Vanishing gradients with RNNs 9. Gated Recurrent Unit 10. Long Short Term Memory(LSTM) 11. Bidirectional RNN 12. Deep RNNs 1. Why sequence models? 'Sequence' 가 있는 data의 예들이다. ..
[Week 4] Quiz & Programming Assignments 1. CNN에 대해서 조금 정리하고 넘어가자. input image 14x14x3 이 있고, filter가 5x5x3 이고 개수가 20이라고 하자. 여기서 하나의 필터는 input image에서 '어떠한' 특성을 잡아낸다(세로선이든 대각선이든. 물론 층이 깊어질 수록 그런 단순한 수준보다는 더 복잡한 패턴을 인식하겠지 어찌됐든 뭔가 feature를 잡아낸다). 필터가 20개이므로 20개의 특성을 잡아내는 것. 이 연산의 결과로 10x10x20 이 산출된다. 이 산출값의 channel(20개) 각각은 서로 다른 filter가 씌워진 결과로서, channel 별로 다른 feature 를 capture(?) 한 것이다. 말로 표현하기 어렵네. Neural Style Transfer에서 채널별로 다른 featu..
[Week 4] 2. Neural Style Transfer Neural Style Transfer 1. What is neural style transfer? 2. What are deep ConvNets learning? 3. Cost Function 4. Content Cost Function 5. Style Cost Function 6. 1D and 3D generalizations 1. What is neural style transfer? 요로코롬 Content(C)를 넣었을 때, Style(S)에 맞게 Generated image(G)로 바꾸는 것. 참고. www.popit.kr/neural-style-transfer-%EB%94%B0%EB%9D%BC%ED%95%98%EA%B8%B0/ Neural Style Transfer 따라하기 | Popit St..

728x90