본문 바로가기

728x90

분류 전체보기

(61)
[캐글] 3. Digit Recognizer 1. 캐글 노트북 https://www.kaggle.com/shutupandsquat/rnn-with-pytorch 2. 주제 0~9까지의 번호가 쓰여진 이미지를 입력받고 어떤 번호인지 예측하는 주제 특이하게 CNN이 아니라 RNN으로 예측함. 3. 라이브러리 Pytorch
[캐글] 2. NLP with disaster tweets https://www.kaggle.com/shutupandsquat/my-first-nlp 1. 주제 NLP를 활용해서 트위터의 내용을 보고 이것이 재난과 관련된 것인지 예측하는 것이다. 2. 라이브러리 Keras
[캐글] 1. 타이타닉 데이터 인프런에서 타이타닉 데이터를 다뤄보기는 했지만, 캐글을 처음해보므로 복습차원에서 타이타닉 데이터를 분석해보고자 한다. 개념적인 부분보다는 실제 캐글 노트북을 제출해봄으로써 시각화라던가 코딩적인 부분 등에서 얻을 것이 있을 것이다. [핸즈온 머신러닝] 책과 아래의 캐글 노트북을 참조했다. www.kaggle.com/ash316/eda-to-prediction-dietanic EDA To Prediction(DieTanic) Explore and run machine learning code with Kaggle Notebooks | Using data from Titanic - Machine Learning from Disaster www.kaggle.com 1. 부스팅 AdaBoost : 경사하강법과 비..
[코세라] [Week 3] Quiz & Programming Assignments # Quiz # Programming Assignments 1st Assignments : Neural Machine Translation with Attention 1. previous timestep's prediction as input Unlike previous text generation examples earlier in the course, in this model, the post-attention LSTM at time tt does not take the previous time step's prediction y⟨t−1⟩y⟨t−1⟩ as input. The post-attention LSTM at time 't' only takes the hidden state s⟨t⟩s⟨t⟩ an..
[코세라] [Week 3_Sequence Models & Attention mechanism] 2. Speech recognition - Audio data Speech recognition - Audio data 1. Speech recognition 2. Trigger word detection 1. Speech recognition 1) Speech recognition 개요 speech recognition의 경우, 오디오클립을 위와 같이 전처리 해주어야 한다. 위쪽 그래프는 x축이 time, y축이 air pressure 밑쪽 그래프는 x축이 time, y축이 frequecies이다. 원래는 phonems (음소)를 이용해 speech recognition을 해왔으나 이제는audio clip을 인풋하고 바로 transcript를 산출하는 end-to-end deep learning을 할 수 있게 되었다(without hand engineering)...
[코세라] [Week 3_Sequence models & Attention mechanism] 1. Various sequence to sequence architecture Various sequence to sequence architecture 1. Basic Models 2. Picking the most likely sentence 3. Beam Search 4. Refinements to beam search 5. Error analysis in beam search 6. Bleu Score 7. Attention model intuition 8. Attention model 1. Basic Models 1) 번역 위와 같이 번역을 해야하는 상황에서 input sequence와 output sequence 의 크기가 다를 수 있다. 이럴 땐 위의 구조와 같이 encoder 부분과 decoder 부분을 나누어 주면 된다. 2) Image to Text 위와 같이 이미..
[코세라] [Week 2] Quiz & Programming Assignments # Quiz 1. 우리가 word2vec(혹은 GloVe 등등) 를 하는 궁극적인 목표는 context word가 인풋되었을 때, 어떤 단어가 target인가 아는 것도 중요하지만 더 중요한건 word embedding matrix를 학습하는 것이다. # Programming Assignments 1. if ~ continue # GRADED FUNCTION: complete_analogy def complete_analogy(word_a, word_b, word_c, word_to_vec_map): """ Performs the word analogy task as explained above: a is to b as c is to ____. Arguments: word_a -- a word, stri..
[코세라] [Week 2_NLP & Word Embedding] 3. Applications Using Word Embeddings Applications Using Word Embeddings 1. Sentiment Classification 2. Debiased Word Embeddings 1. Sentiment Classification 감정분석에서 가장 큰 도전과제는 labeled training set이 부족하다는 점이다. 일일이 labelling하기가 힘들다는 뜻이지. 그런데 word embedding을 이용하면 더 적은 훈련데이터로도 학습이 가능하다. 평균을 하는 이유는 문장의 크기와 관계없이 300차원으로 만들어 softmax에 돌리기 위함이지. 다만 단어의 순서를 무시하기에 아래 문장의 경우 좋은 평가라고 오해할 수 있음. 이를 개선하기 위해 RNN을 활용할 수 있음. RNN의 형태는 many-to-one 이며 RNN..
[코세라] [Week 2] 2. Learning word embeddings : Word2vec & GloVe Learning word embeddings : Word2vec & GloVe 1. Learning word embeddings 2. Word2vec 3. Negative Sampling 4. GloVe word vectors 1. Learning word embeddings 초기에 알고리즘들은 매우 복잡한 경향이 있었으나, 단순화된 구조의 알고리즘도 좋은 결과를 낸다는 연구결과들이 나왔다. 본 강의는 복잡한 알고리즘을 소개하고 이를 단순화하면서도 좋은 결과를 내는 알고리즘들에 대해 알려줄 것이다. Language model을 만든다고 할 때, 배운 바와 같이 위와 같은 구조가 될 것이며 각각의 단어는 300차원 짜리 word vector로 바뀐다. 그리고 이것을 신경망에 넣고 softmax를 돌려 다음..
[코세라] [Week 2_NLP & Word Embedding] 1. Introduction to Word Embedding Introduction to Word Embedding 1. Word Representation 2. Using word embeddings 3. Properties of word embeddings 4. Embedding Matrix 1. Word Representation 위는 기존 one-hot 벡터방식의 단어표현인데, 다음과 같은 문제점이 있다. one-hot 벡터 방식에서는 apple과 orange의 관계가 apple과 king의 관계와 다르지 않다. 따라서 설령 우리가 i want a glass of orange juice 를 학습했다 하더라도, i want a glass of apple __ 에서 'juice' 라는 답을 찾을 수 없다. 즉, 단어간의 관계를 알 수가 없는 것. 그래서 fea..

728x90