전체 글 (61) 썸네일형 리스트형 [코세라] [Week 2_NLP & Word Embedding] 3. Applications Using Word Embeddings Applications Using Word Embeddings 1. Sentiment Classification 2. Debiased Word Embeddings 1. Sentiment Classification 감정분석에서 가장 큰 도전과제는 labeled training set이 부족하다는 점이다. 일일이 labelling하기가 힘들다는 뜻이지. 그런데 word embedding을 이용하면 더 적은 훈련데이터로도 학습이 가능하다. 평균을 하는 이유는 문장의 크기와 관계없이 300차원으로 만들어 softmax에 돌리기 위함이지. 다만 단어의 순서를 무시하기에 아래 문장의 경우 좋은 평가라고 오해할 수 있음. 이를 개선하기 위해 RNN을 활용할 수 있음. RNN의 형태는 many-to-one 이며 RNN.. [코세라] [Week 2] 2. Learning word embeddings : Word2vec & GloVe Learning word embeddings : Word2vec & GloVe 1. Learning word embeddings 2. Word2vec 3. Negative Sampling 4. GloVe word vectors 1. Learning word embeddings 초기에 알고리즘들은 매우 복잡한 경향이 있었으나, 단순화된 구조의 알고리즘도 좋은 결과를 낸다는 연구결과들이 나왔다. 본 강의는 복잡한 알고리즘을 소개하고 이를 단순화하면서도 좋은 결과를 내는 알고리즘들에 대해 알려줄 것이다. Language model을 만든다고 할 때, 배운 바와 같이 위와 같은 구조가 될 것이며 각각의 단어는 300차원 짜리 word vector로 바뀐다. 그리고 이것을 신경망에 넣고 softmax를 돌려 다음.. [코세라] [Week 2_NLP & Word Embedding] 1. Introduction to Word Embedding Introduction to Word Embedding 1. Word Representation 2. Using word embeddings 3. Properties of word embeddings 4. Embedding Matrix 1. Word Representation 위는 기존 one-hot 벡터방식의 단어표현인데, 다음과 같은 문제점이 있다. one-hot 벡터 방식에서는 apple과 orange의 관계가 apple과 king의 관계와 다르지 않다. 따라서 설령 우리가 i want a glass of orange juice 를 학습했다 하더라도, i want a glass of apple __ 에서 'juice' 라는 답을 찾을 수 없다. 즉, 단어간의 관계를 알 수가 없는 것. 그래서 fea.. 이전 1 ··· 7 8 9 10 11 12 13 ··· 21 다음