from gensim.models import word2vec
token = [['나는','너를', '사랑해'],['나도','너를','사랑해']]
embedding = word2vec.Word2Vec(token, size=5, window=1, negative=3, min_count=1)
embedding.save('model') #모델 저장
embedding.wv.save_word2vec_format('my.embedding', binary=False) #모델 저장
embedding.wv['너를']
embedding.most_similar('너를')
from gensim.models.keyedvectors import KeyedVectors
embedding.wv.save_word2vec_format('my.embedding', binary=False) #모델 저장
model = KeyedVectors.load_word2vec_format('my.embedding', binary=False, encoding='utf-8')
'데이터분석 > Machine Learning' 카테고리의 다른 글
TPU 구글에서 사용 (0) | 2019.06.22 |
---|---|
모든이들을 위한 Facebook Prophet Paper 쉬운 요약정리 (4) | 2018.06.05 |
xgboost screen shot (0) | 2018.04.13 |
회귀 결정트리의 불순도 측정과 값 해석 (0) | 2018.04.11 |
스택힝 (0) | 2018.04.09 |