728x90
cosine VS dot product
-dot product가 cosine에 비해 sensitive to the norm of the embedding.
-training set에서 자주 등장한 상품은 norm이 큰 경향이 있음
-따라서 "popularity"를 고려한다면 dot product를 쓰자.
-하지만, popular items가 recommendation을 dominate한다면,
s(i,j) = ||i||^α ||j||^α cos(i,j)
형태로 norm에 대한 일련의 조정을 하여 사용하자.
그리고 주의할 점,
training set에 아주 적게 등장한 상품은 embedding이 update가 적게 될 것이다.
근데, 만약 initial embedding의 norm이 아주 큰 상황에서
dot product로 similarity를 measure하여 사용한다면
아주 rare하게 등장한 상품이 recommendation을 dominate할 수도 있음
따라서, initializer를 적절하게 택하는게 필요
728x90