Home

[논문 리뷰] Deep Neural Networks for YouTube Recommendations

유튜브 추천 시스템 논문 RecSys ‘16 September 논문이며 당시 학계에서 많은 주목을 받은 논문이다. 현재 유튜브의 추천 시스템은 이 시스템에서 훨씬 더 발전된 형태일 것이고 그에 대한 공부가 필요할 것이다. 하지만, 기존의 단순한 CF나 MF를 활용한 추천 시스템에서 더욱 나아가, DNN을 활용한 추천 시스템 연구들에 대한 공부를 시작하기에 가장 의미있을 것 같다는 생각을 했다. Introduction 유튜브에서의 영상 추천 시스템은 크게 다음과 같은 세가지 난관이 있다. Scale(규모의 문제) : 작은 데이터에서 잘 작용하던 기존의 추천시스템들이 유튜브와 같은 거대한 데이터에서 잘 작용하...

Read more

[베이지안 추론] Binomial Proportion 추론

Inferring a Binomial Proportion via Exact Mathematical Analysis 이 파트에서 우리는 동전이 head가 나오는 경우의 확률을 측정해보고자 한다. 이 시나리오에서 우리에게 필요한 것은, 각각의 데이터가 보여주는 값들은 두 가지 경우의 수가 존재하며 해당 경우들이 서로 배타적인 확률적 공간을 보여주면 된다. 이 두가지 값들은 서로 관계가 없으며 단지 nominal 한 값들에 해당한다. 오로지 두가지의 nominal 값들이 있으므로 “binomial” 의 경우 또는 “dichotomous”한 경우로 부르자. 우리는 또한 각각의 데이터가 서로 독립적이며, 기저에 놓인 확률이...

Read more

[베이지안 추론] Metropolis Algorithm(2)

Chapter 7. Inferring a Binomial Proportion via the Metropolis Algorithm The Metropolis algorithm more generally 7.2 The Metropolis algorithm more generally 우리가 앞에서 살펴본 metropolis 알고리즘의 예시는 일반적인 알고리즘의 매우 특별한 케이스를 살펴본 것이다. (현실에서 사용하기는 힘든, 엄격한 제약사항 하에서의 알고리즘 증명이다.) 이전 섹션에서 우리가 고려했던 것들은 다음과 같다. 연속적이지 않은 이산적인 포지션 1차원 움직임 오직 왼쪽 또는 오른쪽으로의 pr...

Read more

[베이지안 추론] Metropolis Algorithm(1)

Chapter 7. Inferring a Binomial Proportion via the Metropolis Algorithm A simple case of the Metropolis algorithm 사전 확률 분포가 우도 함수와 conjugate 하다면 분석적으로 풀어낼 수 있는 사후 확률 분포를 만들 수 있다. 하지만 theta 값의 분포가 베타 분포를 따르지 않고 따라서 풀기 힘든 경우들도 있다. Grid approximation을 활용해서 이 문제를 어느 정도 해결 할 수도 있다. 하지만 이것 또한 단일 변수를 포함하는 모델의 경우이고, 더욱 변수가 많은 모델의 경우에는 어떻게 될까. 만약 우리...

Read more

[코드리뷰] TFFM: TensorFlow FactorizationMachine

데이터 셋 설명 RecSys Challenge 2015 데이터 클릭 사건의 연속적 집합을 보여준다; 클릭 세션 몇몇 클릭 세션은 구매로 이어지기도 한다. 목적은 해당 유저가 구매를 할지 안할지 예측하는 것. 만약 구매를 한다면 어떤 상품을 구매할지? 유저에게 더욱 정교한 프로모션, 할인 등을 제공한다. A detailed description of the challenge can be found on the website of the RecSys Challenge 2015. Accepted contributions will be presented during the RecSys Challenge 2...

Read more

[논문 리뷰] Factorization Machine

Factorization Machines $\ $MF와 FM의 차이? But Factorization Machines are quite general in nature compared to Matrix Factorization. The problem formulation itself is very different. It is formulated as a linear model, with interactions between features as additional parameters. This feature interaction is done in their latent space representation...

Read more

[Study] Vim with Improve

단순 vim 사용법들 정리 vim 이쁘게 사용하기 : https://medium.com/sunhyoups-story/vim-%EC%97%90%EB%94%94%ED%84%B0-%EC%9D%B4%EC%81%98%EA%B2%8C-%EC%82%AC%EC%9A%A9%ED%95%98%EA%B8%B0-5b6b8d546017 ~/.vimrc 편집을 통해 vim 편집기를 더욱 보기 좋게 바꿔보자 “ Syntax Highlighting <– 주석 if has(“syntax”) syntax on endif <- syntax를 가진 파일이라면 syntax기능을 켜준다. 그 외 set autoindent s...

Read more

[베이지안 추론] 사전확률? 사후확률?

Prior(사전확률)과 Posterior(사후확률) 베이즈 규칙에서 Prior(사전확률)과 Posterior(사후확률)에 대한 이해를 돕기 위해 간단한 동전의 경우를 살펴보자. 흠집이 없이 아주 대칭의 모양을 지닌(‘fair한’) 동전은 그 동전을 던졌을 때, 50%의 확률로 앞면이, 50%의 확률로 뒷면이 나오게 될 것이다. 하지만 실제 경우에서 동전의 변형 또는 다른 다양한 이유로, 우리는 이 50%, 50% 확률이 때때로 왜곡된다고 생각할 수도 있다. 예를 들어, 동전 모양이 꽤나 왜곡돼서, 우리는 현재 이 동전을 던지면 20%의 확률로 앞면이, 80%의 확률로 뒷면이 나올 것이라고 믿고 있다. 이렇게 우리가...

Read more