¿Por qué es importante la no negatividad para los sistemas colaborativos de filtrado / recomendación?

11

En todos los sistemas de recomendación modernos que he visto que se basan en la factorización matricial, se realiza una factorización matricial no negativa en la matriz de película del usuario. Puedo entender por qué la no negatividad es importante para la interpretabilidad y / o si desea factores dispersos. Pero si solo te importa el rendimiento de predicción, como en la competencia de premios de Netflix, por ejemplo, ¿por qué imponer la restricción de no negatividad? Parecería ser estrictamente peor que permitir valores negativos también en su factorización.

Este artículo es un ejemplo muy citado del uso de la factorización matricial no negativa en el filtrado colaborativo.

Lembik
fuente
1
No estoy muy familiarizado con los sistemas de recomendación (¿tal vez podría incluir algunos documentos de ejemplo en su pregunta?). Si el patrón de preferencia NNMF que infiere es verdadero, entonces la respuesta más probable es mejorar la generalización. En otras palabras, puede ser que empíricamente una falta de "interpretabilidad / escasez" se asocie con un ajuste excesivo . Sin embargo, la escasa codificación (es decir, regularización L1 / LASSO) puede cumplir estos requisitos también hasta donde yo sé. (Podría ser que NNMF tiene una mayor capacidad de interpretación).
GeoMatt22

Respuestas:

14

No soy especialista en sistemas de recomendación, pero por lo que entiendo, la premisa de esta pregunta es incorrecta.

La no negatividad no es tan importante para el filtrado colaborativo.

El premio de Netflix fue ganado en 2009 por el equipo de BellKor. Aquí está el documento que describe su algoritmo: La solución BellKor 2008 para el Premio Netflix . Como es fácil de ver, utilizan un enfoque basado en SVD:

Los fundamentos de nuestro progreso durante 2008 se exponen en el documento KDD 2008 [4]. [...] En el documento [4] damos una descripción detallada de tres modelos de factores. El primero es un SVD simple [...] El segundo modelo [...] nos referiremos a este modelo como "SVD asimétrico". Finalmente, el modelo de factor más preciso, que se llamará "SVD ++" [...]

Vea también este artículo más popular del mismo equipo Técnicas de factorización matricial para sistemas de recomendación . Hablan mucho sobre SVD pero no mencionan NNMF en absoluto.

Consulte también esta popular publicación de blog Actualización de Netflix: intente esto en casa desde 2006, que también explica las ideas SVD.

Por supuesto que tiene razón y también se está trabajando en el uso de NNMF para el filtrado colaborativo. Entonces, ¿qué funciona mejor, SVD o NNMF? No tengo idea, pero aquí está la conclusión de un estudio comparativo de algoritmos de filtrado colaborativo de 2012:

Los métodos basados ​​en la factorización matricial generalmente tienen la mayor precisión. Específicamente, SVD, PMF regularizados y sus variaciones funcionan mejor en cuanto a MAE y RMSE, excepto en situaciones muy escasas, donde NMF funciona mejor.

ameba
fuente
2
En general, esta es una buena respuesta. Pero solo para corregir algunos hechos, la solución BellKor 2008 ganó el premio de progreso. El algoritmo general ganador fue una combinación de más de 100 predictores (Töscher et al. 2009). NMF también fue parte de ello.
dpelisek