Trong trang này:
- 1. Giới thiệu
- 2. User-user Collaborative Filtering
- 3. Item-item Collaborative Filtering
- 4. Lập trình Collaborative Filtering trên Python
- 5. Thảo luận
- 6. Tài liệu tham khảo
1. Giới thiệu
Trong Content-based Recommendation Systems, chúng ta đã làm quen với một Hệ thống gợi ý sản phẩm đơn giản dựa trên đặc trưng của mỗi item. Đặc điểm của Content-based Recommendation Systems là việc xây dựng mô hình cho mỗi user không phụ thuộc vào các users khác mà phụ thuộc vào profile của mỗi items. Việc làm này có lợi thế là tiết kiệm bộ nhớ và thời gian tính toán. Đồng thời, hệ thống có khả năng tận dụng các thông tin đặc trưng của mỗi item như được mô tả trong bản mô tả (description) của mỗi item. Bản mô tả này có thể được xây dựng bởi nhà cung cấp hoặc được thu thập bằng cách yêu cầu users gắn tags cho items. Việc xây dựng feature vector cho mỗi item thường bao gồm các kỹ thuật Xử lý ngôn ngữ tự nhiên (Natural Language Processing - NLP).
Cách làm trên có hai nhược điểm cơ bản. Thứ nhất, khi xây dựng mô hình cho một user, các hệ thống Content-based không tận dụng được thông tin từ các users khác. Những thông tin này thường rất hữu ích vì hành vi mua hàng của các users thường được nhóm thành một vài nhóm đơn giản; nếu biết hành vi mua hàng của một vài users trong nhóm, hệ thống nên suy luận ra hành vi của những users còn lại. Thứ hai, không phải lúc nào chúng ta cũng có bản mô tả cho mỗi item. Việc yêu cầu users gắn tags còn khó khăn hơn vì không phải ai cũng sẵn sàng làm việc đó; hoặc có làm nhưng sẽ mang xu hướng cá nhân. Các thuật toán NLP cũng phức tạp hơn ở việc phải xử lý các từ gần nghĩa, viết tắt, sai chính tả, hoặc được viết ở các ngôn ngữ khác nhau.
Những nhược điểm phía trên có thể được giải quyết bằng Collaborative Filtering (CF). Trong bài viết này, tôi sẽ trình bày tới các bạn một phương pháp CF có tên là Neighborhood-based Collaborative Filtering (NBCF). Bài tiếp theo sẽ trình bày về một phương pháp CF khác có tên Matrix Factorization Collaborative Filtering. Khi chỉ nói Collaborative Filtering, chúng ta sẽ ngầm hiểu rằng phương pháp được sử dụng là Neighborhood-based.
Ý tưởng cơ bản của NBCF là xác định mức độ quan tâm của một user tới một item dựa trên các users khác gần giống với user này. Việc gần giống nhau giữa các users có thể được xác định thông qua mức độ quan tâm của các users này tới các items khác mà hệ thống đã biết. Ví dụ, A, B đều thích phim Cảnh sát hình sự, tức đều rate bộ phim này 5 sao. Ta đã biết A cũng thích Người phán xử, vậy nhiều khả năng B cũng thích bộ phim này.
Các bạn có thể đã hình dung ra, hai câu hỏi quan trọng nhất trong một hệ thống Neighborhood-based Collaborative Filtering là:
- Làm thế nào xác định được sự giống nhau giữa hai users?
- Khi đã xác định được các users gần giống nhau (similar users) rồi, làm thế nào dự đoán được mức độ quan tâm của một user lên một item?
Việc xác định mức độ quan tâm của mỗi user tới một item dựa trên mức độ quan tâm của similar users tới item đó còn được gọi là User-user collaborative filtering. Có một hướng tiếp cận khác được cho là làm việc hiệu quả hơn là Item-item collaborative filtering. Trong hướng tiếp cận này, thay vì xác định user similarities, hệ thống sẽ xác định item similarities. Từ đó, hệ thống gợi ý những items gần giống với những items mà user có mức độ quan tâm cao.
Cấu trúc của bài viết như sau: Mục 2 sẽ trình bày User-user Collaborative Filtering. Mục 3 sẽ nêu một số hạn chế của User-user Collaborative Filtering và cách khắc phục bằng Item-item Collaborative Filtering. Kết quả của hai phương pháp này sẽ được trình bày qua ví dụ trên cơ sở dữ liệu MovieLens 100k trong Mục 4. Một vài thảo luận và Tài liệu tham khảo được cho trong Mục 5 và 6.
2. User-user Collaborative Filtering
2.1. Similarity functions
Công việc quan trọng nhất phải làm trước tiên trong User-user Collaborative Filtering là phải xác định được sự giống nhau (similarity) giữa hai users. Dữ liệu duy nhất chúng ta có là Utility matrix \(\mathbf{Y}\), vậy nên sự giống nhau này phải được xác định dựa trên các cột tương ứng với hai users trong ma trận này. Xét ví dụ trong Hình 1.
Hình 1: Ví dụ về utility matrix dựa trên số sao một user rate cho một item. Một cách trực quan, hành vi của \(u_0\) giống với \(u_1\) hơn là \(u_2, u_3, u_4, u_5, u_6\). Từ đó có thể dự đoán rằng \(u_0\) sẽ quan tâm tới \(i_2\) vì \(u_1\) cũng quan tâm tới item này. |
Giả sử có các users từ \(u_0\) đến \(u_6\) và các items từ \(i_0\) đến \(i_4\) trong đó các số trong mỗi ô vuông thể hiện số sao mà mỗi user đã rated cho item với giá trị cao hơn thể hiện mức độ quan tâm cao hơn. Các dấu hỏi chấm là các giá trị mà hệ thống cần phải đi tìm. Đặt mức độ giống nhau của hai users \(u_i, u_j\) là \(\text{sim}(u_i, u_j)\).
Quan sát đầu tiên chúng ta có thể nhận thấy là các \(u_0, u_1\) thích \(i_0, i_1, i_2\) và không thích \(i_3, i_4\) cho lắm. Điều ngược lại xảy ra ở các users còn lại. Vì vậy, một similiarity function tốt cần đảm bảo:
\[\text{sim}(u_0, u_1) > \text{sim}(u_0, u_i), ~\forall i > 1.\]
Từ đó, để xác định mức độ quan tâm của \(u_0\) lên \(i_2\), chúng ta nên dựa trên hành vi của \(u_1\) lên sản phẩm này. Rất may rằng \(u_1\) đã thích \(i_2\) nên hệ thống cần recommend \(i_2\) cho \(u_0\).
Câu hỏi đặt ra là: hàm số similarity nào là tốt? Để đo similarity giữa hai users, cách thường làm là xây dựng feature vector cho mỗi user rồi áp dụng một hàm có khả năng đo similarity giữa hai vectors đó. Chú ý rằng việc xây dựng feature vector này khác với việc xây dựng item profiles như trong Content-based Recommendation Systems. Các vectors này được xây dựng trực tiếp dựa trên Utility matrix chứ không dùng dữ liệu ngoài như item profiles. Với mỗi user, thông tin duy nhất chúng ta biết là các ratings mà user đó đã thực hiện, tức cột tương ứng với user đó trong Utility matrix. Tuy nhiên, khó khăn là các cột này thường có rất nhiều mising ratings vì mỗi user thường chỉ rated một số lượng rất nhỏ các items. Cách khắc phục là bằng cách nào đó, ta giúp hệ thống điền các giá trị này sao cho việc điền không làm ảnh hưởng nhiều tới sự giống nhau giữa hai vector. Việc điền này chỉ phục vụ cho việc tính similarity chứ không phải là suy luận ra giá trị cuối cùng.
Vậy mỗi dấu ‘?’ nên được thay bởi giá trị nào để hạn chế việc sai lệch quá nhiều? Một lựa chọn bạn có thể nghĩ tới là thay các dấu ‘?’ bằng giá trị ‘0’. Điều này không thực sự tốt vì giá trị ‘0’ tương ứng với mức độ quan tâm thấp nhất. Một giá trị an toàn hơn là 2.5 vì nó là trung bình cộng của 0, mức thấp nhất, và 5, mức cao nhất. Tuy nhiên, giá trị này có hạn chế đối với những users dễ tính hoặc khó tính. Với các users dễ tính, thích tương ứng với 5 sao, không thích có thể ít sao hơn 1 chút, 3 sao chẳng hạn. Việc chọn giá trị 2.5 sẽ khiến cho các items còn lại là quá negative đối với user đó. Điều ngược lại xảy ra với những user khó tính hơn khi chỉ cho 3 sao cho các items họ thích và ít sao hơn cho những items họ không thích.
Một giá trị khả dĩ hơn cho việc này là trung bình cộng của các ratings mà user tương ứng đã thực hiện. Việc này sẽ tránh được việc users quá khó tính hoặc dễ tính, tức lúc nào cũng có những items mà một user thích hơn so với những items khác.
Hãy cùng xem ví dụ trong Hình 2a) và 2b).
Chuẩn hoá dữ liệu:
Hàng cuối cùng trong Hình 2a) là giá trị trung bình của ratings cho mỗi user. Giá trị cao tương ứng với các user dễ tính và ngược lại. Khi đó, nếu tiếp tục trừ từ mỗi rating đi giá trị này và thay các giá trị chưa biết bằng 0, ta sẽ được normalized utility matrix như trong Hình 2b). Bạn có thể thắc mắc tại sao bước chuẩn hoá này lại quan trọng, câu trả lời ở ngay đây:
- Việc trừ đi trung bình cộng của mỗi cột khiến trong trong mỗi cột có những giá trị dương và âm. Những giá trị dương tương ứng với việc user thích item, những giá trị âm tương ứng với việc user không thích item. Những giá trị bằng 0 tương ứng với việc chưa xác định được liệu user có thích item hay không.
- Về mặt kỹ thuật, số chiều của utility matrix là rất lớn với hàng triệu users và items, nếu lưu toàn bộ các giá trị này trong một ma trận thì khả năng cao là sẽ không đủ bộ nhớ. Quan sát thấy rằng vì số lượng ratings biết trước thường là một số rất nhỏ so với kích thước của utility matrix, sẽ tốt hơn nếu chúng ta lưu ma trận này dưới dạng sparse matrix, tức chỉ lưu các giá trị khác không và vị trí của chúng. Vì vậy, tốt hơn hết, các dấu ‘?’ nên được thay bằng giá trị ‘0’, tức chưa xác định liệu user có thích item hay không. Việc này không những tối ưu bộ nhớ mà việc tính toán similarity matrix sau này cũng hiệu quả hơn.
Sau khi đã chuẩn hoá dữ liệu như trên, một vài similiraty function thường được sử dụng là:
Cosine Similarity:
Đây là hàm được sử dụng nhiều nhất, và cũng quen thuộc với các bạn nhất. Nếu các bạn không nhớ công thức tính \(\text{cos}\) của góc giữa hai vector \(\mathbf{u}_1, \mathbf{u}_2\) trong chương trình phổ thông, thì dưới đây là công thức:
\[ \text{cosine_similarity}(\mathbf{u}_1, \mathbf{u}_2) =\text{cos}(\mathbf{u}_1, \mathbf{u}_2) = \frac{\mathbf{u}_1^T\mathbf{u}_2}{ ||\mathbf{u}_1||_2.||\mathbf{u}_2||_2}~~~~ (1) \]
Trong đó \(\mathbf{u}_{1, 2}\) là vectors tương ứng với users 1, 2 đã được chuẩn hoá như ở trên.
Có một tin vui là python có hàm hỗ trợ tính toán hàm số này một cách hiệu quả.
Độ similarity của hai vector là 1 số trong đoạn [-1, 1]. Giá trị bằng 1 thể hiện hai vector hoàn toàn similar nhau. Hàm số \(\text{cos}\) của một góc bằng 1 nghĩa là góc giữa hai vector bằng 0, tức một vector bằng tích của một số dương với vector còn lại. Giá trị \(\text{cos}\) bằng -1 thể hiện hai vector này hoàn toàn trái ngược nhau. Điều này cũng hợp lý , tức khi hành vi của hai users là hoàn toàn ngược nhau thi similarity giữa hai vector đó là thấp nhất.
Ví dụ về cosine_similarity của các users trong Hình 2b) được cho trong Hình 2c). Similarity matrix \(\mathbf{S}\) là một ma trận đối xứng vì \(\text{cos}\) là một hàm chẵn, và nếu user A giống user B thì điều ngược lại cũng đúng. Các ô màu xanh trên đường chéo đều bằng 1 vì đó là \(\text{cos}\) của góc giữa 1 vector và chính nó, tức \(\text{cos}(0) = 1\). Khi tính toán ở các bước sau, chúng ta không cần quan tâm tới các giá trị 1 này. Tiếp tục quan sát các vector hàng tương ứng với \(u_0, u_1, u_2\), chúng ta sẽ thấy một vài điều thú vị:
-
\(u_0\) gần với \(u_1\) và \(u_5\) (độ giống nhau là dương) hơn các users còn lại. Việc similarity cao giữa \(u_0\) và \(u_1\) là dễ hiểu vì cả hai đều có xu hướng quan tâm tới \(i_0, i_1, i_2\) hơn các items còn lại. Việc \(u_0\) gần với \(u_5\) thoạt đầu có vẻ vô lý vì \(u_5\) đánh giá thấp các items mà \(u_0\) đánh giá cao (Hình 2a)); tuy nhiên khi nhìn vào ma trận utility đã chuẩn hoá ở Hình 2b), ta thấy rằng điều này là hợp lý. Vì item duy nhất mà cả hai users này đã cung cấp thông tin là \(i_1\) với các giá trị tương ứng đều là tích cực.
-
\(u_1\) gần với \(u_0\) và xa các users còn lại.
-
\(u_2\) gần với \(u_3, u_4, u_5, u_6\) và xa các users còn lại.
Từ similarity matrix này, chúng ta có thể phân nhóm các users ra làm hai nhóm \((u_0, u_1)\) và \((u_2, u_3, u_4, u_5, u_6)\). Vì ma trận \(\mathbf{S}\) này nhỏ nên chúng ta có thể dễ dàng quan sát thấy điều này; khi số users lớn hơn, việc xác định bằng mắt thường là không khả thi. Việc xây dựng thuật toán phân nhóm các users (users clustering) rất có thể sẽ được trình bày ở một trong các bài viết tiếp theo.
Có một chú ý quan trọng ở đây là khi số lượng users lớn, ma trận \(\mathbf{S}\) cũng rất lớn và nhiều khả năng là không có đủ bộ nhớ để lưu trữ, ngay cả khi chỉ lưu hơn một nửa số các phần tử của ma trận đối xứng này. Với các trường hợp đó, mới mỗi user, chúng ta chỉ cần tính và lưu kết quả của một hàng của similarity matrix, tương ứng với việc độ giống nhau giữa user đó và các users còn lại.
Trong bài viết này, tôi sẽ sử dụng similarity function này.
Person corelation:
Tôi xin không đi chi tiết về phần này, bạn đọc quan tâm có thể đọc thêm Pearson correlation coefficient - Wikipedia
2.2. Rating prediction
Việc xác định mức độ quan tâm của một user lên một item dựa trên các users gần nhất (neighbor users) này rất giống với những gì chúng ta thấy trong Bài 6: K-nearest neighbors. Khi làm việc với large-scale problems, chúng ta sẽ thấy thêm rằng phương pháp lười học K-nearest neighbors (KNN) được sử dụng rất nhiều vì tính đơn giản của nó. Tất nhiên, chúng ta không thể trực tiếp sử dụng KNN mà còn cần phải làm thêm nhiều bước trung gian nữa.
Tương tự như KNN, trong Collaborative Filtering, missing rating cũng được xác định dựa trên thông tin về \(k\) neighbor users. Tất nhiên, chúng ta chỉ quan tâm tới các users đã rated item đang xét. Predicted rating thường được xác định là trung bình có trọng số của các ratings đã chuẩn hoá. Có một điểm cần lưu ý, trong KNN, các trọng số được xác định dựa trên distance giữa 2 điểm, và các distance này là các số không âm. Trong khi đó, trong CF, các trọng số được xác định dựa trên similarity giữa hai users, những trọng số này có thể nhỏ hơn 0 như trong Hình 2c).
Công thức phổ biến được sử dụng để dự đoán rating của \(u\) cho \(i\) là:
\[ \hat{y}_{i, u} = \frac{\sum_{u_j \in \mathcal{N}(u, i)} \bar{y}_{i, u_j} \text{sim}(u, u_j)}{\sum_{u_j \in \mathcal{N}(u, i)} |\text{sim}(u, u_j)|} ~~~~ (2) \] (sự khác biết so với trung bình có trọng số là mẫu số có sử dụng trị tuyệt đối để xử lý các số âm).
trong đó \(\mathcal{N}(u, i)\) là tập hợp \(k\) users trong neighborhood (tức có similarity cao nhất) của \(u\) mà đã rated \(i\).
Hình 2d) thể hiện việc điền các giá trị còn thiếu trong normalized utility matrix. Các ô màu nền đỏ thể hiện các giá trị dương, tức các items mà có thể users đó quan tâm. Ở đây, tôi đã lấy ngưỡng bằng 0, chúng ta hoàn toàn có thể chọn các ngưỡng khác 0.
Một ví dụ về việc tính normalized rating của \(u_1\) cho \(i_1\) được cho trong Hình 2e) với số nearest neighbors là \(k = 2\). Các bước thực hiện là:
-
Xác định các users đã rated \(i_1\), đó là \(u_0, u_3, u_5\).
-
Xác định similarities của \(u_1\) với các users này ta nhận được \({0.83, -0.40, -0.23}\). Hai (\(k = 2\)) giá trị lớn nhất là \(0.83\) và \(-0.23\) tương ứng với \(u_0\) và \(u_5\).
-
Xác định các normalized ratings của \(u_0, u_5\) cho \(i_1\), ta thu được hai giá trị lần lượt là \(0.75\) và \(0.5\).
-
Dự đoán kết quả:
\[ \hat{y}_{i_1, u_1} = \frac{0.83\times 0.75 + (-0.23)\times 0.5}{0.83 + |-0.23|} \approx 0.48 \]
Việc quy đổi các giá trị ratings đã chuẩn hoá về thang 5 có thể được thực hiện bằng cách cộng các cột của ma trận \(\hat{\mathbf{Y}}\) với giá trị rating trung bình của mỗi user như đã tính trong Hình 2a).
Việc hệ thống quyết định recommend items nào cho mỗi user có thể được xác định bằng nhiều cách khác nhau. Có thể sắp xếp unrated items theo thứ tự tự lớn đến bé của các predicted ratings, hoặc chỉ chọn các items có normalized predicted ratings dương - tương ứng với việc user này có nhiều khả năng thích hơn.
Trước khi vào phần lập trình cho User-user CF, chúng ta cùng xem xét Item-item CF.
3. Item-item Collaborative Filtering
Một số hạn chês của User-user CF:
-
Trên thực tế, số lượng users luôn lớn hơn số lượng items rất nhiều. Kéo theo đó là Similarity matrix là rất lớn với số phần tử phải lưu giữ là hơn 1 nửa của bình phương số lượng users (chú ý rằng ma trận này là đối xứng). Việc này, như đã đề cập ở trên, khiến cho việc lưu trữ ma trận này trong nhiều trường hợp là không khả thi.
-
Ma trận Utility \(\mathbf{Y}\) thường là rất sparse. Với số lượng users rất lớn so với số lượng items, rất nhiều cột của ma trận này sẽ rất sparse, tức chỉ có một vài phần tử khác 0. Lý do là users thường lười rating. Cũng chính vì việc này, một khi user đó thay đổi rating hoặc rate thêm items, trung bình cộng các ratings cũng như vector chuẩn hoá tương ứng với user này thay đổi nhiều. Kéo theo đó, việc tính toán ma trận Similarity, vốn tốn nhiều bộ nhớ và thời gian, cũng cần được thực hiện lại.
Ngược lại, nếu chúng ta tính toán similarity giữa các items rồi recommend những items gần giống với item yêu thích của một user thì sẽ có những lợi ích sau:
-
Vì số lượng items thường nhỏ hơn số lượng users, Similarity matrix trong trường hợp này cũng nhỏ hơn nhiều, thuận lợi cho việc lưu trữ và tính toán ở các bước sau.
-
Vì số lượng phần tử đã biết trong Utility matrix là như nhau nhưng số hàng (items) ít hơn số cột (users), nên trung bình, mỗi hàng của ma trận này sẽ có nhiều phần tử đã biết hơn số phần tử đã biết trong mỗi cột. Việc này cũng dễ hiểu vì mỗi item có thể được rated bởi nhiều users. Kéo theo đó, giá trị trung bình của mỗi hàng ít bị thay đổi hơn khi có thêm một vài ratings. Như vậy, việc cập nhật ma trận Similarity Matrix có thể được thực hiện ít thường xuyên hơn.
Cách tiếp cận thứ hai này được gọi là Item-item Collaborative Filtering. Hướng tiếp cận này được sử dụng nhiều trong thực tế hơn.
Quy trình dự đoán missing ratings cũng tương tự như trong User-user CF. Hình 3 mô tả quy trình này với ví dụ nêu ở phần trên.
Có một điểm thú vị trong Similarity matrix ở Hình 3c) là có các phần tử trong hai hình vuông xanh và đỏ đều là các số không âm, các phần tử bên ngoài là các số âm. Việc này thể hiện rằng các items có thể được chia thành 2 nhóm rõ rệt với những items có similarity không âm vào 1 nhóm. Như vậy, một cách vô tình, chúng ta đã thực hiện việc item clustering. Việc này sẽ giúp ích rất nhiều trong việc dự đoán ở phần sau.
Kết quả về việc chọn items nào để recommend cho mỗi user được thể hiện bởi các ô màu đỏ trong Hình 3d). Kết quả này có khác một chút so với kết quả tìm được bởi User-user CF ở 2 cột cuối cùng tương ứng với \(u_5, u_6\). Dường như kết quả này hợp lý hơn vì từ Utility Matrix, có hai nhóm users thích hai nhóm items khác nhau. (Bạn có nhận ra không?)
Về mặt tính toán, Item-item CF có thể nhận được từ User-user CF bằng cách chuyển vị (transpose) ma trận utility, và coi như items đang rate users. Sau khi tính ra kết quả cuối cùng, ta lại chuyển vị một lần nữa để thu được kết quả.
Phần 3 dưới đây sẽ mô tả cách lập trình cho Collaborative Filtering trên python. Chú ý rằng thư viện sklearn
tôi vẫn dùng không có các modules cho Recommendation Systems.
4. Lập trình Collaborative Filtering trên Python
Trong bày này, tôi lập trình theo hướng Hướng Đối Tượng cho class CF. Class
này được sử dụng chung cho cả User-user và Item-item CF. Trước hết, chúng ta sẽ thử nghiệm với ví dụ nhỏ trong bài, sau đó sẽ áp dụng vào bài toán với cơ sở dữ liệu MovieLens.
Dưới đây là file ex.dat
mô tả dữ liệu đã biết cho ví dụ. Thứ tự của ba cột là user_id
, item_id
, và rating
. Ví dụ, hàng đầu tiên nghĩa là u_0
rates i_0
số sao là 5
.
Khi làm việc với Item-item CF, chúng ta chỉ cần đổi vị trí của hai cột đầu tiên để nhận được ma trận chuyển vị.
0 0 5.
0 1 4.
0 3 2.
0 4 2.
1 0 5.
1 2 4.
1 3 2.
1 4 0.
2 0 2.
2 2 1.
2 3 3.
2 4 4.
3 0 0.
3 1 0.
3 3 4.
4 0 1.
4 3 4.
5 1 2.
5 2 1.
6 2 1.
6 3 4.
6 4 5.
4.1. class CF
Khởi tạo class CF
Dữ liệu đầu vào của hàm khởi tạo class CF
là ma trận Utility Y_data
được lưu dưới dạng một ma trận với 3 cột, k
là số lượng các điểm lân cận được sử dụng để dự đoán kết quả. dist_func
là hàm đó similarity giữa hai vectors, mặc định là cosine_similarity
được lấy từ sklearn.metrics.pairwise
. Bạn đọc cũng có thể thử với các giá trị k
và hàm dist_func
khác nhau. Biến uuCF
thể hiện việc đang sử dụng User-user CF (1) hay Item-item CF(0).
import pandas as pd
import numpy as np
from sklearn.metrics.pairwise import cosine_similarity
from scipy import sparse
class CF(object):
"""docstring for CF"""
def __init__(self, Y_data, k, dist_func = cosine_similarity, uuCF = 1):
self.uuCF = uuCF # user-user (1) or item-item (0) CF
self.Y_data = Y_data if uuCF else Y_data[:, [1, 0, 2]]
self.k = k # number of neighbor points
self.dist_func = dist_func
self.Ybar_data = None
# number of users and items. Remember to add 1 since id starts from 0
self.n_users = int(np.max(self.Y_data[:, 0])) + 1
self.n_items = int(np.max(self.Y_data[:, 1])) + 1
Khi có dữ liệu mới, cập nhận Utility matrix bằng cách thêm các hàng này vào cuối Utility Matrix. Để cho đơn giản, giả sử rằng không có users hay items mới, cũng không có ratings nào bị thay đổi.
def add(self, new_data):
"""
Update Y_data matrix when new ratings come.
For simplicity, suppose that there is no new user or item.
"""
self.Y_data = np.concatenate((self.Y_data, new_data), axis = 0)
Tính toán normalized utility matrix và Similarity matrix
def normalize_Y(self):
users = self.Y_data[:, 0] # all users - first col of the Y_data
self.Ybar_data = self.Y_data.copy()
self.mu = np.zeros((self.n_users,))
for n in xrange(self.n_users):
# row indices of rating done by user n
# since indices need to be integers, we need to convert
ids = np.where(users == n)[0].astype(np.int32)
# indices of all ratings associated with user n
item_ids = self.Y_data[ids, 1]
# and the corresponding ratings
ratings = self.Y_data[ids, 2]
# take mean
m = np.mean(ratings)
if np.isnan(m):
m = 0 # to avoid empty array and nan value
# normalize
self.Ybar_data[ids, 2] = ratings - self.mu[n]
################################################
# form the rating matrix as a sparse matrix. Sparsity is important
# for both memory and computing efficiency. For example, if #user = 1M,
# #item = 100k, then shape of the rating matrix would be (100k, 1M),
# you may not have enough memory to store this. Then, instead, we store
# nonzeros only, and, of course, their locations.
self.Ybar = sparse.coo_matrix((self.Ybar_data[:, 2],
(self.Ybar_data[:, 1], self.Ybar_data[:, 0])), (self.n_items, self.n_users))
self.Ybar = self.Ybar.tocsr()
def similarity(self):
self.S = self.dist_func(self.Ybar.T, self.Ybar.T)
Thực hiện lại 2 hàm phía trên khi có thêm dữ liệu.
def refresh(self):
"""
Normalize data and calculate similarity matrix again (after
some few ratings added)
"""
self.normalize_Y()
self.similarity()
def fit(self):
self.refresh()
Dự đoán kết quả:
Hàm __pred
là hàm dự đoán rating mà user u
cho item i
cho trường hợp User-user CF. Vì trong trường hợp Item-item CF, chúng ta cần hiểu ngược lại nên hàm pred
sẽ thực hiện đổi vị trí hai biến của __pred
. Để cho API được đơn giản, tôi cho __pred
là một phương thức private, chỉ được gọi trong class CF
; pred
là một phương thức public, thứ tự của biến đầu vào luôn là (user, item), bất kể phương pháp sử dụng là User-user CF hay Item-item CF.
def __pred(self, u, i, normalized = 1):
"""
predict the rating of user u for item i (normalized)
if you need the un
"""
# Step 1: find all users who rated i
ids = np.where(self.Y_data[:, 1] == i)[0].astype(np.int32)
# Step 2:
users_rated_i = (self.Y_data[ids, 0]).astype(np.int32)
# Step 3: find similarity btw the current user and others
# who already rated i
sim = self.S[u, users_rated_i]
# Step 4: find the k most similarity users
a = np.argsort(sim)[-self.k:]
# and the corresponding similarity levels
nearest_s = sim[a]
# How did each of 'near' users rated item i
r = self.Ybar[i, users_rated_i[a]]
if normalized:
# add a small number, for instance, 1e-8, to avoid dividing by 0
return (r*nearest_s)[0]/(np.abs(nearest_s).sum() + 1e-8)
return (r*nearest_s)[0]/(np.abs(nearest_s).sum() + 1e-8) + self.mu[u]
def pred(self, u, i, normalized = 1):
"""
predict the rating of user u for item i (normalized)
if you need the un
"""
if self.uuCF: return self.__pred(u, i, normalize)
return self.__pred(i, u, normalize)
Tìm tất cả các items nên được gợi ý cho user u
trong trường hợp User-user CF, hoặc tìm tất cả các users có khả năng thích item u
trong trường hợp Item-item CF
def recommend(self, u, normalized = 1):
"""
Determine all items should be recommended for user u. (uuCF =1)
or all users who might have interest on item u (uuCF = 0)
The decision is made based on all i such that:
self.pred(u, i) > 0. Suppose we are considering items which
have not been rated by u yet.
"""
ids = np.where(self.Y_data[:, 0] == u)[0]
items_rated_by_u = self.Y_data[ids, 1].tolist()
recommended_items = []
for i in xrange(self.n_items):
if i not in items_rated_by_u:
rating = self.__pred(u, i)
if rating > 0:
recommended_items.append(i)
return recommended_items
In toàn bộ kết quả:
def print_recommendation(self):
"""
print all items which should be recommended for each user
"""
print 'Recommendation: '
for u in xrange(self.n_users):
recommended_items = self.recommend(u)
if self.uuCF:
print ' Recommend item(s):', recommended_items, 'to user', u
else:
print ' Recommend item', u, 'to user(s) : ', recommended_items
Source code cho class này có thể được tìm thấy ở đây.
4.2. Áp dụng vào ví dụ
Chúng ta sẽ thử với User-user CF trước:
# data file
r_cols = ['user_id', 'item_id', 'rating']
ratings = pd.read_csv('ex.dat', sep = ' ', names = r_cols, encoding='latin-1')
Y_data = ratings.as_matrix()
rs = CF(Y_data, k = 2, uuCF = 1)
rs.fit()
rs.print_recommendation()
Kết quả:
Recommendation:
Recommend item(s): [2] to user 0
Recommend item(s): [1] to user 1
Recommend item(s): [] to user 2
Recommend item(s): [4] to user 3
Recommend item(s): [4] to user 4
Recommend item(s): [0, 3, 4] to user 5
Recommend item(s): [1] to user 6
Với Item-item Collaborative Filtering:
rs = CF(Y_data, k = 2, uuCF = 0)
rs.fit()
rs.print_recommendation()
Kết quả:
Recommendation:
Recommend item 0 to user(s) : []
Recommend item 1 to user(s) : [1]
Recommend item 2 to user(s) : [0]
Recommend item 3 to user(s) : [5]
Recommend item 4 to user(s) : [3, 4, 5]
4.3. Áp dụng lên MovieLens 100k
Chúng ta cùng quay lại làm với cơ sở dữ liệu MoiveLens 100k như trong Content-based Recommendation Systems. Nhắc lại rằng kết quả của phương pháp này có trung bình lỗi là 1.2 sao với mỗi rating.
Chúng ta cùng xem kết quả với User-user CF và Item-item CF.
Trước hết, ta cần load dữ liệu.
r_cols = ['user_id', 'movie_id', 'rating', 'unix_timestamp']
ratings_base = pd.read_csv('ml-100k/ub.base', sep='\t', names=r_cols, encoding='latin-1')
ratings_test = pd.read_csv('ml-100k/ub.test', sep='\t', names=r_cols, encoding='latin-1')
rate_train = ratings_base.as_matrix()
rate_test = ratings_test.as_matrix()
# indices start from 0
rate_train[:, :2] -= 1
rate_test[:, :2] -= 1
Kết quả với User-user CF:
rs = CF(rate_train, k = 30, uuCF = 1)
rs.fit()
n_tests = rate_test.shape[0]
SE = 0 # squared error
for n in xrange(n_tests):
pred = rs.pred(rate_test[n, 0], rate_test[n, 1], normalized = 0)
SE += (pred - rate_test[n, 2])**2
RMSE = np.sqrt(SE/n_tests)
print 'User-user CF, RMSE =', RMSE
User-user CF, RMSE = 0.995198110088
Kết quả với Item-item CF:
rs = CF(rate_train, k = 30, uuCF = 0)
rs.fit()
n_tests = rate_test.shape[0]
SE = 0 # squared error
for n in xrange(n_tests):
pred = rs.pred(rate_test[n, 0], rate_test[n, 1], normalized = 0)
SE += (pred - rate_test[n, 2])**2
RMSE = np.sqrt(SE/n_tests)
print 'Item-item CF, RMSE =', RMSE
Item-item CF, RMSE = 0.986791213271
Từ đó ta nhận thấy Item-item CF cho lỗi nhỏ hơn (0.987) so với User-user CF (0.995) và tốt hơn so với Content-based Recommendation Systems ở bài trước (1.2).
Các bạn cũng có thể thay _neighborhood size k
bằng các giá trị khác và so sánh kết quả._
5. Thảo luận
-
Collaborative Filtering là một phương pháp gợi ý sản phẩm với ý tưởng chính dựa trên các hành vi của các users khác (collaborative) cùng trên một item để suy ra mức độ quan tâm (filtering) của một user lên sản phẩm. Việc suy ra này được thực hiện dựa trên Similarity matrix đo độ giống nhau giữa các users.
-
Để tính được Similarity matrix, trước tiên ta cần chuẩn hoá dữ liệu. Phương pháp phổ biến là mean offset, tức trừ các ratings đi giá trị trung bình mà một user đưa ra cho các _items.
-
Similarity function thường được dụng là Cosine similarity hoặc Pearson correlation.
-
User-user CF có một vài hạn chế khi lượng users là lớn. Trong các trường hợp đó, Item-item thường được sử dụng và cho kết quả tốt hơn.
6. Tài liệu tham khảo
[1] Recommendation Systems - Stanford InfoLab
[2] Collaborative Filtering - Stanford University
[3] Recommendation systems - Machine Learning - Andrew Ng
[4] Ekstrand, Michael D., John T. Riedl, and Joseph A. Konstan. “Collaborative filtering recommender systems.” Foundations and Trends® in Human–Computer Interaction 4.2 (2011): 81-173.