Advertisement
Alaricy

сервер в конце второго спринта

Nov 2nd, 2022
84
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
C++ 10.28 KB | None | 0 0
  1. #include <algorithm>
  2. #include <cmath>
  3. #include <iostream>
  4. #include <map>
  5. #include <set>
  6. #include <string>
  7. #include <utility>
  8. #include <vector>
  9.  
  10. using namespace std;
  11.  
  12. const int MAX_RESULT_DOCUMENT_COUNT = 5;
  13.  
  14. string ReadLine() {
  15.     string s;
  16.     getline(cin, s);
  17.     return s;
  18. }
  19.  
  20. int ReadLineWithNumber() {
  21.     int result;
  22.     cin >> result;
  23.     ReadLine();
  24.     return result;
  25. }
  26.  
  27. vector<string> SplitIntoWords(const string& text) {
  28.     vector<string> words;
  29.     string word;
  30.     for (const char c : text) {
  31.         if (c == ' ') {
  32.             if (!word.empty()) {
  33.                 words.push_back(word);
  34.                 word.clear();
  35.             }
  36.         } else {
  37.             word += c;
  38.         }
  39.     }
  40.     if (!word.empty()) {
  41.         words.push_back(word);
  42.     }
  43.  
  44.     return words;
  45. }
  46.  
  47. struct Document {
  48.     int id;
  49.     double relevance;
  50.     int rating;
  51. };
  52.  
  53. enum class DocumentStatus {
  54.     ACTUAL,
  55.     IRRELEVANT,
  56.     BANNED,
  57.     REMOVED,
  58. };
  59.  
  60. class SearchServer {
  61. public:
  62.  
  63.     vector<Document> FindTopDocuments(const string& raw_query) const {
  64.         const Query query_words = ParseQuery(raw_query);
  65.         auto matched_documents = FindAllDocuments(query_words, [](int document_id, DocumentStatus status, int rating) { return status == DocumentStatus::ACTUAL; });
  66.  
  67.         sort(matched_documents.begin(), matched_documents.end(),
  68.              [](const Document& lhs, const Document& rhs) {
  69.                  if (abs(lhs.relevance - rhs.relevance) < 1e-6) {
  70.                      return lhs.rating > rhs.rating;
  71.                  } else {
  72.                      return lhs.relevance > rhs.relevance;
  73.                  }
  74.              });
  75.         if (matched_documents.size() > MAX_RESULT_DOCUMENT_COUNT) {
  76.             matched_documents.resize(MAX_RESULT_DOCUMENT_COUNT);
  77.         }
  78.         return matched_documents;
  79.     }
  80.  
  81. vector<Document> FindTopDocuments(const string& raw_query, DocumentStatus status) const {
  82.         const Query query_words = ParseQuery(raw_query);
  83.         auto matched_documents = FindAllDocuments(query_words, [status](int document_id, DocumentStatus stat, int rating) { return status==stat;});
  84.  
  85.         sort(matched_documents.begin(), matched_documents.end(),
  86.              [](const Document& lhs, const Document& rhs) {
  87.                  if (abs(lhs.relevance - rhs.relevance) < 1e-6) {
  88.                      return lhs.rating > rhs.rating;
  89.                  } else {
  90.                      return lhs.relevance > rhs.relevance;
  91.                  }
  92.              });
  93.         if (matched_documents.size() > MAX_RESULT_DOCUMENT_COUNT) {
  94.             matched_documents.resize(MAX_RESULT_DOCUMENT_COUNT);
  95.         }
  96.         return matched_documents;
  97.     }
  98.  
  99.     void SetStopWords(const string& text) {
  100.         for (const string& word : SplitIntoWords(text)) {
  101.             stop_words_.insert(word);
  102.         }
  103.     }
  104.  
  105.     void AddDocument(int document_id, const string& document, DocumentStatus status,
  106.                      const vector<int>& ratings) {
  107.         const vector<string> words = SplitIntoWordsNoStop(document);
  108.         const double inv_word_count = 1.0 / words.size();
  109.         for (const string& word : words) {
  110.             word_to_document_freqs_[word][document_id] += inv_word_count;
  111.         }
  112.         documents_.emplace(document_id, DocumentData{ComputeAverageRating(ratings), status});
  113.     }
  114.  
  115.     template <typename Predicate>
  116.     vector<Document> FindTopDocuments(const string& raw_query,
  117.                                       Predicate predicate) const {
  118.         const Query query = ParseQuery(raw_query);
  119.         auto matched_documents = FindAllDocuments(query, predicate);
  120.  
  121.         sort(matched_documents.begin(), matched_documents.end(),
  122.              [](const Document& lhs, const Document& rhs) {
  123.                  if (abs(lhs.relevance - rhs.relevance) < 1e-6) {
  124.                      return lhs.rating > rhs.rating;
  125.                  } else {
  126.                      return lhs.relevance > rhs.relevance;
  127.                  }
  128.              });
  129.         if (matched_documents.size() > MAX_RESULT_DOCUMENT_COUNT) {
  130.             matched_documents.resize(MAX_RESULT_DOCUMENT_COUNT);
  131.         }
  132.         return matched_documents;
  133.     }
  134.  
  135.     int GetDocumentCount() const {
  136.         return documents_.size();
  137.     }
  138.  
  139.     tuple<vector<string>, DocumentStatus> MatchDocument(const string& raw_query,
  140.                                                         int document_id) const {
  141.         const Query query = ParseQuery(raw_query);
  142.         vector<string> matched_words;
  143.         for (const string& word : query.plus_words) {
  144.             if (word_to_document_freqs_.count(word) == 0) {
  145.                 continue;
  146.             }
  147.             if (word_to_document_freqs_.at(word).count(document_id)) {
  148.                 matched_words.push_back(word);
  149.             }
  150.         }
  151.         for (const string& word : query.minus_words) {
  152.             if (word_to_document_freqs_.count(word) == 0) {
  153.                 continue;
  154.             }
  155.             if (word_to_document_freqs_.at(word).count(document_id)) {
  156.                 matched_words.clear();
  157.                 break;
  158.             }
  159.         }
  160.         return {matched_words, documents_.at(document_id).status};
  161.     }
  162.  
  163. private:
  164.     struct DocumentData {
  165.         int rating;
  166.         DocumentStatus status;
  167.     };
  168.  
  169.     set<string> stop_words_;
  170.     map<string, map<int, double>> word_to_document_freqs_;
  171.     map<int, DocumentData> documents_;
  172.  
  173.     bool IsStopWord(const string& word) const {
  174.         return stop_words_.count(word) > 0;
  175.     }
  176.  
  177.     vector<string> SplitIntoWordsNoStop(const string& text) const {
  178.         vector<string> words;
  179.         for (const string& word : SplitIntoWords(text)) {
  180.             if (!IsStopWord(word)) {
  181.                 words.push_back(word);
  182.             }
  183.         }
  184.         return words;
  185.     }
  186.  
  187.     static int ComputeAverageRating(const vector<int>& ratings) {
  188.         if (ratings.empty()) {
  189.             return 0;
  190.         }
  191.         int rating_sum = 0;
  192.         for (const int rating : ratings) {
  193.             rating_sum += rating;
  194.         }
  195.         return rating_sum / static_cast<int>(ratings.size());
  196.     }
  197.  
  198.     struct QueryWord {
  199.         string data;
  200.         bool is_minus;
  201.         bool is_stop;
  202.     };
  203.  
  204.     QueryWord ParseQueryWord(string text) const {
  205.         bool is_minus = false;
  206.         // Word shouldn't be empty
  207.         if (text[0] == '-') {
  208.             is_minus = true;
  209.             text = text.substr(1);
  210.         }
  211.         return {text, is_minus, IsStopWord(text)};
  212.     }
  213.  
  214.     struct Query {
  215.         set<string> plus_words;
  216.         set<string> minus_words;
  217.     };
  218.  
  219.     Query ParseQuery(const string& text) const {
  220.         Query query;
  221.         for (const string& word : SplitIntoWords(text)) {
  222.             const QueryWord query_word = ParseQueryWord(word);
  223.             if (!query_word.is_stop) {
  224.                 if (query_word.is_minus) {
  225.                     query.minus_words.insert(query_word.data);
  226.                 } else {
  227.                     query.plus_words.insert(query_word.data);
  228.                 }
  229.             }
  230.         }
  231.         return query;
  232.     }
  233.  
  234.     // Existence required
  235.     double ComputeWordInverseDocumentFreq(const string& word) const {
  236.         return log(GetDocumentCount() * 1.0 / word_to_document_freqs_.at(word).size());
  237.     }
  238.  
  239.     template <typename Predicate>
  240.     vector<Document> FindAllDocuments(const Query& query, Predicate predicat) const {
  241.         map<int, double> document_to_relevance;
  242.         for (const string& word : query.plus_words) {
  243.             if (word_to_document_freqs_.count(word) == 0) {
  244.                 continue;
  245.             }
  246.             const double inverse_document_freq = ComputeWordInverseDocumentFreq(word);
  247.             for (const auto [document_id, term_freq] : word_to_document_freqs_.at(word)) {
  248.                 if (predicat(document_id, documents_.at(document_id).status, documents_.at(document_id).rating)) {
  249.                     document_to_relevance[document_id] += term_freq * inverse_document_freq;
  250.                 }
  251.             }
  252.         }
  253.  
  254.         for (const string& word : query.minus_words) {
  255.             if (word_to_document_freqs_.count(word) == 0) {
  256.                 continue;
  257.             }
  258.             for (const auto [document_id, _] : word_to_document_freqs_.at(word)) {
  259.                 document_to_relevance.erase(document_id);
  260.             }
  261.         }
  262.  
  263.         vector<Document> matched_documents;
  264.         for (const auto [document_id, relevance] : document_to_relevance) {
  265.             matched_documents.push_back(
  266.                 {document_id, relevance, documents_.at(document_id).rating});
  267.         }
  268.         return matched_documents;
  269.     }
  270. };
  271.  
  272. // ==================== для примера =========================
  273.  
  274. void PrintDocument(const Document& document) {
  275.     cout << "{ "s
  276.          << "document_id = "s << document.id << ", "s
  277.          << "relevance = "s << document.relevance << ", "s
  278.          << "rating = "s << document.rating << " }"s << endl;
  279. }
  280. int main() {
  281.     SearchServer search_server;
  282.     search_server.SetStopWords("и в на"s);
  283.     search_server.AddDocument(0, "белый кот и модный ошейник"s,        DocumentStatus::ACTUAL, {8, -3});
  284.     search_server.AddDocument(1, "пушистый кот пушистый хвост"s,       DocumentStatus::ACTUAL, {7, 2, 7});
  285.     search_server.AddDocument(2, "ухоженный пёс выразительные глаза"s, DocumentStatus::ACTUAL, {5, -12, 2, 1});
  286.     search_server.AddDocument(3, "ухоженный скворец евгений"s,         DocumentStatus::BANNED, {9});
  287.     cout << "ACTUAL by default:"s << endl;
  288.     for (const Document& document : search_server.FindTopDocuments("пушистый ухоженный кот"s)) {
  289.         PrintDocument(document);
  290.     }
  291.     cout << "BANNED:"s << endl;
  292.     for (const Document& document : search_server.FindTopDocuments("пушистый ухоженный кот"s, DocumentStatus::BANNED)) {
  293.         PrintDocument(document);
  294.     }
  295.     cout << "Even ids:"s << endl;
  296.     for (const Document& document : search_server.FindTopDocuments("пушистый ухоженный кот"s, [](int document_id, DocumentStatus status, int rating) { return document_id % 2 == 0; })) {
  297.         PrintDocument(document);
  298.     }
  299.     return 0;
  300. }
  301.  
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement