--- base_model: jangedoo/all-MiniLM-L6-v2-nepali datasets: - wikimedia/wikipedia - momo22/eng2nep - wisewizer/nepali-news - NepaliAI/Nepali-Health-Fact language: - en - ne library_name: sentence-transformers metrics: - cosine_accuracy@1 - cosine_accuracy@3 - cosine_accuracy@5 - cosine_accuracy@10 - cosine_precision@1 - cosine_precision@3 - cosine_precision@5 - cosine_precision@10 - cosine_recall@1 - cosine_recall@3 - cosine_recall@5 - cosine_recall@10 - cosine_ndcg@10 - cosine_mrr@10 - cosine_mrr@20 - cosine_mrr@50 - cosine_map@100 pipeline_tag: sentence-similarity tags: - sentence-transformers - sentence-similarity - feature-extraction - generated_from_trainer - dataset_size:850049 - loss:MultipleNegativesSymmetricRankingLoss - loss:MSELoss widget: - source_sentence: मैले मेरो तल्लो बायाँ पछाडि र पेटमा गम्भीर दुखाइको अनुभव गरिरहेको छु। मैले 20 वर्ष पहिले मेरो दाईलाई मेरो देब्रे मृगौला दान गरें, त्यसैले मलाई यो मृगौला संक्रमण हो जस्तो लाग्दैन। मेरो तल्लो बायाँ पेटको एक्स-रे र बिरालोको स्क्यान फेरि स्पष्ट आयो, तर मेरो डाक्टरलाई अब के गर्ने थाहा छैन। sentences: - '- बाँझोपन धेरै कारण हुन सक्छ - फलोपियन ट्युब खुल्ला हुनुको मतलब सधैं उर्वर हुनु होइन - एउटा खुला र स्वस्थ ट्यूबले गर्भधारणको सम्भावना बढाउँछ - अन्य बांझपन कारणहरू अस्वीकार गर्न परीक्षणहरूको लागि स्त्री रोग विशेषज्ञ खोज्नुहोस् - अप्रभावी यौन सम्पर्क वा हार्मोनल समस्याहरू जस्ता कारकहरूले प्रजनन क्षमतालाई असर गर्न सक्छ - यौनसम्पर्क पछि मोहम्मदको स्थितिमा सुत्दा एन्टभर्टेड गर्भाशय ग्रीवालाई मद्दत गर्न सकिन्छ - प्रजनन क्षमता सुधार गर्न अन्तर्निहित मुद्दाहरूलाई सम्बोधन गर्नु महत्त्वपूर्ण छ।' - 'तपाईंको चिन्तालाई सम्बोधन गर्न, यहाँ केहि सुझावहरू छन्: 1. यूरिया र क्रिएटिनिन स्तरहरू मापनको साथसाथै, पूर्ण पिसाब जाँच गराउने बारे विचार गर्नुहोस्। 2. केही मृगौला दाताहरूले समयको साथमा मृगौलाको कार्यक्षमतामा गिरावटको अनुभव गर्न सक्छन् र भविष्यमा डायलासिस आवश्यक हुन सक्छ। 3. तपाईको मिर्गौलाको स्वास्थ्यको मूल्याङ्कन गर्नु महत्त्वपूर्ण छ, यदि तपाई अहिले स्वस्थ महसुस गर्नुहुन्छ भने। 4. पिसाब नलीको संक्रमणले गर्दा पनि दुखाइ हुन सक्छ, जसलाई पिसाब संस्कृति/संवेदनशीलता परीक्षण पछि एन्टिबायोटिकले सजिलै उपचार गर्न सकिन्छ। 5. आवश्यक निदान परीक्षणहरू गराउन र रिपोर्टहरू स्वास्थ्य सेवा पेशेवर वा च्याट प्लेटफर्म मार्फत साझेदारी गर्न सिफारिस गरिन्छ। 6. वैकल्पिक रूपमा, तपाईं थप मार्गदर्शनको लागि आफ्नो पारिवारिक चिकित्सकसँग परामर्श गर्न सक्नुहुन्छ। 7. तपाईलाई शुभकामना र आशा छ कि तपाईको चिन्ता सन्तोषजनक रूपमा सम्बोधन गरिएको छ।' - पलक जैन एक भारतीय अभिनेत्री हुन्, उनले धेरै टेली चलचित्रहरूमा कार्य गरी सकेकी छिन्। इतना करो ना मुझे प्यार, कहीं किसी रोज, दो हंसों का जोडा, दी बड्डी प्रोजेक्ट, क्राइम पेट्रोल आदिमा उनीले कार्य गरेकी छिन् । उनीले छ वर्षको उमेरबाट अभिनयको थालनी गरिन् । - source_sentence: के म मेरो अनुहारमा पिम्पल र दागहरू हटाउन मेलाग्लो जेल प्रयोग गर्न सक्छु? मलाई धेरै वर्षदेखि निचोल्ने र छेक्ने लत लागेको छ, र अब म मेरो जीवनमा कम्तिमा एक पटक स्पष्ट अनुहार पाउन चाहन्छु। म गोरो छाला भएको ४२ वर्षीया महिला हुँ। sentences: - '- छालाको चिन्ताको उपचार गर्न ग्लाइकोलिक एसिड वा सेलिसिलिक एसिड फेसवाश प्रयोग गर्नुहोस् - ब्ल्याकहेड्स निचोड वा छनोट नगर्नुहोस्, किनकि यसले दाग र पिग्मेन्टेसन निम्त्याउन सक्छ - पिम्पलको लागि क्लिन्डामाइसिन जेल र रेटिन-ए क्रिम प्रयोग गर्नुहोस् - पिग्मेन्टेसन चिन्हहरूको लागि कमिक एसिड क्रिम प्रयोग गर्नुहोस् - गम्भीर मुँहासेको लागि छाला विशेषज्ञसँग परामर्श गर्नुहोस् - गम्भीर मुँहासेको लागि मौखिक एन्टिबायोटिक वा आइसोट्रेटिनोइन लिने विचार गर्नुहोस् - तपाइँको 40 को दशक मा मुँहासे को लागी हर्मोन चक्की को आवश्यकता हुन सक्छ - रासायनिक बोक्राले दाग, पिग्मेन्टेसन, र सक्रिय मुँहासे घावहरूमा मद्दत गर्न सक्छ - थप उपचार विकल्पहरूको लागि छाला विशेषज्ञसँग भेटघाट गर्नुहोस्।' - "इन्द्र कुमार गुजराल (जन्म ४ डिसेम्बर स.न्. १९१९) भारतका पूर्व प्रधानमन्त्री थिए\ \ । \n\nसन्दर्भ सामग्रीहरू\n\nयी पनि हेर्नुहोस्\n\nभारतीय राजनीतिज्ञहरू\nभारतका\ \ प्रधानमन्त्रीहरू\nभारतीय नेताहरू\nसन् २०१२ मा मृत्यु\nभारतीय हिन्दुहरू" - '- यो उमेर समूहका लागि Piriton प्रयोग गर्नु हुँदैन। - बालबालिकामा रुघाखोकी र रुघाखोकी सामान्यतया भाइरसको कारणले हुन्छ । - चिसो लक्षणहरूको लागि, तपाइँ सेटिरिजिन जस्ता एन्टि-एलर्जी औषधिहरू प्रयोग गर्न सक्नुहुन्छ। - नुनिलो नाक डिकन्जेस्टेन्टले भरिएको नाकमा मद्दत गर्न सक्छ। - ज्वरोको लागि पारासिटामोल दिन सकिन्छ, तर यदि यो 100F माथि छ भने मात्र। - ज्वरोको लागि संयोजन औषधिहरू प्रयोग नगर्नुहोस्, विशेष गरी पारासिटामोलको साथ। - Cetirizine चिसो लक्षणहरूको लागि 0.25 mg/kg प्रत्येक 12 घण्टामा 3 दिनको लागि प्रयोग गर्न सकिन्छ। - सादा सलाइन नाक ड्रप नाक अवरोध को लागी प्रयोग गर्न सकिन्छ।' - source_sentence: बेलविछवा sentences: - सडकको नियमित मर्मतका लागि भनेर सरकारले विभिन्न सेवा र वस्तुमार्फत् अर्बौँ रुपैयाँ कर उठाउँछ। - '- तपाईंको ढाडमा गाँठहरू प्रायः कीराको टोकाइ वा ब्याक्टेरियाको संक्रमणको कारणले हुन्छ, जसले फोकाहरू निम्त्याउन सक्छ। – तपाईलाई हाइपो थाइराइड भएको हुनाले यो समस्यासँग सम्बन्धित हुन सक्छ । - म तपाईंलाई थप परीक्षण र उपयुक्त उपचारको लागि आपतकालीन कोठा (ER) डाक्टरसँग परामर्श गर्न सल्लाह दिन्छु। - चिन्ता नगर्नुहोस्, उचित हेरचाह गर्नाले गाँठो हट्नेछ। - उपचारमा ओभर-द-काउन्टर दुखाइ निवारकहरू (NSAIDs) र एन्टिबायोटिकहरू समावेश हुन सक्छ। - भविष्यमा थप प्रश्नहरू सोध्न स्वतन्त्र महसुस गर्नुहोस्, र शुभ दिन।' - "बेलविछवा रौतहट जिल्लाको एक गाउँ विकास समिति हो । \n\nसन्दर्भ सामग्रीहरू\n\nबाह्य\ \ कडीहरू" - source_sentence: बीबीसी अनुसन्धानपछि नेपालमा चिम्पान्जी तस्कर पक्राउ sentences: - '- तपाईंले महसुस गर्नुभएको दुखाइ तपाईंको रिब पिंजरामा तानिएको मांसपेशीले गर्दा भएको थियो। - तपाईं यार्ड मा काम गर्दा यो भयो। - यो सामान्य मांसपेशी र हड्डी दुखाइ भएकोले चिन्ता लिनु पर्दैन। - कुनै पनि भारी शारीरिक गतिविधिहरू नगर्नुहोस् जसले तपाईंको माथिल्लो शरीरलाई तनाव दिन्छ। - सुत्दा बायाँ तिर सुत्नुहोस्। - यदि दुखाइ फिर्ता आयो भने, तपाइँ एस्पिरिन वा आइबुप्रोफेन जस्ता साधारण दुखाइ निवारक लिन सक्नुहुन्छ। - यी चरणहरू पछ्याउँदा तपाईंलाई राम्रो महसुस गर्न मद्दत गर्नेछ। - यदि तपाइँसँग कुनै थप चिन्ता छ भने, हामीसँग फेरि कुराकानी गर्न नहिचकिचाउनुहोस्।' - चिम्पान्जी तस्करीबारे गत वर्ष बीबीसी अनुसन्धानबाट भएको खुलासाका आधारमा नेपाल प्रहरीले सो सङ्कटापन्न वन्यजन्तु तस्करी गर्ने एउटा प्रयास विफल पारिदिएको छ। - "छिन्दवाडा जिल्ला भारतीय राज्य मध्य प्रदेशको एउटा जिल्ला हो। \n\nयो पनि हेर्नुहोस्\n\ \nमध्य प्रदेश\nभारतका जिल्लाहरू\nमध्य प्रदेशका जिल्लाहरू" - source_sentence: अर्थवेद sentences: - "अर्थवेद\nचार वेदका चार उपवेद मानिन्छ-\nधनुर्वेद, \nगान्धर्ववेद, \nआयुर्वेद, र\ \ \nअर्थवेद \nपं. धनराज शास्त्रीले अर्थवेदका चार ठूला र दुइ ाना ग्रन्थको उल्लेख\ \ गरेका छन्\n\nठूला ग्रन्थ\nचार ठूला ग्रन्थ यस प्रकार छन् \n १. अर्थोपवेद– यसको\ \ श्लोक संख्या एक लाख बताइएको छ । \n २.अर्थवेद– यसको श्लोक संख्या ३० हजार बताइएको\ \ छ । \n ३. अर्थ चन्द्रोदय– यसको श्लोक संख्या २० हजार बताइएको छ ।" - वाच्य भनेको भनाइ हो । वाक्यमा रहेका कर्ता, कर्म र क्रियामध्ये कुन भनाइ मुख्य रहेको छ भनी छुट्याउने व्याकरणिक कोटिलाई वाच्य भनिन्छ । अर्थात् कर्ता, कर्म र भावको बोध गराउने वाक्यलाइ वाच्य भनिन्छ । - "डा. फेल, डिटेक्टिभ, एन्ड अदर स्टोरिज अमेरिकन उपन्यासकार तथा लेखक जोन डिक्सन कारद्वारा\ \ लिखित लघुकथा सङ्ग्रह हो । \n\nसन्दर्भ सूची\n\nलघुकथा संग्रहहरू\nपुस्तकहरू\n\ जोन डिक्सन कारका लघुकथा संग्रहहरू" model-index: - name: SentenceTransformer based on jangedoo/all-MiniLM-L6-v2-nepali results: - task: type: information-retrieval name: Information Retrieval dataset: name: Unknown type: unknown metrics: - type: cosine_accuracy@1 value: 0.5404 name: Cosine Accuracy@1 - type: cosine_accuracy@3 value: 0.6196 name: Cosine Accuracy@3 - type: cosine_accuracy@5 value: 0.654 name: Cosine Accuracy@5 - type: cosine_accuracy@10 value: 0.6962 name: Cosine Accuracy@10 - type: cosine_precision@1 value: 0.5404 name: Cosine Precision@1 - type: cosine_precision@3 value: 0.2065333333333333 name: Cosine Precision@3 - type: cosine_precision@5 value: 0.1308 name: Cosine Precision@5 - type: cosine_precision@10 value: 0.06961999999999999 name: Cosine Precision@10 - type: cosine_recall@1 value: 0.5404 name: Cosine Recall@1 - type: cosine_recall@3 value: 0.6196 name: Cosine Recall@3 - type: cosine_recall@5 value: 0.654 name: Cosine Recall@5 - type: cosine_recall@10 value: 0.6962 name: Cosine Recall@10 - type: cosine_ndcg@10 value: 0.614560612378296 name: Cosine Ndcg@10 - type: cosine_mrr@10 value: 0.5888884126984126 name: Cosine Mrr@10 - type: cosine_mrr@20 value: 0.5918181110470189 name: Cosine Mrr@20 - type: cosine_mrr@50 value: 0.5937323352722809 name: Cosine Mrr@50 - type: cosine_map@100 value: 0.5943859310752522 name: Cosine Map@100 --- # SentenceTransformer based on jangedoo/all-MiniLM-L6-v2-nepali This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sentence-transformers/all-MiniLM-L6-v2](https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2) on the [momo22/eng2nep](https://huggingface.co/datasets/momo22/eng2nep), [NepaliAI/Nepali-Health-Fact](https://huggingface.co/datasets/NepaliAI/Nepali-Health-Fact), [wikimedia/wikipedia](https://huggingface.co/datasets/wikimedia/wikipedia), [wisewizer/nepali-news](https://huggingface.co/datasets/wisewizer/nepali-news) dataset. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more. Two step approach was taken to fine-tune this model. First I took [sentence-transformers/all-MiniLM-L6-v2](https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2) model and then made it multi-lingual (English and Nepali). The approach is describe here [Making Monolingual Sentence Embeddings Multilingual using Knowledge Distillation](https://arxiv.org/abs/2004.09813). The basic idea is that we need a parallel corpus. In this case I took [momo22/eng2nep](https://huggingface.co/datasets/momo22/eng2nep) which contains English to Nepali sentence pairs. Then the `sentence-transformers/all-MiniLM-L6-v2` was used to generate embeddings for English sentences. While training, the model was fine-tuned in a way that it produces embeddings for Nepali sentences to be similar to the corresponding English embeddings. The loss function used was `MSELoss`. Next, this new `multi-lingual` model was further fine tuned on datasets like Nepali Wikipedia articles, Nepali News, Nepali Health Q&A. I took the `title` and `body` from those datasets and treat them as `anchor` and `positive` for computing pair-wise similarity. Specifically, the `MultipleNegativesSymmetricRankingLoss` was used. Basically this will force the embeddings of `anchor` to be similar to `positive` and vice-versa. The negative samples are automatically mined from a batch and the objective is to make sure similarity between `anchor` and `positive` is higher than `anchor` and `negative`. The rest of the content was generated automatically by sentence-transformers library. ## Model Details ### Model Description - **Model Type:** Sentence Transformer - **Base model:** [jangedoo/all-MiniLM-L6-v2-nepali](https://huggingface.co/jangedoo/all-MiniLM-L6-v2-nepali) - **Maximum Sequence Length:** 256 tokens - **Output Dimensionality:** 384 tokens - **Similarity Function:** Cosine Similarity - **Training Dataset:** - [momo22/eng2nep](https://huggingface.co/datasets/momo22/eng2nep) - [NepaliAI/Nepali-Health-Fact](https://huggingface.co/datasets/NepaliAI/Nepali-Health-Fact) - [wikimedia/wikipedia](https://huggingface.co/datasets/wikimedia/wikipedia) - [wisewizer/nepali-news](https://huggingface.co/datasets/wisewizer/nepali-news) - **Languages:** en, ne ### Model Sources - **Documentation:** [Sentence Transformers Documentation](https://sbert.net) - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers) - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers) ### Full Model Architecture ``` SentenceTransformer( (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: BertModel (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True}) (2): Normalize() ) ``` ## Usage ### Direct Usage (Sentence Transformers) First install the Sentence Transformers library: ```bash pip install -U sentence-transformers ``` Then you can load this model and run inference. ```python from sentence_transformers import SentenceTransformer # Download from the 🤗 Hub model = SentenceTransformer("jangedoo/all-MiniLM-L6-v2-nepali") # Run inference sentences = [ 'अर्थवेद', 'अर्थवेद\nचार वेदका चार उपवेद मानिन्छ-\nधनुर्वेद, \nगान्धर्ववेद, \nआयुर्वेद, र \nअर्थवेद \nपं. धनराज शास्त्रीले अर्थवेदका चार ठूला र दुइ ाना ग्रन्थको उल्लेख गरेका छन्\n\nठूला ग्रन्थ\nचार ठूला ग्रन्थ यस प्रकार छन् \n १. अर्थोपवेद– यसको श्लोक संख्या एक लाख बताइएको छ । \n २.अर्थवेद– यसको श्लोक संख्या ३० हजार बताइएको छ । \n ३. अर्थ चन्द्रोदय– यसको श्लोक संख्या २० हजार बताइएको छ ।', 'डा. फेल, डिटेक्टिभ, एन्ड अदर स्टोरिज अमेरिकन उपन्यासकार तथा लेखक जोन डिक्सन कारद्वारा लिखित लघुकथा सङ्ग्रह हो । \n\nसन्दर्भ सूची\n\nलघुकथा संग्रहहरू\nपुस्तकहरू\nजोन डिक्सन कारका लघुकथा संग्रहहरू', ] embeddings = model.encode(sentences) print(embeddings.shape) # [3, 384] # Get the similarity scores for the embeddings similarities = model.similarity(embeddings, embeddings) print(similarities.shape) # [3, 3] ``` ## Evaluation ### Metrics #### Information Retrieval * Evaluated with [InformationRetrievalEvaluator](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) | Metric | Value | |:--------------------|:-----------| | cosine_accuracy@1 | 0.5404 | | cosine_accuracy@3 | 0.6196 | | cosine_accuracy@5 | 0.654 | | cosine_accuracy@10 | 0.6962 | | cosine_precision@1 | 0.5404 | | cosine_precision@3 | 0.2065 | | cosine_precision@5 | 0.1308 | | cosine_precision@10 | 0.0696 | | cosine_recall@1 | 0.5404 | | cosine_recall@3 | 0.6196 | | cosine_recall@5 | 0.654 | | cosine_recall@10 | 0.6962 | | cosine_ndcg@10 | 0.6146 | | cosine_mrr@10 | 0.5889 | | cosine_mrr@20 | 0.5918 | | cosine_mrr@50 | 0.5937 | | **cosine_map@100** | **0.5944** | ## Training Details ### Training Dataset #### wikimedia/wikipedia * Dataset: [wikimedia/wikipedia](https://huggingface.co/datasets/wikimedia/wikipedia) at [b04c8d1](https://huggingface.co/datasets/wikimedia/wikipedia/tree/b04c8d1ceb2f5cd4588862100d08de323dccfbaa) * Size: 50,049 training samples * Columns: anchor and positive * Approximate statistics based on the first 1000 samples: | | anchor | positive | |:--------|:-----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------| | type | string | string | | details | | | * Samples: | anchor | positive | |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| | पहिलो पटक फेस वेक्सिङ गर्ने प्रयास गरेपछि मेरो गालामा दागहरू देखा परे। मेरो डाक्टरले clindac A जेल सिफारिस गर्नुभयो। के मेरो छाला निको हुन लामो समय लाग्छ वा केहि दिनमा यो राम्रो हुन सक्छ? | डाक्टरबाट सुझावहरू:

1. उचित परीक्षणको लागि छाला विशेषज्ञसँग परामर्श गर्नुहोस्।
2. वाक्सिङ पछि तपाईंको अनुहारमा दागहरू सम्पर्क डर्मेटाइटिस वा एलर्जी प्रतिक्रियाको कारण हुन सक्छ।
3. डाक्टरले एन्टिहिस्टामिन औषधि र कोर्टिकोस्टेरोइड मलम लेख्न सक्छ।
4. रातो दागहरू छुन वा चुम्बन नगर्नुहोस्।
5. अहिलेको लागि प्रत्यक्ष सूर्यको जोखिम र कस्मेटिक उत्पादनहरूबाट बच्नुहोस्।
| | विश्व व्यापार केन्द्र | वर्ल्ड ट्रेड सेन्टर न्यु योर्क सहरको मैनछटनमा बनेका दुई टावर रूपी भवनहरूको जोडी थियो, जसलाई आतंकवादी सङ्गठन अल कायदासंग सम्बन्धित आतंकवादिहरूले ११ सितंबर, २००१मा नष्ट गरिदिएका थिए।

मूल वर्ल्ड ट्रेड सेन्टर तल्लो मैनहट्टन, न्यु योर्क सिटी, संयुक्त राज्य अमेरिकामा मीलको पत्थर जुडुवा टावरहरूको विशेषता सात भवनहरुका साथ एक जटिल थियो। जटिल ४ अप्रिल, १९७३लाई खोला, र ११ सेप्टेम्बरका हमलाको समयमा २००१मा नष्ट गरेको थियो।
| | एम्बुलेन्स | एम्बुलेन्स बिरामी वा घाइते मान्छेलाई रोग वा चोट लागि उपचार गर्नको लागि अस्पताल सम्म पुर्याउन प्रयोग हुने सवारी साधन हो।

यो पनि हेर्नुहोस

सन्दर्भ सामग्रीहरू

बाह्य कडीहरू

आकस्मिक स्वास्थ्य सेवा
एम्बुलेन्स
| * Loss: [MultipleNegativesSymmetricRankingLoss](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativessymmetricrankingloss) with these parameters: ```json { "scale": 20.0, "similarity_fct": "cos_sim" } ``` ### Evaluation Dataset #### wikimedia/wikipedia * Dataset: [wikimedia/wikipedia](https://huggingface.co/datasets/wikimedia/wikipedia) at [b04c8d1](https://huggingface.co/datasets/wikimedia/wikipedia/tree/b04c8d1ceb2f5cd4588862100d08de323dccfbaa) * Size: 3,000 evaluation samples * Columns: anchor and positive * Approximate statistics based on the first 1000 samples: | | anchor | positive | |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------| | type | string | string | | details | | | * Samples: | anchor | positive | |:--------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| | जनसाङ्ख्यिकीय लाभांश | जनसाङ्ख्यिकीय लाभांश (Demographic dividend) अर्थ व्यवस्थामा मानव संसाधनका सकारात्मक र सतत विकासलाई दर्शाउँदछ। यो जनसङ्ख्या ढाँचामा बढदो युवा एवं कार्यशील जनसङ्ख्या (१५ वर्षदेखि ६४ वर्ष आयु वर्ग) तथा घट्तो आश्रितता अनुपातका परिणामस्वरूप उत्पादनमा ठूलो मात्राका सृजनलाई प्रदर्शित गर्दछ। यस स्थितिमा जनसङ्ख्या पिरामिड उल्टा बन्नेछ अर्थात यसमा कम जनसङ्ख्या आधार भन्दा माथि ठूलो जनसङ्ख्यातर्फ बढ्दछन्। | | साडी गाविस | साडी गाविस नेपालको पश्चिमाञ्चल विकास क्षेत्रको लुम्बिनी अञ्चल, रूपन्देही जिल्लामा अवस्थित गाउँ विकास समिति हो ।

रूपन्देही जिल्लाका ठाउँहरू
| | हेप सी र सिरोसिस भएको मेरो साथीले नाकबाट रगत बग्नेलाई गम्भीरतापूर्वक लिनु पर्छ र जेलमा विशेषज्ञलाई भेट्न माग गर्नु पर्छ? | – लिभर सिरोसिसले नाकबाट रगत बगाउन सक्छ
– सिरोसिसमा कलेजोले राम्रोसँग काम गर्दैन
- यसले कोगुलेसन कारकहरूको उत्पादनलाई असर गर्छ, जुन रगत जम्मा गर्न जिम्मेवार हुन्छ
- फलस्वरूप, क्लोटिंग प्रणाली प्रभावित हुन्छ र नाक रगत हुन सक्छ
- तपाईंको साथीले उचित मूल्याङ्कन र उपचारको लागि डाक्टरसँग परामर्श गर्नुपर्छ
- केहि अवस्थामा, पोर्टल हाइपरटेन्सन व्यवस्थापन गर्न TIPS जस्ता शल्यक्रियाहरू वा बीटा ब्लकरहरू जस्तै औषधिहरू सिफारिस गर्न सकिन्छ।
- सिरोसिसको अन्तिम उपचार कलेजो प्रत्यारोपण हो
- यदि varices (अन्ननलीमा असामान्य नसहरू) बाट कुनै पनि रक्तस्राव भएमा, ब्यान्डिङ जस्ता प्रक्रियाहरूको लागि तत्काल चिकित्सा ध्यान आवश्यक छ।
- यो तपाईंको साथीसँग कुराकानी जारी राख्न र यस प्रक्रिया मार्फत तिनीहरूलाई समर्थन गर्न महत्त्वपूर्ण छ
| * Loss: [MultipleNegativesSymmetricRankingLoss](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativessymmetricrankingloss) with these parameters: ```json { "scale": 20.0, "similarity_fct": "cos_sim" } ``` ### Training Hyperparameters #### Non-Default Hyperparameters - `eval_strategy`: steps - `per_device_train_batch_size`: 128 - `per_device_eval_batch_size`: 128 - `learning_rate`: 2e-05 - `num_train_epochs`: 1 - `warmup_ratio`: 0.1 - `bf16`: True #### All Hyperparameters
Click to expand - `overwrite_output_dir`: False - `do_predict`: False - `eval_strategy`: steps - `prediction_loss_only`: True - `per_device_train_batch_size`: 128 - `per_device_eval_batch_size`: 128 - `per_gpu_train_batch_size`: None - `per_gpu_eval_batch_size`: None - `gradient_accumulation_steps`: 1 - `eval_accumulation_steps`: None - `torch_empty_cache_steps`: None - `learning_rate`: 2e-05 - `weight_decay`: 0.0 - `adam_beta1`: 0.9 - `adam_beta2`: 0.999 - `adam_epsilon`: 1e-08 - `max_grad_norm`: 1.0 - `num_train_epochs`: 1 - `max_steps`: -1 - `lr_scheduler_type`: linear - `lr_scheduler_kwargs`: {} - `warmup_ratio`: 0.1 - `warmup_steps`: 0 - `log_level`: passive - `log_level_replica`: warning - `log_on_each_node`: True - `logging_nan_inf_filter`: True - `save_safetensors`: True - `save_on_each_node`: False - `save_only_model`: False - `restore_callback_states_from_checkpoint`: False - `no_cuda`: False - `use_cpu`: False - `use_mps_device`: False - `seed`: 42 - `data_seed`: None - `jit_mode_eval`: False - `use_ipex`: False - `bf16`: True - `fp16`: False - `fp16_opt_level`: O1 - `half_precision_backend`: auto - `bf16_full_eval`: False - `fp16_full_eval`: False - `tf32`: None - `local_rank`: 0 - `ddp_backend`: None - `tpu_num_cores`: None - `tpu_metrics_debug`: False - `debug`: [] - `dataloader_drop_last`: False - `dataloader_num_workers`: 0 - `dataloader_prefetch_factor`: None - `past_index`: -1 - `disable_tqdm`: False - `remove_unused_columns`: True - `label_names`: None - `load_best_model_at_end`: False - `ignore_data_skip`: False - `fsdp`: [] - `fsdp_min_num_params`: 0 - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False} - `fsdp_transformer_layer_cls_to_wrap`: None - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None} - `deepspeed`: None - `label_smoothing_factor`: 0.0 - `optim`: adamw_torch - `optim_args`: None - `adafactor`: False - `group_by_length`: False - `length_column_name`: length - `ddp_find_unused_parameters`: None - `ddp_bucket_cap_mb`: None - `ddp_broadcast_buffers`: False - `dataloader_pin_memory`: True - `dataloader_persistent_workers`: False - `skip_memory_metrics`: True - `use_legacy_prediction_loop`: False - `push_to_hub`: False - `resume_from_checkpoint`: None - `hub_model_id`: None - `hub_strategy`: every_save - `hub_private_repo`: False - `hub_always_push`: False - `gradient_checkpointing`: False - `gradient_checkpointing_kwargs`: None - `include_inputs_for_metrics`: False - `eval_do_concat_batches`: True - `fp16_backend`: auto - `push_to_hub_model_id`: None - `push_to_hub_organization`: None - `mp_parameters`: - `auto_find_batch_size`: False - `full_determinism`: False - `torchdynamo`: None - `ray_scope`: last - `ddp_timeout`: 1800 - `torch_compile`: False - `torch_compile_backend`: None - `torch_compile_mode`: None - `dispatch_batches`: None - `split_batches`: None - `include_tokens_per_second`: False - `include_num_input_tokens_seen`: False - `neftune_noise_alpha`: None - `optim_target_modules`: None - `batch_eval_metrics`: False - `eval_on_start`: False - `eval_use_gather_object`: False - `batch_sampler`: batch_sampler - `multi_dataset_batch_sampler`: proportional
### Framework Versions - Python: 3.11.9 - Sentence Transformers: 3.0.1 - Transformers: 4.44.0 - PyTorch: 2.4.0+cu121 - Accelerate: 0.33.0 - Datasets: 2.21.0 - Tokenizers: 0.19.1 ## Citation ### BibTeX #### Sentence Transformers ```bibtex @inproceedings{reimers-2019-sentence-bert, title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks", author = "Reimers, Nils and Gurevych, Iryna", booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing", month = "11", year = "2019", publisher = "Association for Computational Linguistics", url = "https://arxiv.org/abs/1908.10084", } ``` ## Authors - Sanjaya Subedi