cuadron11's picture
Add new CrossEncoder model
47a5133 verified
---
tags:
- sentence-transformers
- cross-encoder
- reranker
- generated_from_trainer
- dataset_size:342614
- loss:BinaryCrossEntropyLoss
base_model: jinaai/jina-reranker-v2-base-multilingual
pipeline_tag: text-ranking
library_name: sentence-transformers
metrics:
- map
- mrr@10
- ndcg@10
model-index:
- name: CrossEncoder based on jinaai/jina-reranker-v2-base-multilingual
results:
- task:
type: cross-encoder-reranking
name: Cross Encoder Reranking
dataset:
name: jina reranker v2 base multilingual binary
type: jina-reranker-v2-base-multilingual-binary
metrics:
- type: map
value: 0.0034
name: Map
- type: mrr@10
value: 0.0034
name: Mrr@10
- type: ndcg@10
value: 0.0034
name: Ndcg@10
---
# CrossEncoder based on jinaai/jina-reranker-v2-base-multilingual
This is a [Cross Encoder](https://www.sbert.net/docs/cross_encoder/usage/usage.html) model finetuned from [jinaai/jina-reranker-v2-base-multilingual](https://huggingface.co/jinaai/jina-reranker-v2-base-multilingual) using the [sentence-transformers](https://www.SBERT.net) library. It computes scores for pairs of texts, which can be used for text reranking and semantic search.
## Model Details
### Model Description
- **Model Type:** Cross Encoder
- **Base model:** [jinaai/jina-reranker-v2-base-multilingual](https://huggingface.co/jinaai/jina-reranker-v2-base-multilingual) <!-- at revision eed787badf7784e1a25c0eaa428627c8cbef511e -->
- **Maximum Sequence Length:** 1024 tokens
- **Number of Output Labels:** 1 label
<!-- - **Training Dataset:** Unknown -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Documentation:** [Cross Encoder Documentation](https://www.sbert.net/docs/cross_encoder/usage/usage.html)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Cross Encoders on Hugging Face](https://huggingface.co/models?library=sentence-transformers&other=cross-encoder)
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import CrossEncoder
# Download from the 🤗 Hub
model = CrossEncoder("cuadron11/jina-reranker-v2-base-multilingual-binary")
# Get scores for pairs of texts
pairs = [
['Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?', '[TOPIC: Galdera, Idoia Mendia Cueva Euskal Sozialistak taldeko legebiltzarkideak Herri Administrazio eta Justiziako sailburuari egina, enplegu publikorako plan bati buruz]\n[MENDIA CUEVA, (SV-ES)]:\nGuk Espainiako Gobernuarekin borroka egin genuen, Osasungintzan eta Hezkuntzan EPEak egiteko debekua ezarri ondoren (ez, ez, ez egin barre), eta lortu genuen. Izerdi asko bota genuen hiru bileratan, baina lortu genuen. Beraz, borondatea izanez gero, lor daiteke, arrazoia alde baitugu. Eta, bestalde, jakin nahi nuke giza baliabideen zer kudeaketa duzun buruan, bestelako adierazpenak entzun baititut. Lehendakariak behin baino gehiagotan esan du ez dela kaleratzerik izango, ez dela murriztuko enplegu (Date: 15.11.2013)'],
['Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?', '[TOPIC: Galdera, Alfonso Alonso Aranegui Euskal Talde Popularreko legebiltzarkideak Gobernantza Publiko eta Autogobernuko sailburuari egina, delegazio instituzional batek Quebec-era bidaia egiteari buruz]\n[ALONSO ARANEGUI, (PV-ETP)]:\nnagusien artean edo gure merkataritza-bazkide nagusien artean. Uste dut 31. lekuan dagoela. Hortaz, ez zaigu iruditzen arrazoi ekonomiko batengatik joan denik; badirudi, ordea, arrazoi politiko batengatik joan dela, eta, gure ustez –eta esan egin behar dizut–, ez du batere une egokia hautatu, oraintxe bertan Espainian eta nazioartean bizi dugun testuinguru politikoa kontuan izanik. Nire ustez, ez du batere une egokia hautatu Quebecera joateko. Ez du laguntzen ziurtasuna finkatzen, eta (Date: 03.11.2017)'],
['Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?', '[TOPIC: Galdera, Alfonso Alonso Aranegui Euskal Talde Popularreko legebiltzarkideak Gobernantza Publiko eta Autogobernuko sailburuari egina, delegazio instituzional batek Quebec-era bidaia egiteari buruz]\n[ALONSO ARANEGUI, (PV-ETP)]:\nEskertzen dizut erantzuna, sailburu jauna. Egia da zure erantzunak ez duela zerikusi handirik jasotzen ari garen informazioekin; hau da, lehendakariak Quebecera egin duen bidaia nola doan, zein agenda duen, zertaz hitz egiten ari den, eta abar. Eta egia da, halaber, Quebeceko eskualdea ez dagoela, eta Kanada ezta ere, gure enpresen esportazioen xede nagusien artean edo gure merkataritza-bazkide nagusien artean. Uste dut 31. lekuan dagoela. Hortaz, ez zaigu iruditzen arrazoi (Date: 03.11.2017)'],
['Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?', '[TOPIC: EH Bildu talde parlamentarioak egindako lege-proposamena, herri-administrazioek etxebizitzak lehentasunez eskuratzeko eta inbertsio-funtsen jarduera mugatzeko. Aintzat hartzeari buruzko eztabaida eta behin betiko ebazpena]\n[MARTÍNEZ GRISALEÑA, (Mixto-Vox)]:\nEsan behar dut aurka bozkatu dugula, jakina, jabetza pribatuaren aurkako beste eraso bat iruditu zaigulako eta, gainera, higiezinen merkatuan esku hartzeko beste ahalegin bat. Hori da, gure ustez, oinarririk gabeko legeproposamen guztiz nahasi horren bidez lortu nahi izan dena eta, gainera, inolako ibilbiderik gabe jaio dela uste dugu; izan ere, herri-administrazioek lehentasunez erosteko eta atzera eskuratzeko duten eskubidea kontrolatzeko asmoa erregularizatuta dago Euskal Autonomia Erkidegoan. Gure ustez, planteatzen dizkiguten (Date: 10.02.2022)'],
['Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?', '[TOPIC: Mozioa, Nerea Llanos Gómez Euskal Talde Popularreko legebiltzarkideak aurkeztua, 2018ko otsailaren 22ko operatibo polizialari buruz. Eztabaida eta behin betiko ebazpena]\n[GARCÍA LARRIMBE, (EP)]:\nTxalo elkarrizketari ekin diozuelako; baina sakoneko konponbideak falta dira. Bere osotasunean Ertzaintzaren antolamenduari konponbideak ematea. Ez ditzagun arazoak uka, Gobernuak aurreko kontroleko bilkuran, Zupiria jaunaren bitartez, egin zuen moduan; baina ez gaitezen eror PPren demagogian eta turko-buruen bilaketan. Aukera dezagun zentzuzko bide bat, hori baita euskal herritarren gehiengoak nahi duena. Aurrerapausoak emango dituen bidea, ez askatasun eta eskubideetan atzera egingo duena. Gaur badaude alternatibak, baina Gobernu horretan (Date: 16.03.2018)'],
]
scores = model.predict(pairs)
print(scores.shape)
# (5,)
# Or rank different texts based on similarity to a single text
ranks = model.rank(
'Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?',
[
'[TOPIC: Galdera, Idoia Mendia Cueva Euskal Sozialistak taldeko legebiltzarkideak Herri Administrazio eta Justiziako sailburuari egina, enplegu publikorako plan bati buruz]\n[MENDIA CUEVA, (SV-ES)]:\nGuk Espainiako Gobernuarekin borroka egin genuen, Osasungintzan eta Hezkuntzan EPEak egiteko debekua ezarri ondoren (ez, ez, ez egin barre), eta lortu genuen. Izerdi asko bota genuen hiru bileratan, baina lortu genuen. Beraz, borondatea izanez gero, lor daiteke, arrazoia alde baitugu. Eta, bestalde, jakin nahi nuke giza baliabideen zer kudeaketa duzun buruan, bestelako adierazpenak entzun baititut. Lehendakariak behin baino gehiagotan esan du ez dela kaleratzerik izango, ez dela murriztuko enplegu (Date: 15.11.2013)',
'[TOPIC: Galdera, Alfonso Alonso Aranegui Euskal Talde Popularreko legebiltzarkideak Gobernantza Publiko eta Autogobernuko sailburuari egina, delegazio instituzional batek Quebec-era bidaia egiteari buruz]\n[ALONSO ARANEGUI, (PV-ETP)]:\nnagusien artean edo gure merkataritza-bazkide nagusien artean. Uste dut 31. lekuan dagoela. Hortaz, ez zaigu iruditzen arrazoi ekonomiko batengatik joan denik; badirudi, ordea, arrazoi politiko batengatik joan dela, eta, gure ustez –eta esan egin behar dizut–, ez du batere une egokia hautatu, oraintxe bertan Espainian eta nazioartean bizi dugun testuinguru politikoa kontuan izanik. Nire ustez, ez du batere une egokia hautatu Quebecera joateko. Ez du laguntzen ziurtasuna finkatzen, eta (Date: 03.11.2017)',
'[TOPIC: Galdera, Alfonso Alonso Aranegui Euskal Talde Popularreko legebiltzarkideak Gobernantza Publiko eta Autogobernuko sailburuari egina, delegazio instituzional batek Quebec-era bidaia egiteari buruz]\n[ALONSO ARANEGUI, (PV-ETP)]:\nEskertzen dizut erantzuna, sailburu jauna. Egia da zure erantzunak ez duela zerikusi handirik jasotzen ari garen informazioekin; hau da, lehendakariak Quebecera egin duen bidaia nola doan, zein agenda duen, zertaz hitz egiten ari den, eta abar. Eta egia da, halaber, Quebeceko eskualdea ez dagoela, eta Kanada ezta ere, gure enpresen esportazioen xede nagusien artean edo gure merkataritza-bazkide nagusien artean. Uste dut 31. lekuan dagoela. Hortaz, ez zaigu iruditzen arrazoi (Date: 03.11.2017)',
'[TOPIC: EH Bildu talde parlamentarioak egindako lege-proposamena, herri-administrazioek etxebizitzak lehentasunez eskuratzeko eta inbertsio-funtsen jarduera mugatzeko. Aintzat hartzeari buruzko eztabaida eta behin betiko ebazpena]\n[MARTÍNEZ GRISALEÑA, (Mixto-Vox)]:\nEsan behar dut aurka bozkatu dugula, jakina, jabetza pribatuaren aurkako beste eraso bat iruditu zaigulako eta, gainera, higiezinen merkatuan esku hartzeko beste ahalegin bat. Hori da, gure ustez, oinarririk gabeko legeproposamen guztiz nahasi horren bidez lortu nahi izan dena eta, gainera, inolako ibilbiderik gabe jaio dela uste dugu; izan ere, herri-administrazioek lehentasunez erosteko eta atzera eskuratzeko duten eskubidea kontrolatzeko asmoa erregularizatuta dago Euskal Autonomia Erkidegoan. Gure ustez, planteatzen dizkiguten (Date: 10.02.2022)',
'[TOPIC: Mozioa, Nerea Llanos Gómez Euskal Talde Popularreko legebiltzarkideak aurkeztua, 2018ko otsailaren 22ko operatibo polizialari buruz. Eztabaida eta behin betiko ebazpena]\n[GARCÍA LARRIMBE, (EP)]:\nTxalo elkarrizketari ekin diozuelako; baina sakoneko konponbideak falta dira. Bere osotasunean Ertzaintzaren antolamenduari konponbideak ematea. Ez ditzagun arazoak uka, Gobernuak aurreko kontroleko bilkuran, Zupiria jaunaren bitartez, egin zuen moduan; baina ez gaitezen eror PPren demagogian eta turko-buruen bilaketan. Aukera dezagun zentzuzko bide bat, hori baita euskal herritarren gehiengoak nahi duena. Aurrerapausoak emango dituen bidea, ez askatasun eta eskubideetan atzera egingo duena. Gaur badaude alternatibak, baina Gobernu horretan (Date: 16.03.2018)',
]
)
# [{'corpus_id': ..., 'score': ...}, {'corpus_id': ..., 'score': ...}, ...]
```
<!--
### Direct Usage (Transformers)
<details><summary>Click to see the direct usage in Transformers</summary>
</details>
-->
<!--
### Downstream Usage (Sentence Transformers)
You can finetune this model on your own dataset.
<details><summary>Click to expand</summary>
</details>
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
## Evaluation
### Metrics
#### Cross Encoder Reranking
* Dataset: `jina-reranker-v2-base-multilingual-binary`
* Evaluated with [<code>CrossEncoderRerankingEvaluator</code>](https://sbert.net/docs/package_reference/cross_encoder/evaluation.html#sentence_transformers.cross_encoder.evaluation.CrossEncoderRerankingEvaluator) with these parameters:
```json
{
"at_k": 10,
"always_rerank_positives": false
}
```
| Metric | Value |
|:------------|:---------------------|
| map | 0.0034 (+0.0031) |
| mrr@10 | 0.0034 (+0.0032) |
| **ndcg@10** | **0.0034 (+0.0028)** |
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 342,614 training samples
* Columns: <code>query</code>, <code>answer</code>, and <code>label</code>
* Approximate statistics based on the first 1000 samples:
| | query | answer | label |
|:--------|:-------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------|:-----------------------------------------------|
| type | string | string | int |
| details | <ul><li>min: 69 characters</li><li>mean: 104.56 characters</li><li>max: 207 characters</li></ul> | <ul><li>min: 672 characters</li><li>mean: 760.52 characters</li><li>max: 873 characters</li></ul> | <ul><li>0: ~98.00%</li><li>1: ~2.00%</li></ul> |
* Samples:
| query | answer | label |
|:----------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------|
| <code>Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?</code> | <code>[TOPIC: Galdera, Idoia Mendia Cueva Euskal Sozialistak taldeko legebiltzarkideak Herri Administrazio eta Justiziako sailburuari egina, enplegu publikorako plan bati buruz]<br>[MENDIA CUEVA, (SV-ES)]:<br>Guk Espainiako Gobernuarekin borroka egin genuen, Osasungintzan eta Hezkuntzan EPEak egiteko debekua ezarri ondoren (ez, ez, ez egin barre), eta lortu genuen. Izerdi asko bota genuen hiru bileratan, baina lortu genuen. Beraz, borondatea izanez gero, lor daiteke, arrazoia alde baitugu. Eta, bestalde, jakin nahi nuke giza baliabideen zer kudeaketa duzun buruan, bestelako adierazpenak entzun baititut. Lehendakariak behin baino gehiagotan esan du ez dela kaleratzerik izango, ez dela murriztuko enplegu (Date: 15.11.2013)</code> | <code>1</code> |
| <code>Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?</code> | <code>[TOPIC: Galdera, Alfonso Alonso Aranegui Euskal Talde Popularreko legebiltzarkideak Gobernantza Publiko eta Autogobernuko sailburuari egina, delegazio instituzional batek Quebec-era bidaia egiteari buruz]<br>[ALONSO ARANEGUI, (PV-ETP)]:<br>nagusien artean edo gure merkataritza-bazkide nagusien artean. Uste dut 31. lekuan dagoela. Hortaz, ez zaigu iruditzen arrazoi ekonomiko batengatik joan denik; badirudi, ordea, arrazoi politiko batengatik joan dela, eta, gure ustez –eta esan egin behar dizut–, ez du batere une egokia hautatu, oraintxe bertan Espainian eta nazioartean bizi dugun testuinguru politikoa kontuan izanik. Nire ustez, ez du batere une egokia hautatu Quebecera joateko. Ez du laguntzen ziurtasuna finkatzen, eta (Date: 03.11.2017)</code> | <code>0</code> |
| <code>Zein sailbururen dimisioa eskatu zuen Idoia Mendia Cueva legebiltzarkideak 2013ko azaroaren 15ean?</code> | <code>[TOPIC: Galdera, Alfonso Alonso Aranegui Euskal Talde Popularreko legebiltzarkideak Gobernantza Publiko eta Autogobernuko sailburuari egina, delegazio instituzional batek Quebec-era bidaia egiteari buruz]<br>[ALONSO ARANEGUI, (PV-ETP)]:<br>Eskertzen dizut erantzuna, sailburu jauna. Egia da zure erantzunak ez duela zerikusi handirik jasotzen ari garen informazioekin; hau da, lehendakariak Quebecera egin duen bidaia nola doan, zein agenda duen, zertaz hitz egiten ari den, eta abar. Eta egia da, halaber, Quebeceko eskualdea ez dagoela, eta Kanada ezta ere, gure enpresen esportazioen xede nagusien artean edo gure merkataritza-bazkide nagusien artean. Uste dut 31. lekuan dagoela. Hortaz, ez zaigu iruditzen arrazoi (Date: 03.11.2017)</code> | <code>0</code> |
* Loss: [<code>BinaryCrossEntropyLoss</code>](https://sbert.net/docs/package_reference/cross_encoder/losses.html#binarycrossentropyloss) with these parameters:
```json
{
"activation_fn": "torch.nn.modules.linear.Identity",
"pos_weight": null
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: steps
- `per_device_train_batch_size`: 32
- `per_device_eval_batch_size`: 32
- `learning_rate`: 2e-05
- `warmup_ratio`: 0.1
- `load_best_model_at_end`: True
- `batch_sampler`: no_duplicates
#### All Hyperparameters
<details><summary>Click to expand</summary>
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: steps
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 32
- `per_device_eval_batch_size`: 32
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 2e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1.0
- `num_train_epochs`: 3
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.1
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: False
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: True
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: False
- `prompts`: None
- `batch_sampler`: no_duplicates
- `multi_dataset_batch_sampler`: proportional
- `router_mapping`: {}
- `learning_rate_mapping`: {}
</details>
### Training Logs
| Epoch | Step | Training Loss | jina-reranker-v2-base-multilingual-binary_ndcg@10 |
|:----------:|:-------:|:-------------:|:-------------------------------------------------:|
| **0.0467** | **500** | **0.1385** | **0.0034 (+0.0028)** |
| 0.0934 | 1000 | 0.0578 | 0.0034 (+0.0028) |
| 0.1401 | 1500 | 0.0305 | 0.0034 (+0.0028) |
| 0.1868 | 2000 | 0.0273 | 0.0034 (+0.0028) |
| 0.2335 | 2500 | 0.0291 | 0.0034 (+0.0028) |
| 0.2802 | 3000 | 0.0115 | 0.0034 (+0.0028) |
| 0.3269 | 3500 | 0.0065 | 0.0034 (+0.0028) |
| 0.3736 | 4000 | 0.0044 | 0.0034 (+0.0028) |
| 0.4203 | 4500 | 0.0049 | 0.0034 (+0.0028) |
| 0.4670 | 5000 | 0.0047 | 0.0034 (+0.0028) |
| 0.5137 | 5500 | 0.0048 | 0.0034 (+0.0028) |
| 0.5604 | 6000 | 0.0055 | 0.0034 (+0.0028) |
| 0.6071 | 6500 | 0.0047 | 0.0034 (+0.0028) |
| 0.6538 | 7000 | 0.0053 | 0.0034 (+0.0028) |
| 0.7005 | 7500 | 0.0042 | 0.0034 (+0.0028) |
| 0.7472 | 8000 | 0.0049 | 0.0034 (+0.0028) |
| 0.7939 | 8500 | 0.0056 | 0.0034 (+0.0028) |
| 0.8406 | 9000 | 0.0034 | 0.0034 (+0.0028) |
| 0.8873 | 9500 | 0.0026 | 0.0034 (+0.0028) |
| 0.9340 | 10000 | 0.0055 | 0.0034 (+0.0028) |
| 0.9807 | 10500 | 0.0039 | 0.0034 (+0.0028) |
| 1.0274 | 11000 | 0.0043 | 0.0034 (+0.0028) |
| 1.0741 | 11500 | 0.0038 | 0.0034 (+0.0028) |
| 1.1208 | 12000 | 0.0056 | 0.0034 (+0.0028) |
| 1.1675 | 12500 | 0.0041 | 0.0034 (+0.0028) |
| 1.2142 | 13000 | 0.0026 | 0.0034 (+0.0028) |
| 1.2609 | 13500 | 0.0042 | 0.0034 (+0.0028) |
| 1.3076 | 14000 | 0.0028 | 0.0034 (+0.0028) |
| 1.3543 | 14500 | 0.0049 | 0.0034 (+0.0028) |
| 1.4010 | 15000 | 0.004 | 0.0034 (+0.0028) |
| 1.4477 | 15500 | 0.0037 | 0.0034 (+0.0028) |
| 1.4943 | 16000 | 0.0029 | 0.0034 (+0.0028) |
| 1.5410 | 16500 | 0.0038 | 0.0034 (+0.0028) |
| 1.5877 | 17000 | 0.0049 | 0.0034 (+0.0028) |
| 1.6344 | 17500 | 0.0041 | 0.0034 (+0.0028) |
| 1.6811 | 18000 | 0.0045 | 0.0034 (+0.0028) |
| 1.7278 | 18500 | 0.0038 | 0.0034 (+0.0028) |
| 1.7745 | 19000 | 0.0037 | 0.0034 (+0.0028) |
| 1.8212 | 19500 | 0.0033 | 0.0034 (+0.0028) |
| 1.8679 | 20000 | 0.0036 | 0.0034 (+0.0028) |
| 1.9146 | 20500 | 0.0035 | 0.0034 (+0.0028) |
| 1.9613 | 21000 | 0.0048 | 0.0034 (+0.0028) |
| 2.0080 | 21500 | 0.0059 | 0.0034 (+0.0028) |
| 2.0547 | 22000 | 0.004 | 0.0034 (+0.0028) |
| 2.1014 | 22500 | 0.0037 | 0.0034 (+0.0028) |
| 2.1481 | 23000 | 0.0039 | 0.0034 (+0.0028) |
| 2.1948 | 23500 | 0.0048 | 0.0034 (+0.0028) |
| 2.2415 | 24000 | 0.0034 | 0.0034 (+0.0028) |
| 2.2882 | 24500 | 0.0036 | 0.0034 (+0.0028) |
| 2.3349 | 25000 | 0.0039 | 0.0034 (+0.0028) |
| 2.3816 | 25500 | 0.0043 | 0.0034 (+0.0028) |
| 2.4283 | 26000 | 0.0039 | 0.0034 (+0.0028) |
| 2.4750 | 26500 | 0.0052 | 0.0034 (+0.0028) |
| 2.5217 | 27000 | 0.0054 | 0.0034 (+0.0028) |
| 2.5684 | 27500 | 0.0031 | 0.0034 (+0.0028) |
| 2.6151 | 28000 | 0.0036 | 0.0034 (+0.0028) |
| 2.6618 | 28500 | 0.0046 | 0.0034 (+0.0028) |
| 2.7085 | 29000 | 0.0031 | 0.0034 (+0.0028) |
| 2.7552 | 29500 | 0.0034 | 0.0034 (+0.0028) |
| 2.8019 | 30000 | 0.0033 | 0.0034 (+0.0028) |
| 2.8486 | 30500 | 0.004 | 0.0034 (+0.0028) |
| 2.8953 | 31000 | 0.0042 | 0.0034 (+0.0028) |
| 2.9420 | 31500 | 0.0035 | 0.0034 (+0.0028) |
| 2.9887 | 32000 | 0.0044 | 0.0034 (+0.0028) |
* The bold row denotes the saved checkpoint.
### Framework Versions
- Python: 3.9.7
- Sentence Transformers: 5.0.0
- Transformers: 4.52.4
- PyTorch: 2.5.1+cu124
- Accelerate: 1.5.2
- Datasets: 4.0.0
- Tokenizers: 0.21.0
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->