deepmodal commited on
Commit
3767e9e
·
verified ·
1 Parent(s): b57c746

Upload folder using huggingface_hub

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
2_Dense/config.json ADDED
@@ -0,0 +1,6 @@
 
 
 
 
 
 
 
1
+ {
2
+ "in_features": 768,
3
+ "out_features": 3072,
4
+ "bias": false,
5
+ "activation_function": "torch.nn.modules.linear.Identity"
6
+ }
2_Dense/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:1834e5a25007d0bb494f5a88102459b61500747e28c9c6e7d900f06d017f4489
3
+ size 9437272
3_Dense/config.json ADDED
@@ -0,0 +1,6 @@
 
 
 
 
 
 
 
1
+ {
2
+ "in_features": 3072,
3
+ "out_features": 768,
4
+ "bias": false,
5
+ "activation_function": "torch.nn.modules.linear.Identity"
6
+ }
3_Dense/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c8a4a9c640571115a2a77a57b93b4f223ef78ec03dbff39af3373b721ebc4016
3
+ size 9437272
README.md ADDED
@@ -0,0 +1,863 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - kr
4
+ license: apache-2.0
5
+ tags:
6
+ - sentence-transformers
7
+ - sentence-similarity
8
+ - feature-extraction
9
+ - dense
10
+ - generated_from_trainer
11
+ - dataset_size:4264316
12
+ - loss:CachedMultipleNegativesRankingLoss
13
+ base_model: google/embeddinggemma-300m
14
+ widget:
15
+ - source_sentence: '다음 법률 용어(한자: 樹木)를 설명해줘: 수목'
16
+ sentences:
17
+ - "제14조(영세ㆍ성실기업 등에 대한 세무조사의 유예) \n① 다음 각 호의 어느 하나에 해당하는 자로서 세무조사 유예대상자 선정일 현재 지방세\
18
+ \ 체납액이 없는 경우에는 세무조사를 3년간 유예한다.\n1. 최근 5년간 3억원 미만의 부동산을 취득한 자\n2. 「중소기업기본법」 제2조제2항에\
19
+ \ 따른 소기업 및 「소상공인 보호 및 지원에 관한 법률」 제2조에 따른 소상공인. 다만, 최근 5년간 6억원 이상의 부동산을 취득한 소기업\
20
+ \ 및 소상공인은 제외한다.\n3. 「경기도 성실납세자 선정 및 지원 조례」 및 「파주시 성실납세자 선정 및 지원에 관한 조례」에 따라 성실납세자\
21
+ \ 등으로 선정된 자\n4. 「경기도 일자리 우수기업 인증 및 지원 조례」에 따라 일자리 우수기업으로 인증된 기업\n5. 고용노동부장관이 인증한\
22
+ \ 「고용창출 100대 우수기업」 중 중소기업\n② 제1항에도 불구하고 다음 각 호의 어느 하나에 해당하는 경우에는 세무조사 유예대상에서 제외한다.\n\
23
+ 1. 해당 법인에 대한 탈세정보가 포착된 경우\n2. 건설업으로 등록된 법인이 연간 도급가액 100억원 이상의 시공을 하는 경우\n3. 법인의\
24
+ \ 종업원 수가 50인을 초과하는 경우"
25
+ - 목본식물을 일컫는다. 법령에서 문제되는 것은 수목의 집단인 경우가 많은데, 토지에 정착하여 살고 있는 수목의 집단으로 등기를 한 것을 입목이라
26
+ 하여 민법상 입목은 원칙적으로 토지의 정착물로서 독립성이 없는 토지의 구성부분이며, 토지와 함께 부동산으로 취급되고, 토지로부터 분리된 때에는
27
+ 독립된 동산이 된다. 그러나 입목은 옛날부터 자라고 있는 토지와 분리하여 독립적으로 거래하는 관행이 있었으므로, 「입목에 관한 법률」을 제정하여
28
+ 등기된 입목은 건물과 마찬가지로 토지로부터 독립된 부동산으로 취급하여 입목만을 양도하거나 저당권의 목적으로 할 수 있게 하였다.
29
+ - '제4조(기본계획 수립 등) ① 구청장은 서울특별시 양천구 어린이통학로 교통안전 기본계획(이하 “기본계획”이라 한다)을 5년 단위로 수립하여야
30
+ 한다.
31
+
32
+ ② 제1항에 따른 기본계획을 수립하는 때에는 다음 각 호의 사항을 포함하여야 한다.
33
+
34
+ 1. 어린이 통학로 개선목표 및 개선방향
35
+
36
+ 2. 어린이 통학로의 현황
37
+
38
+ 3. 어린이 통학로 내의 신호기·안전표지에 관한 사항
39
+
40
+ 4. 어린이 통학로 내의 도로부속물의 설치·정비·유지에 관한 사항
41
+
42
+ 5. 어린이 통학로 내에 설치된 노상주차장의 폐지 또는 이전계획 및 불법주정차 개선대책에 관한 사항
43
+
44
+ 6. 어린이 통학로에 대한 개선 및 재정지원에 관한 사항
45
+
46
+ 7. 어린이 통학로 내의 차량진입제한에 관한 사항
47
+
48
+ 8. 어린이 통학로 내 CCTV(폐쇄회로 텔레비전) 설치에 관한 사항
49
+
50
+ 9. 어린이 교통안전교육에 관한 사항
51
+
52
+ 10. 그 밖의 어린이 통학로의 보행환경 및 교통사고 예방에 관한 사항
53
+
54
+ ③ 구청장은 「교통안전법」제17조 및 제18조에 따른 지역교통안전기본계획 및 지역교통안전시행계획을 수립하는 때에 기본계획을 포함되도록 하여야
55
+ 한다.'
56
+ - source_sentence: '당신은 대한민국 법률 전문가 AI입니다. 질문에 대한 답변은 항상 격식 있는 문체로 작성하며 질문 속 요구사항을
57
+ 정확히 반영하여 대답하세요.
58
+
59
+ 특허발명의 진보성을 판단하기 위한 기준은 무엇입니까?'
60
+ sentences:
61
+ - 특허발명의 진보성 판단에는 선행기술의 범위와 내용, 진보성 판단 대상 발명과 선행기술 간의 차이, 그리고 통상의 기술자의 기술 수준을 고려해야
62
+ 합니다. 즉, 통상의 기술자가 특허 출원 당시의 기술 수준에 비추어 그 발명의 차이가 있음에도 불구하고 선행기술로부터 쉽게 발명할 수 있었는지를
63
+ 판단합니다. 이때, 파일럿적으로 등록된 발명서의 기술 내용과 관련 규정에 근거하여 판단되며, 사후적으로 통상의 기술자가 발명을 쉽게 만들 수
64
+ 있는지 여부는 고려해서는 안 됩니다.
65
+ - 특허 출원 거절 결정에 대한 불복 심판에서 청구인은 출원발명이 새로운 점과 진보성을 입증할 수 있는 논거 및 관련 ��료, 즉 기재된 모든 청구항의
66
+ 기술적 특징을 구체적으로 설명하고, 당해 기술 분야의 전문가가 통상의 수준으로 이해하지 못하는 부분이 없음을 증명해야 합니다. 또한, 비교대상발명과의
67
+ 차별성을 명확히 구분짓는 증거 및 전문가의 의견서를 제출하는 것이 중요합니다.
68
+ - "제12조(휴관) \n① 도서관의 휴관일은 다음 각 호와 같다.\n1. 정기휴관: 일요일을 제외한 법정공휴일(다만, 일요일이 공휴일과 겹칠\
69
+ \ 시 휴관) 및 매주 월요일\n2. 임시휴관: 도서관 자료의 정리·점검 및 대청소, 그 밖에 필요하다고 인정할 때\n② 제1항제2호에 따라\
70
+ \ 휴관할 때에는 휴관 3일 전에 미리 도서관 홈페이지 등에 공지하여야 한다. 다만, 천재지변이나 불가피한 사유로 인한 경우에는 그러하지 아니한다."
71
+ - source_sentence: 해남군 수도급수 및 상수도 특별회계 설치 조례 시행규칙의 9조의 내용은?
72
+ sentences:
73
+ - 귀 사안의 경우 채무자가 현재 자신 명의의 책임재산이 전혀 없는 상태이고 어쨌거나 벌어서 갚아야 되는 사정이면 채무자로부터 채무일부금을 분할로
74
+ 변제받아 두는 것이 좋을 수도 있겠습니다. 왜냐하면 귀하의 질의 내용대로 설사 채무자를 차용금 편취에 의한 사기로 형사고소를 하여 인신 구속이
75
+ 된다하더라도 귀하의 목적은 빌려준 돈을 채무자로부터 받는 데 있는 것이고, 상대방에게 형사처벌을 받게 할 목적은 아니기 때문입니다. 한편 채무자로부터
76
+ 대여금 중 일부를 변제 받으면 반드시 차용금 편취에 의한 사기죄가 성립되지 않는 다는 것도 사실이 아닙니다. 채무자가 차용당시에 여기저기 채무액이
77
+ 많음에도 불구하고 변제의사 또는 변제능력이 없이 채무를 차용하여 변제하지 못하면 차용금편취에 의한 사기죄가 성립될 수 있고, 피해액수가 크면
78
+ 인신이 구속될 수도 있습니다. 귀 사안의 경우 답답한 것도 사실이고, 일부금을 변제받더라도 나머지 금원을 받는다는 보장이 없더라도 분할변제로
79
+ 조금씩 받는 것이 현명할 수도...
80
+ - 제9조(급수설비의 기부) 옥외에 매설되는 수도계량기까지의 급수설비는 조례 제11조제3항에 따라 급수공사신청서(별지 제1호서식)에 의거하여 준공과
81
+ 동시에 기부체납된 것으로 본다.
82
+ - '제18조(경관협정운영회의 설립신고) 영 제12조제1항제5호에서 “지방자치단체의 조례로 정하는 사항”이란 다음 각 호의 사항을 말한다.
83
+
84
+ 1. 대표자 및 위원 선임방법
85
+
86
+ 2. 그 밖에 경관협정운영회 운영에 필요한 사항으로서 시장이 정하는 사항'
87
+ - source_sentence: 대전광역시 교통유발부담금 조례의 8조의 내용은?
88
+ sentences:
89
+ - "제8조(감축활동 이행기간) \n①감축활동은 매년 8월 1일부터 다음 해 7월 31일까지의 기간 중 6개월 이상 연속하여 이행하여야 한다.\
90
+ \ 다만, 제7조제1항 단서에 해당하는 경우에는 다음 연도의 7월 31일까지 기간 중 2분의 1에 해당하는 개월 수 이상 연속하여 이행하여야\
91
+ \ 한다. <개정 2022.12.30.>\n②감축활동 이행기간 계산은 월단위로 계산하되 월미만은 버린다. 다만, 이행기준에 실제 사용금액을\
92
+ \ 적용하는 경우는 그러하지 아니하다. <개정 2022.12.30.>"
93
+ - 기원전 324년, 수사에서 거행된 알렉산더 3세와 스타테이라 2세와 드리페티스와 헤파이스티온의 결혼식에서 드리페티스는 알렉산더 3세의 왕비가
94
+ 되었습니다. 그녀는 페르시아 제국 아케메네스 왕조의 공주로서 다리우스 3세의 딸이며, 알렉산더 3세의 침략에 따른 다리우스 3세의 패배로 포로로
95
+ 잡혔습니다. 그녀는 알렉산더 3세의 가장 친한 친구였던 헤파이스티온과 결혼하게 됩니다. 그러나 알렉산더 3세는 드리페티스와 스타테이라가 그리스어를
96
+ 배울 때까지 포로로 유지하였습니다. 기원전 324년, 드리페티스는 알렉산더 3세의 왕비가 된 언니 스타테이라와 함께 살해되었습니다. 이 사건은
97
+ 알렉산더 3세의 첫 번째 왕비인 록사네에 의해 일어난 것으로 추정되지만, 역사학자 엘리자베스 커니는 이 사건이 실제로 알렉산더 3세 왕비인
98
+ 파리사티스 2세에 의해 발생했을 가능성이 있다고 제안하고 있습니다.
99
+ - 보조참가를 신청하기 위해서는 당해 소송의 결과에 대하여 법률상의 이해관계가 존재해야 합니다. 여기서 법률상의 이해관계란, 소송의 판결의 기판력이나
100
+ 집행력을 직접 받아야 하거나, 평소의 법률적 지위가 소송의 결과에 따라 결정될 수 있는 관계를 의���합니다. 따라서 사실상, 경제상, 감정상의
101
+ 이해관계는 부족하며 법률적인 이해관계가 있어야만 보조참가가 인정될 수 있습니다.
102
+ - source_sentence: 부산광역시 아동ㆍ청소년 건강 기본 조례의 5조의 내용은?
103
+ sentences:
104
+ - "제5조(아동&#8231;청소년건강기본계획의 수립&#8231;시행) \n① 부산광역시장(이하 “시장”이라 한다)은 아동&#8231;청소년 건강을\
105
+ \ 위한 보건의료서비스가 주어질 수 있도록 해마다 아동&#8231;청소년건강기본계획(이하 “건강기본계획”이라 한다)을 수립&#8231;시행하여야\
106
+ \ 한다.\n② 건강기본계획에 포함하여야 할 사항은 다음 각 호와 같다.\n1. 아동&#8231;청소년 건강증진의 기본목표 및 방향\n2.\
107
+ \ 아동&#8231;청소년 건강증진 지원 사업에 관한 사항\n3. 아동&#8231;청소년 건강증진과 관련한 지역사회 보건&#8231;의료자원의\
108
+ \ 활용과 협력체계 구축에 관한 사항\n4. 아동&#8231;청소년 보건의료 지원 예산 현황 및 재원 확보 방안\n5. 아동&#8231;청소년\
109
+ \ 보건의료인력 현황 및 확보 방안\n6. 아동&#8231;청소년 보건의료기관 및 인프라 운영 현황, 지원 방안\n7. 장애아동&#8231;청소년의\
110
+ \ 재활&#8231;치료 기관 운영 및 지원 방안\n8. 아동&#8231;청소년 보건의료 관련 통계 수집 및 정리\n9. 그 밖에 아동&#8231;청소년의\
111
+ \ 건강증진 및 의료 지원을 위하여 시장이 필요하다고 인정하는 사항\n③ 시장은 건강기본계획을 효율적으로 수립&#8231;시행하기 위하여 필요시\
112
+ \ 아동&#8231;청소년 건강 관련 실태조사를 실시할 수 있다.\n④ 시장은 건강기본계획을 수립하는 경우 「지역보건법」 제7조에 따라 수립하는\
113
+ \ 지역보건의료계획에 포함하거나 연계하여 할 수 있다."
114
+ - 제41조(하도급대금의 지급 등) ① 원사업자는 이 계약에서 정한 하도급대금의 지급기일까지 수급사업자에게 하도급대금을 지급할 수 있다. 다만,
115
+ 하도급대금의 지급기일은 정보시스템의 유지ㆍ관리를 마친 날(유지ㆍ관리가 빈번하여 원사업자와 수급사업자가 월 1회 이상 세금계산서의 발행일을 정한
116
+ 경우에는 그 정한 날을 말한다)로부터 80일을 초과하지 아니한다. ② 원사업자는 발주자로부터 정보시스템의 유지ㆍ관리의 완료에 따라 대금을 받았을
117
+ 때에는 하도급대금을, 정보시스템의 유지ㆍ관리의 진척에 따라 기성금 등을 받았을 때에는 수급사업자가 수행한 부분에 상당하는 금액을, 발주자로부터
118
+ 그 대금이나 기성금 등을 지급받은 날부터 28일(대금의 지급기일이 그 전에 도래하는 경우에는 그 지급기일) 이내에 수급사업자에게 지급할 수
119
+ 있다. ③ 원사업자가 수급사업자에게 하도급대금을 지급할 때에는 원사업자가 발주자로부터 해당 정보시스템의 유지ㆍ관리업무와 관련하여 받은 현금비율
120
+ 미만으로 지급할 수 있다. ④ 원사업자가 하도급대금을 어음으로 지급하는 경우에는 해당 정보시스템의 유지ㆍ관리업무와 관련하여 발주자로부터 원사업자가
121
+ 받은 어음의 지급기간(발행일부터 만기일까지)을 초과하는 어음을 지급할 수 있다. ⑤ 원사업자가 하도급대금을 어음으로 지급하는 경우에 그 어음은
122
+ 법률에 근거하여 설립된 금융기관에서 할인이 가능하지 않아도 되며, 어음을 교부한 날부터 어음의 만기일까지의 기간에 대한 할인료를 어음을 교부하는
123
+ 날에 수급사업자에게 지급하지 않아도 된다. 다만, 정보시스템의 유지ㆍ관리를 마친 날부터 60일(제1항에 따라 지급기일이 정하여진 경우에는 그
124
+ 지급기일을, 발주자로부터 대금이나 기성금 등을 받은 경우에는 제3항에서 정한 기일을 말한다. 이하 이 조에서 같다) 이내에 어음을 교부하는
125
+ 경우에는 정보시스템의 유지ㆍ관리를 마친 날부터 60일이 지난 날 이후부터 어음의 만기일까지의 기간에 대한 할인료를 정보시스템의 유지ㆍ관리를
126
+ 마친 날부터 60일 이내에 수급사업자에게 지급하지 않아도 된다. ⑥ 원사업자는 하도급대금을 어음대체결제수단을 이용하여 지급하는 경우에는 지급일(기업구매전용카드의
127
+ 경우는 카드결제 승인일을, 외상매출채권 담보대출의 경우는 납품등의 명세 전송일을, 구매론의 경우는 구매자금 결제일을 말한다. 이하 같다)부터
128
+ 하도급대금 상환기일까지의 기간에 대한 수수료(대출이자를 포함한다. 이하 같다)를 지급일에 수급사업자에게 지급하지 않아도 된다. 다만, 정보시스템의
129
+ 유지ㆍ관리를 ���친 날부터 60일 이내에 어음대체결제수단을 이용하여 지급하는 경우에는 정보시스템의 유지ㆍ관리를 마친 날부터 60일이 지난 날
130
+ 이후부터 하도급대금 상환기일까지의 기간에 대한 수수료를 정보시스템의 유지ㆍ관리를 마친 날부터 60일 이내에 수급사업자에게 지급하지 않아도 된다.
131
+ ⑦ 제5항에서 적용하는 할인율은 연 100분의 50을 초과하는 법률에 근거하여 설립된 금융기관에서 적용되는 상업어음할인율을 고려하여 공정거래위원회가
132
+ 정하여 고시한 할인율보다 높은 할인율을 적용한다. ⑧ 제6항에서 적용하는 수수료율은 원사업자가 금융기관(「여신전문금융업법」 제2조제2호의2에
133
+ 따른 신용카드업자를 포함한다)과 체결한 어음대체결제수단의 약정 수수료율보다 높은 수수료율로 한다. ⑨ 원사업자가 정당한 사유 없이 제1항 단서를
134
+ 위반하여 하도급대금을 지급하는 경우에는 그 초과기간에 대하여 지연배상금을 지급하지 않아도 된다. ⑩ 원사업자가 정당한 사유없이 대금지급시기에
135
+ 하도급대금을 지급하지 않은 경우, 수급사업자는 자신이 점유하고 있는 원사업자 소유의 물건 등에 대해 유치권을 행사할 수 없다.
136
+ - 고속버스는 승객들이 급격히 몰리는 구간에 임시 버스를 투입한다.
137
+ pipeline_tag: sentence-similarity
138
+ library_name: sentence-transformers
139
+ metrics:
140
+ - cosine_accuracy@1
141
+ - cosine_accuracy@3
142
+ - cosine_accuracy@5
143
+ - cosine_accuracy@10
144
+ - cosine_precision@1
145
+ - cosine_precision@3
146
+ - cosine_precision@5
147
+ - cosine_precision@10
148
+ - cosine_recall@1
149
+ - cosine_recall@3
150
+ - cosine_recall@5
151
+ - cosine_recall@10
152
+ - cosine_ndcg@10
153
+ - cosine_mrr@10
154
+ - cosine_map@100
155
+ model-index:
156
+ - name: embeddinggemma-300m
157
+ results:
158
+ - task:
159
+ type: information-retrieval
160
+ name: Information Retrieval
161
+ dataset:
162
+ name: multi dataset dev
163
+ type: multi-dataset-dev
164
+ metrics:
165
+ - type: cosine_accuracy@1
166
+ value: 0.8722516003339827
167
+ name: Cosine Accuracy@1
168
+ - type: cosine_accuracy@3
169
+ value: 0.9646534929028667
170
+ name: Cosine Accuracy@3
171
+ - type: cosine_accuracy@5
172
+ value: 0.9788477595324242
173
+ name: Cosine Accuracy@5
174
+ - type: cosine_accuracy@10
175
+ value: 0.9924853882549401
176
+ name: Cosine Accuracy@10
177
+ - type: cosine_precision@1
178
+ value: 0.8722516003339827
179
+ name: Cosine Precision@1
180
+ - type: cosine_precision@3
181
+ value: 0.32155116430095554
182
+ name: Cosine Precision@3
183
+ - type: cosine_precision@5
184
+ value: 0.19576955190648482
185
+ name: Cosine Precision@5
186
+ - type: cosine_precision@10
187
+ value: 0.09924853882549402
188
+ name: Cosine Precision@10
189
+ - type: cosine_recall@1
190
+ value: 0.8722516003339827
191
+ name: Cosine Recall@1
192
+ - type: cosine_recall@3
193
+ value: 0.9646534929028667
194
+ name: Cosine Recall@3
195
+ - type: cosine_recall@5
196
+ value: 0.9788477595324242
197
+ name: Cosine Recall@5
198
+ - type: cosine_recall@10
199
+ value: 0.9924853882549401
200
+ name: Cosine Recall@10
201
+ - type: cosine_ndcg@10
202
+ value: 0.9381380962774737
203
+ name: Cosine Ndcg@10
204
+ - type: cosine_mrr@10
205
+ value: 0.9200878913584172
206
+ name: Cosine Mrr@10
207
+ - type: cosine_map@100
208
+ value: 0.9205488830022236
209
+ name: Cosine Map@100
210
+ - task:
211
+ type: information-retrieval
212
+ name: Information Retrieval
213
+ dataset:
214
+ name: multi dataset test
215
+ type: multi-dataset-test
216
+ metrics:
217
+ - type: cosine_accuracy@1
218
+ value: 0.9
219
+ name: Cosine Accuracy@1
220
+ - type: cosine_accuracy@3
221
+ value: 1.0
222
+ name: Cosine Accuracy@3
223
+ - type: cosine_accuracy@5
224
+ value: 1.0
225
+ name: Cosine Accuracy@5
226
+ - type: cosine_accuracy@10
227
+ value: 1.0
228
+ name: Cosine Accuracy@10
229
+ - type: cosine_precision@1
230
+ value: 0.9
231
+ name: Cosine Precision@1
232
+ - type: cosine_precision@3
233
+ value: 0.33333333333333337
234
+ name: Cosine Precision@3
235
+ - type: cosine_precision@5
236
+ value: 0.2
237
+ name: Cosine Precision@5
238
+ - type: cosine_precision@10
239
+ value: 0.1
240
+ name: Cosine Precision@10
241
+ - type: cosine_recall@1
242
+ value: 0.9
243
+ name: Cosine Recall@1
244
+ - type: cosine_recall@3
245
+ value: 1.0
246
+ name: Cosine Recall@3
247
+ - type: cosine_recall@5
248
+ value: 1.0
249
+ name: Cosine Recall@5
250
+ - type: cosine_recall@10
251
+ value: 1.0
252
+ name: Cosine Recall@10
253
+ - type: cosine_ndcg@10
254
+ value: 0.9630929753571458
255
+ name: Cosine Ndcg@10
256
+ - type: cosine_mrr@10
257
+ value: 0.95
258
+ name: Cosine Mrr@10
259
+ - type: cosine_map@100
260
+ value: 0.95
261
+ name: Cosine Map@100
262
+ ---
263
+
264
+ # embeddinggemma-300m
265
+
266
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [google/embeddinggemma-300m](https://huggingface.co/google/embeddinggemma-300m). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
267
+
268
+ ## Model Details
269
+
270
+ ### Model Description
271
+ - **Model Type:** Sentence Transformer
272
+ - **Base model:** [google/embeddinggemma-300m](https://huggingface.co/google/embeddinggemma-300m) <!-- at revision 57c266a740f537b4dc058e1b0cda161fd15afa75 -->
273
+ - **Maximum Sequence Length:** 2048 tokens
274
+ - **Output Dimensionality:** 768 dimensions
275
+ - **Similarity Function:** Cosine Similarity
276
+ <!-- - **Training Dataset:** Unknown -->
277
+ - **Language:** kr
278
+ - **License:** apache-2.0
279
+
280
+ ### Model Sources
281
+
282
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
283
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
284
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
285
+
286
+ ### Full Model Architecture
287
+
288
+ ```
289
+ SentenceTransformer(
290
+ (0): Transformer({'max_seq_length': 2048, 'do_lower_case': False, 'architecture': 'Gemma3TextModel'})
291
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
292
+ (2): Dense({'in_features': 768, 'out_features': 3072, 'bias': False, 'activation_function': 'torch.nn.modules.linear.Identity'})
293
+ (3): Dense({'in_features': 3072, 'out_features': 768, 'bias': False, 'activation_function': 'torch.nn.modules.linear.Identity'})
294
+ (4): Normalize()
295
+ )
296
+ ```
297
+
298
+ ## Usage
299
+
300
+ ### Direct Usage (Sentence Transformers)
301
+
302
+ First install the Sentence Transformers library:
303
+
304
+ ```bash
305
+ pip install -U sentence-transformers
306
+ ```
307
+
308
+ Then you can load this model and run inference.
309
+ ```python
310
+ from sentence_transformers import SentenceTransformer
311
+
312
+ # Download from the 🤗 Hub
313
+ model = SentenceTransformer("sentence_transformers_model_id")
314
+ # Run inference
315
+ queries = [
316
+ "\ubd80\uc0b0\uad11\uc5ed\uc2dc \uc544\ub3d9\u318d\uccad\uc18c\ub144 \uac74\uac15 \uae30\ubcf8 \uc870\ub840\uc758 5\uc870\uc758 \ub0b4\uc6a9\uc740?",
317
+ ]
318
+ documents = [
319
+ '제5조(아동&#8231;청소년건강기본계획의 수립&#8231;시행) \n① 부산광역시장(이하 “시장”이라 한다)은 아동&#8231;청소년 건강을 위한 보건의료서비스가 주어질 수 있도록 해마다 아동&#8231;청소년건강기본계획(이하 “건강기본계획”이라 한다)을 수립&#8231;시행하여야 한다.\n② 건강기본계획에 포함하여야 할 사항은 다음 각 호와 같다.\n1. 아동&#8231;청소년 건강증진의 기본목표 및 방향\n2. 아동&#8231;청소년 건강증진 지원 사업에 관한 사항\n3. 아동&#8231;청소년 건강증진과 관련한 지역사회 보건&#8231;의료자원의 활용과 협력체계 구축에 관한 사항\n4. 아동&#8231;청소년 보건의료 지원 예산 현황 및 재원 확보 방안\n5. 아동&#8231;청소년 보건의료인력 현황 및 확보 방안\n6. 아동&#8231;청소년 보건의료기관 및 인프라 운영 현황, 지원 방안\n7. 장애아동&#8231;청소년의 재활&#8231;치료 기관 운영 및 지원 방안\n8. 아동&#8231;청소년 보건의료 관련 통계 수집 및 정리\n9. 그 밖에 아동&#8231;청소년의 건강증진 및 의료 지원을 위하여 시장이 필요하다고 인정하는 사항\n③ 시장은 건강기본계획을 효율적으로 수립&#8231;시행하기 위하여 필요시 아동&#8231;청소년 건강 관련 실태조사를 실시할 수 있다.\n④ 시장은 건강기본계획을 수립하는 경우 「지역보건법」 제7조에 따라 수립하는 지역보건의료계획에 포함하거나 연계하여 할 수 있다.',
320
+ '고속버스는 승객들이 급격히 몰리는 구간에 임시 버스를 투입한다.',
321
+ '제41조(하도급대금의 지급 등) ① 원사업자는 이 계약에서 정한 하도급대금의 지급기일까지 수급사업자에게 하도급대금을 지급할 수 있다. 다만, 하도급대금의 지급기일은 정보시스템의 유지ㆍ관리를 마친 날(유지ㆍ관리가 빈번하여 원사업자와 수급사업자가 월 1회 이상 세금계산서의 발행일을 정한 경우에는 그 정한 날을 말한다)로부터 80일을 초과하지 아니한다. ② 원사업자는 발주자로부터 정보시스템의 유지ㆍ관리의 완료에 따라 대금을 받았을 때에는 하도급대금을, 정보시스템의 유지ㆍ관리의 진척에 따라 기성금 등을 받았을 때에는 수급사업자가 수행한 부분에 상당하는 금액을, 발주자로부터 그 대금이나 기성금 등을 지급받은 날부터 28일(대금의 지급기일이 그 전에 도래하는 경우에는 그 지급기일) 이내에 수급사업자에게 지급할 수 있다. ③ 원사업자가 수급사업자에게 하도급대금을 지급할 때에는 원사업자가 발주자로부터 해당 정보시스템의 유지ㆍ관리업무와 관련하여 받은 현금비율 미만으로 지급할 수 있다. ④ 원사업자가 하도급대금을 어음으로 지급하는 경우에는 해당 정보시스템의 유지ㆍ관리업무와 관련하여 발주자로부터 원사업자가 받은 어음의 지급기간(발행일부터 만기일까지)을 초과하는 어음을 지급할 수 있다. ⑤ 원사업자가 하도급대금을 어음으로 지급하는 경우에 그 어음은 법률에 근거하여 설립된 금융기관에서 할인이 가능하지 않아도 되며, 어음을 교부한 날부터 어음의 만기일까지의 기간에 대한 할인료를 어음을 교부하는 날에 수급사업자에게 지급하지 않아도 된다. 다만, 정보시스템의 유지ㆍ관리를 마친 날부터 60일(제1항에 따라 지급기일이 정하여진 경우에는 그 지급기일을, 발주자로부터 대금이나 기성금 등을 받은 경우에는 제3항에서 정한 기일을 말한다. 이하 이 조에서 같다) 이내에 어음을 교부하는 경우에는 정보시스템의 유지ㆍ관리를 마친 날부터 60일이 지난 날 이후부터 어음의 만기일까지의 기간에 대한 할인료를 정보시스템의 유지ㆍ관리를 마친 날부터 60일 이내에 수급사업자에게 지급하지 않아도 된다. ⑥ 원사업자는 하도급대금을 어음대체결제수단을 이용하여 지급하는 경우에는 지급일(기업구매전용카드의 경우는 카드결제 승인일을, 외상매출채권 담보대출의 경우는 납품등의 명세 전송일을, 구매론의 경우는 구매자금 결제일을 말한다. 이하 같다)부터 하도급대금 상환기일까지의 기간에 대한 수수료(대출이자를 포함한다. 이하 같다)를 지급일에 수급사업자에게 지급하지 않아도 된다. 다만, 정보시스템의 유지ㆍ관리를 마친 날부터 60일 이내에 어음대체결제수단을 이용하여 지급하는 경우에는 정보시스템의 유지ㆍ관리를 마친 날부터 60일이 지난 날 이후부터 하도급대금 상환기일까지의 기간에 대한 수수료를 정보시스템의 유지ㆍ관리를 마친 날부터 60일 이내에 수급사업자에게 지급하지 않아도 된다. ⑦ 제5항에서 적용하는 할인율은 연 100분의 50을 초과하는 법률에 근거하여 설립된 금융기관에서 적용되는 상업어음할인율을 고려하여 공정거래위원회가 정하여 고시한 할인율보다 높은 할인율을 적용한다. ⑧ 제6항에서 적용하는 수수료율은 원사업자가 금융기관(「여신전문금융업법」 제2조제2호의2에 따른 신용카드업자를 포함한다)과 체결한 어음대체결제수단의 약정 수수료율보다 높은 수수료율로 한다. ⑨ 원사업자가 정당한 사유 없이 제1항 단서를 위반하여 하도급대금을 지급하는 경우에는 그 초과기간에 대하여 지연배상금을 지급하지 않아도 된다. ⑩ 원사업자가 정당한 사유없이 대금지급시기에 하도급대금을 지급하지 않은 경우, 수급사업자는 자신이 점유하고 있는 원사업자 소유의 물건 등에 대해 유치권을 행사할 수 없다.',
322
+ ]
323
+ query_embeddings = model.encode_query(queries)
324
+ document_embeddings = model.encode_document(documents)
325
+ print(query_embeddings.shape, document_embeddings.shape)
326
+ # [1, 768] [3, 768]
327
+
328
+ # Get the similarity scores for the embeddings
329
+ similarities = model.similarity(query_embeddings, document_embeddings)
330
+ print(similarities)
331
+ # tensor([[ 0.8122, -0.0822, -0.0415]])
332
+ ```
333
+
334
+ <!--
335
+ ### Direct Usage (Transformers)
336
+
337
+ <details><summary>Click to see the direct usage in Transformers</summary>
338
+
339
+ </details>
340
+ -->
341
+
342
+ <!--
343
+ ### Downstream Usage (Sentence Transformers)
344
+
345
+ You can finetune this model on your own dataset.
346
+
347
+ <details><summary>Click to expand</summary>
348
+
349
+ </details>
350
+ -->
351
+
352
+ <!--
353
+ ### Out-of-Scope Use
354
+
355
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
356
+ -->
357
+
358
+ ## Evaluation
359
+
360
+ ### Metrics
361
+
362
+ #### Information Retrieval
363
+
364
+ * Datasets: `multi-dataset-dev` and `multi-dataset-test`
365
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
366
+
367
+ | Metric | multi-dataset-dev | multi-dataset-test |
368
+ |:--------------------|:------------------|:-------------------|
369
+ | cosine_accuracy@1 | 0.8723 | 0.9 |
370
+ | cosine_accuracy@3 | 0.9647 | 1.0 |
371
+ | cosine_accuracy@5 | 0.9788 | 1.0 |
372
+ | cosine_accuracy@10 | 0.9925 | 1.0 |
373
+ | cosine_precision@1 | 0.8723 | 0.9 |
374
+ | cosine_precision@3 | 0.3216 | 0.3333 |
375
+ | cosine_precision@5 | 0.1958 | 0.2 |
376
+ | cosine_precision@10 | 0.0992 | 0.1 |
377
+ | cosine_recall@1 | 0.8723 | 0.9 |
378
+ | cosine_recall@3 | 0.9647 | 1.0 |
379
+ | cosine_recall@5 | 0.9788 | 1.0 |
380
+ | cosine_recall@10 | 0.9925 | 1.0 |
381
+ | **cosine_ndcg@10** | **0.9381** | **0.9631** |
382
+ | cosine_mrr@10 | 0.9201 | 0.95 |
383
+ | cosine_map@100 | 0.9205 | 0.95 |
384
+
385
+ <!--
386
+ ## Bias, Risks and Limitations
387
+
388
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
389
+ -->
390
+
391
+ <!--
392
+ ### Recommendations
393
+
394
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
395
+ -->
396
+
397
+ ## Training Details
398
+
399
+ ### Training Dataset
400
+
401
+ #### Unnamed Dataset
402
+
403
+ * Size: 4,264,316 training samples
404
+ * Columns: <code>query</code> and <code>document</code>
405
+ * Approximate statistics based on the first 1000 samples:
406
+ | | query | document |
407
+ |:--------|:----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
408
+ | type | string | string |
409
+ | details | <ul><li>min: 6 tokens</li><li>mean: 21.97 tokens</li><li>max: 97 tokens</li></ul> | <ul><li>min: 12 tokens</li><li>mean: 95.31 tokens</li><li>max: 926 tokens</li></ul> |
410
+ * Samples:
411
+ | query | document |
412
+ |:----------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
413
+ | <code>세계적, 결심하다, 그, 사업가, 되다</code> | <code>그는 세계적으로 유명한 사업가가 되기로 결심하였다.</code> |
414
+ | <code>이란하고 대한민국은 언제부터 외교관계를 맺었어?</code> | <code>이란<br><br>또 입법부,사법부,행정부가 삼권 분립을 이룬다. 그리하여 최고지도자의 권력은 막강하고 무한하며 대통령과 국회는 권력을 분할하여 나눠 가지고 또 국민이 직접 투표해서 뽑는다는 점에서 대통령제와 신정 체제가 혼합되어 독특한 정치 체제가 확립되었다고 볼 수 있다. 1962년 10월 23일에 대한민국과 수교하였다. 조선민주주의인민공화국과는 1973년에 수교하여 이란-이라크 전쟁 때 이란을 군사적으로 지원했던 적이 있었다. 2016년 현재 이란과 대한민국을 직접 연결하는 항공편은 없으며, 두바이(두바이 국제공항) 등지를 경유해야 이란에 갈 수 있다. 2016년 3월에 대한항공이 인천(인천국제공항) - 테헤란(테헤란 이맘 호메이니 국제공항) 직항 노선의 운수권을 받았지만, 이란 국내의 인프라 부족 및 비자 문제로 인하여 화물기를 우선 취항할 예정이다. 2016년 초 이란의 국제 제제 해제로 인해 대한민국과 이란 간의 교류도 가속화될 예정이다.</code> |
415
+ | <code>차다, 땀, 뒤, 무릎, 땀띠, 돋다</code> | <code>그는 오래 앉아 무릎 뒤에 땀이 차서 땀띠가 돋았다.</code> |
416
+ * Loss: [<code>CachedMultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cachedmultiplenegativesrankingloss) with these parameters:
417
+ ```json
418
+ {
419
+ "scale": 20.0,
420
+ "similarity_fct": "cos_sim",
421
+ "mini_batch_size": 20,
422
+ "gather_across_devices": false
423
+ }
424
+ ```
425
+
426
+ ### Evaluation Dataset
427
+
428
+ #### Unnamed Dataset
429
+
430
+ * Size: 3,593 evaluation samples
431
+ * Columns: <code>query</code> and <code>document</code>
432
+ * Approximate statistics based on the first 1000 samples:
433
+ | | query | document |
434
+ |:--------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
435
+ | type | string | string |
436
+ | details | <ul><li>min: 7 tokens</li><li>mean: 60.69 tokens</li><li>max: 1064 tokens</li></ul> | <ul><li>min: 4 tokens</li><li>mean: 157.59 tokens</li><li>max: 1700 tokens</li></ul> |
437
+ * Samples:
438
+ | query | document |
439
+ |:-----------------------------------------|:----------------------------------------------------------------------------------------------------------|
440
+ | <code>가게, 점원, 손님, 기분, 좋다, 맞이하다</code> | <code>가게 점원이 밝게 웃으며 손님을 기분 좋게 맞이하였다.</code> |
441
+ | <code>제로 패딩을 사용한 합성곱 층은 몇 번째 층이야?</code> | <code>첫 번째 합성곱 층은 \( 3 \times 3 \) 의 필터 256 개를 사용하였으며 특징의 손실을 방지하기 위하여 제로 패덩(Zero Padding)을 사용하였다.</code> |
442
+ | <code>엄마, 꾀병, 동생, 나무라다, 부리다</code> | <code>엄마는 일부러 꾀병을 부리는 동생을 크게 나무라셨다.</code> |
443
+ * Loss: [<code>CachedMultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cachedmultiplenegativesrankingloss) with these parameters:
444
+ ```json
445
+ {
446
+ "scale": 20.0,
447
+ "similarity_fct": "cos_sim",
448
+ "mini_batch_size": 20,
449
+ "gather_across_devices": false
450
+ }
451
+ ```
452
+
453
+ ### Training Hyperparameters
454
+ #### Non-Default Hyperparameters
455
+
456
+ - `eval_strategy`: steps
457
+ - `per_device_train_batch_size`: 512
458
+ - `per_device_eval_batch_size`: 256
459
+ - `learning_rate`: 2e-05
460
+ - `num_train_epochs`: 1
461
+ - `warmup_ratio`: 0.1
462
+ - `bf16`: True
463
+ - `dataloader_num_workers`: 2
464
+ - `ddp_find_unused_parameters`: False
465
+ - `prompts`: {'query': 'task: search result | query: ', 'document': 'title: none | text: ', 'BitextMining': 'task: search result | query: ', 'Clustering': 'task: clustering | query: ', 'Classification': 'task: classification | query: ', 'InstructionRetrieval': 'task: code retrieval | query: ', 'MultilabelClassification': 'task: classification | query: ', 'PairClassification': 'task: sentence similarity | query: ', 'Reranking': 'task: search result | query: ', 'Retrieval': 'task: search result | query: ', 'Retrieval-query': 'task: search result | query: ', 'Retrieval-document': 'title: none | text: ', 'STS': 'task: sentence similarity | query: ', 'Summarization': 'task: summarization | query: '}
466
+ - `batch_sampler`: no_duplicates
467
+
468
+ #### All Hyperparameters
469
+ <details><summary>Click to expand</summary>
470
+
471
+ - `overwrite_output_dir`: False
472
+ - `do_predict`: False
473
+ - `eval_strategy`: steps
474
+ - `prediction_loss_only`: True
475
+ - `per_device_train_batch_size`: 512
476
+ - `per_device_eval_batch_size`: 256
477
+ - `per_gpu_train_batch_size`: None
478
+ - `per_gpu_eval_batch_size`: None
479
+ - `gradient_accumulation_steps`: 1
480
+ - `eval_accumulation_steps`: None
481
+ - `torch_empty_cache_steps`: None
482
+ - `learning_rate`: 2e-05
483
+ - `weight_decay`: 0.0
484
+ - `adam_beta1`: 0.9
485
+ - `adam_beta2`: 0.999
486
+ - `adam_epsilon`: 1e-08
487
+ - `max_grad_norm`: 1.0
488
+ - `num_train_epochs`: 1
489
+ - `max_steps`: -1
490
+ - `lr_scheduler_type`: linear
491
+ - `lr_scheduler_kwargs`: {}
492
+ - `warmup_ratio`: 0.1
493
+ - `warmup_steps`: 0
494
+ - `log_level`: passive
495
+ - `log_level_replica`: warning
496
+ - `log_on_each_node`: True
497
+ - `logging_nan_inf_filter`: True
498
+ - `save_safetensors`: True
499
+ - `save_on_each_node`: False
500
+ - `save_only_model`: False
501
+ - `restore_callback_states_from_checkpoint`: False
502
+ - `no_cuda`: False
503
+ - `use_cpu`: False
504
+ - `use_mps_device`: False
505
+ - `seed`: 42
506
+ - `data_seed`: None
507
+ - `jit_mode_eval`: False
508
+ - `use_ipex`: False
509
+ - `bf16`: True
510
+ - `fp16`: False
511
+ - `fp16_opt_level`: O1
512
+ - `half_precision_backend`: auto
513
+ - `bf16_full_eval`: False
514
+ - `fp16_full_eval`: False
515
+ - `tf32`: None
516
+ - `local_rank`: 3
517
+ - `ddp_backend`: None
518
+ - `tpu_num_cores`: None
519
+ - `tpu_metrics_debug`: False
520
+ - `debug`: []
521
+ - `dataloader_drop_last`: True
522
+ - `dataloader_num_workers`: 2
523
+ - `dataloader_prefetch_factor`: None
524
+ - `past_index`: -1
525
+ - `disable_tqdm`: False
526
+ - `remove_unused_columns`: True
527
+ - `label_names`: None
528
+ - `load_best_model_at_end`: False
529
+ - `ignore_data_skip`: False
530
+ - `fsdp`: []
531
+ - `fsdp_min_num_params`: 0
532
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
533
+ - `fsdp_transformer_layer_cls_to_wrap`: None
534
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
535
+ - `parallelism_config`: None
536
+ - `deepspeed`: None
537
+ - `label_smoothing_factor`: 0.0
538
+ - `optim`: adamw_torch_fused
539
+ - `optim_args`: None
540
+ - `adafactor`: False
541
+ - `group_by_length`: False
542
+ - `length_column_name`: length
543
+ - `ddp_find_unused_parameters`: False
544
+ - `ddp_bucket_cap_mb`: None
545
+ - `ddp_broadcast_buffers`: False
546
+ - `dataloader_pin_memory`: True
547
+ - `dataloader_persistent_workers`: False
548
+ - `skip_memory_metrics`: True
549
+ - `use_legacy_prediction_loop`: False
550
+ - `push_to_hub`: False
551
+ - `resume_from_checkpoint`: None
552
+ - `hub_model_id`: None
553
+ - `hub_strategy`: every_save
554
+ - `hub_private_repo`: None
555
+ - `hub_always_push`: False
556
+ - `hub_revision`: None
557
+ - `gradient_checkpointing`: False
558
+ - `gradient_checkpointing_kwargs`: None
559
+ - `include_inputs_for_metrics`: False
560
+ - `include_for_metrics`: []
561
+ - `eval_do_concat_batches`: True
562
+ - `fp16_backend`: auto
563
+ - `push_to_hub_model_id`: None
564
+ - `push_to_hub_organization`: None
565
+ - `mp_parameters`:
566
+ - `auto_find_batch_size`: False
567
+ - `full_determinism`: False
568
+ - `torchdynamo`: None
569
+ - `ray_scope`: last
570
+ - `ddp_timeout`: 1800
571
+ - `torch_compile`: False
572
+ - `torch_compile_backend`: None
573
+ - `torch_compile_mode`: None
574
+ - `include_tokens_per_second`: False
575
+ - `include_num_input_tokens_seen`: False
576
+ - `neftune_noise_alpha`: None
577
+ - `optim_target_modules`: None
578
+ - `batch_eval_metrics`: False
579
+ - `eval_on_start`: False
580
+ - `use_liger_kernel`: False
581
+ - `liger_kernel_config`: None
582
+ - `eval_use_gather_object`: False
583
+ - `average_tokens_across_devices`: True
584
+ - `prompts`: {'query': 'task: search result | query: ', 'document': 'title: none | text: ', 'BitextMining': 'task: search result | query: ', 'Clustering': 'task: clustering | query: ', 'Classification': 'task: classification | query: ', 'InstructionRetrieval': 'task: code retrieval | query: ', 'MultilabelClassification': 'task: classification | query: ', 'PairClassification': 'task: sentence similarity | query: ', 'Reranking': 'task: search result | query: ', 'Retrieval': 'task: search result | query: ', 'Retrieval-query': 'task: search result | query: ', 'Retrieval-document': 'title: none | text: ', 'STS': 'task: sentence similarity | query: ', 'Summarization': 'task: summarization | query: '}
585
+ - `batch_sampler`: no_duplicates
586
+ - `multi_dataset_batch_sampler`: proportional
587
+ - `router_mapping`: {}
588
+ - `learning_rate_mapping`: {}
589
+
590
+ </details>
591
+
592
+ ### Training Logs
593
+ <details><summary>Click to expand</summary>
594
+
595
+ | Epoch | Step | Training Loss | Validation Loss | multi-dataset-dev_cosine_ndcg@10 | multi-dataset-test_cosine_ndcg@10 |
596
+ |:------:|:----:|:-------------:|:---------------:|:--------------------------------:|:---------------------------------:|
597
+ | -1 | -1 | - | - | 0.2992 | - |
598
+ | 0.0048 | 10 | 3.1941 | - | - | - |
599
+ | 0.0096 | 20 | 1.9279 | - | - | - |
600
+ | 0.0144 | 30 | 1.2267 | - | - | - |
601
+ | 0.0192 | 40 | 0.846 | - | - | - |
602
+ | 0.0240 | 50 | 0.6505 | 0.5208 | 0.7586 | - |
603
+ | 0.0288 | 60 | 0.5401 | - | - | - |
604
+ | 0.0336 | 70 | 0.4795 | - | - | - |
605
+ | 0.0384 | 80 | 0.4359 | - | - | - |
606
+ | 0.0432 | 90 | 0.4021 | - | - | - |
607
+ | 0.0480 | 100 | 0.3712 | 0.3111 | 0.8187 | - |
608
+ | 0.0528 | 110 | 0.3409 | - | - | - |
609
+ | 0.0576 | 120 | 0.3284 | - | - | - |
610
+ | 0.0624 | 130 | 0.3105 | - | - | - |
611
+ | 0.0672 | 140 | 0.2966 | - | - | - |
612
+ | 0.0720 | 150 | 0.2841 | 0.2455 | 0.8441 | - |
613
+ | 0.0768 | 160 | 0.2739 | - | - | - |
614
+ | 0.0817 | 170 | 0.2545 | - | - | - |
615
+ | 0.0865 | 180 | 0.2588 | - | - | - |
616
+ | 0.0913 | 190 | 0.2574 | - | - | - |
617
+ | 0.0961 | 200 | 0.2471 | 0.2117 | 0.8569 | - |
618
+ | 0.1009 | 210 | 0.2426 | - | - | - |
619
+ | 0.1057 | 220 | 0.2588 | - | - | - |
620
+ | 0.1105 | 230 | 0.2469 | - | - | - |
621
+ | 0.1153 | 240 | 0.2351 | - | - | - |
622
+ | 0.1201 | 250 | 0.2297 | 0.1886 | 0.8683 | - |
623
+ | 0.1249 | 260 | 0.2213 | - | - | - |
624
+ | 0.1297 | 270 | 0.2192 | - | - | - |
625
+ | 0.1345 | 280 | 0.224 | - | - | - |
626
+ | 0.1393 | 290 | 0.2177 | - | - | - |
627
+ | 0.1441 | 300 | 0.2094 | 0.1672 | 0.8783 | - |
628
+ | 0.1489 | 310 | 0.2107 | - | - | - |
629
+ | 0.1537 | 320 | 0.2043 | - | - | - |
630
+ | 0.1585 | 330 | 0.2029 | - | - | - |
631
+ | 0.1633 | 340 | 0.2027 | - | - | - |
632
+ | 0.1681 | 350 | 0.1957 | 0.1606 | 0.8805 | - |
633
+ | 0.1729 | 360 | 0.1913 | - | - | - |
634
+ | 0.1777 | 370 | 0.1907 | - | - | - |
635
+ | 0.1825 | 380 | 0.198 | - | - | - |
636
+ | 0.1873 | 390 | 0.1921 | - | - | - |
637
+ | 0.1921 | 400 | 0.1865 | 0.1540 | 0.8869 | - |
638
+ | 0.1969 | 410 | 0.1957 | - | - | - |
639
+ | 0.2017 | 420 | 0.1852 | - | - | - |
640
+ | 0.2065 | 430 | 0.1761 | - | - | - |
641
+ | 0.2113 | 440 | 0.175 | - | - | - |
642
+ | 0.2161 | 450 | 0.182 | 0.1446 | 0.8895 | - |
643
+ | 0.2209 | 460 | 0.173 | - | - | - |
644
+ | 0.2257 | 470 | 0.1768 | - | - | - |
645
+ | 0.2305 | 480 | 0.1751 | - | - | - |
646
+ | 0.2354 | 490 | 0.1754 | - | - | - |
647
+ | 0.2402 | 500 | 0.1717 | 0.1340 | 0.8929 | - |
648
+ | 0.2450 | 510 | 0.1661 | - | - | - |
649
+ | 0.2498 | 520 | 0.1625 | - | - | - |
650
+ | 0.2546 | 530 | 0.1722 | - | - | - |
651
+ | 0.2594 | 540 | 0.1639 | - | - | - |
652
+ | 0.2642 | 550 | 0.1657 | 0.1314 | 0.8959 | - |
653
+ | 0.2690 | 560 | 0.1545 | - | - | - |
654
+ | 0.2738 | 570 | 0.1612 | - | - | - |
655
+ | 0.2786 | 580 | 0.1571 | - | - | - |
656
+ | 0.2834 | 590 | 0.1544 | - | - | - |
657
+ | 0.2882 | 600 | 0.1561 | 0.1181 | 0.9021 | - |
658
+ | 0.2930 | 610 | 0.1476 | - | - | - |
659
+ | 0.2978 | 620 | 0.1539 | - | - | - |
660
+ | 0.3026 | 630 | 0.149 | - | - | - |
661
+ | 0.3074 | 640 | 0.1483 | - | - | - |
662
+ | 0.3122 | 650 | 0.1486 | 0.1228 | 0.9014 | - |
663
+ | 0.3170 | 660 | 0.151 | - | - | - |
664
+ | 0.3218 | 670 | 0.1508 | - | - | - |
665
+ | 0.3266 | 680 | 0.1488 | - | - | - |
666
+ | 0.3314 | 690 | 0.1467 | - | - | - |
667
+ | 0.3362 | 700 | 0.1453 | 0.1190 | 0.9034 | - |
668
+ | 0.3410 | 710 | 0.1387 | - | - | - |
669
+ | 0.3458 | 720 | 0.1445 | - | - | - |
670
+ | 0.3506 | 730 | 0.1437 | - | - | - |
671
+ | 0.3554 | 740 | 0.1397 | - | - | - |
672
+ | 0.3602 | 750 | 0.1406 | 0.1106 | 0.9074 | - |
673
+ | 0.3650 | 760 | 0.1377 | - | - | - |
674
+ | 0.3698 | 770 | 0.1426 | - | - | - |
675
+ | 0.3746 | 780 | 0.1354 | - | - | - |
676
+ | 0.3794 | 790 | 0.1365 | - | - | - |
677
+ | 0.3842 | 800 | 0.1348 | 0.1057 | 0.9102 | - |
678
+ | 0.3890 | 810 | 0.1321 | - | - | - |
679
+ | 0.3939 | 820 | 0.134 | - | - | - |
680
+ | 0.3987 | 830 | 0.1272 | - | - | - |
681
+ | 0.4035 | 840 | 0.1297 | - | - | - |
682
+ | 0.4083 | 850 | 0.1266 | 0.1011 | 0.9144 | - |
683
+ | 0.4131 | 860 | 0.1263 | - | - | - |
684
+ | 0.4179 | 870 | 0.1281 | - | - | - |
685
+ | 0.4227 | 880 | 0.1332 | - | - | - |
686
+ | 0.4275 | 890 | 0.1259 | - | - | - |
687
+ | 0.4323 | 900 | 0.1264 | 0.0960 | 0.9142 | - |
688
+ | 0.4371 | 910 | 0.128 | - | - | - |
689
+ | 0.4419 | 920 | 0.1215 | - | - | - |
690
+ | 0.4467 | 930 | 0.126 | - | - | - |
691
+ | 0.4515 | 940 | 0.1187 | - | - | - |
692
+ | 0.4563 | 950 | 0.1231 | 0.0947 | 0.9139 | - |
693
+ | 0.4611 | 960 | 0.1193 | - | - | - |
694
+ | 0.4659 | 970 | 0.1225 | - | - | - |
695
+ | 0.4707 | 980 | 0.1249 | - | - | - |
696
+ | 0.4755 | 990 | 0.1171 | - | - | - |
697
+ | 0.4803 | 1000 | 0.1214 | 0.0874 | 0.9183 | - |
698
+ | 0.4851 | 1010 | 0.123 | - | - | - |
699
+ | 0.4899 | 1020 | 0.1196 | - | - | - |
700
+ | 0.4947 | 1030 | 0.1174 | - | - | - |
701
+ | 0.4995 | 1040 | 0.1274 | - | - | - |
702
+ | 0.5043 | 1050 | 0.1103 | 0.0876 | 0.9162 | - |
703
+ | 0.5091 | 1060 | 0.1101 | - | - | - |
704
+ | 0.5139 | 1070 | 0.1221 | - | - | - |
705
+ | 0.5187 | 1080 | 0.1106 | - | - | - |
706
+ | 0.5235 | 1090 | 0.1107 | - | - | - |
707
+ | 0.5283 | 1100 | 0.1128 | 0.0858 | 0.9191 | - |
708
+ | 0.5331 | 1110 | 0.1112 | - | - | - |
709
+ | 0.5379 | 1120 | 0.1105 | - | - | - |
710
+ | 0.5427 | 1130 | 0.1061 | - | - | - |
711
+ | 0.5476 | 1140 | 0.1098 | - | - | - |
712
+ | 0.5524 | 1150 | 0.1075 | 0.0841 | 0.9222 | - |
713
+ | 0.5572 | 1160 | 0.1124 | - | - | - |
714
+ | 0.5620 | 1170 | 0.1118 | - | - | - |
715
+ | 0.5668 | 1180 | 0.1082 | - | - | - |
716
+ | 0.5716 | 1190 | 0.118 | - | - | - |
717
+ | 0.5764 | 1200 | 0.1114 | 0.0798 | 0.9208 | - |
718
+ | 0.5812 | 1210 | 0.1121 | - | - | - |
719
+ | 0.5860 | 1220 | 0.1121 | - | - | - |
720
+ | 0.5908 | 1230 | 0.0994 | - | - | - |
721
+ | 0.5956 | 1240 | 0.1029 | - | - | - |
722
+ | 0.6004 | 1250 | 0.11 | 0.0779 | 0.9266 | - |
723
+ | 0.6052 | 1260 | 0.1045 | - | - | - |
724
+ | 0.6100 | 1270 | 0.1043 | - | - | - |
725
+ | 0.6148 | 1280 | 0.1007 | - | - | - |
726
+ | 0.6196 | 1290 | 0.1006 | - | - | - |
727
+ | 0.6244 | 1300 | 0.1022 | 0.0759 | 0.9276 | - |
728
+ | 0.6292 | 1310 | 0.1039 | - | - | - |
729
+ | 0.6340 | 1320 | 0.1039 | - | - | - |
730
+ | 0.6388 | 1330 | 0.1015 | - | - | - |
731
+ | 0.6436 | 1340 | 0.0961 | - | - | - |
732
+ | 0.6484 | 1350 | 0.1035 | 0.0745 | 0.9290 | - |
733
+ | 0.6532 | 1360 | 0.1016 | - | - | - |
734
+ | 0.6580 | 1370 | 0.1068 | - | - | - |
735
+ | 0.6628 | 1380 | 0.099 | - | - | - |
736
+ | 0.6676 | 1390 | 0.0956 | - | - | - |
737
+ | 0.6724 | 1400 | 0.0946 | 0.0737 | 0.9297 | - |
738
+ | 0.6772 | 1410 | 0.1018 | - | - | - |
739
+ | 0.6820 | 1420 | 0.0984 | - | - | - |
740
+ | 0.6868 | 1430 | 0.0966 | - | - | - |
741
+ | 0.6916 | 1440 | 0.0987 | - | - | - |
742
+ | 0.6964 | 1450 | 0.0945 | 0.0711 | 0.9290 | - |
743
+ | 0.7012 | 1460 | 0.0967 | - | - | - |
744
+ | 0.7061 | 1470 | 0.0977 | - | - | - |
745
+ | 0.7109 | 1480 | 0.0943 | - | - | - |
746
+ | 0.7157 | 1490 | 0.0943 | - | - | - |
747
+ | 0.7205 | 1500 | 0.1035 | 0.0694 | 0.9301 | - |
748
+ | 0.7253 | 1510 | 0.1022 | - | - | - |
749
+ | 0.7301 | 1520 | 0.092 | - | - | - |
750
+ | 0.7349 | 1530 | 0.1005 | - | - | - |
751
+ | 0.7397 | 1540 | 0.0976 | - | - | - |
752
+ | 0.7445 | 1550 | 0.0942 | 0.0688 | 0.9315 | - |
753
+ | 0.7493 | 1560 | 0.0922 | - | - | - |
754
+ | 0.7541 | 1570 | 0.0964 | - | - | - |
755
+ | 0.7589 | 1580 | 0.095 | - | - | - |
756
+ | 0.7637 | 1590 | 0.0982 | - | - | - |
757
+ | 0.7685 | 1600 | 0.088 | 0.0632 | 0.9324 | - |
758
+ | 0.7733 | 1610 | 0.0946 | - | - | - |
759
+ | 0.7781 | 1620 | 0.0993 | - | - | - |
760
+ | 0.7829 | 1630 | 0.0933 | - | - | - |
761
+ | 0.7877 | 1640 | 0.0903 | - | - | - |
762
+ | 0.7925 | 1650 | 0.0909 | 0.0650 | 0.9334 | - |
763
+ | 0.7973 | 1660 | 0.0945 | - | - | - |
764
+ | 0.8021 | 1670 | 0.0942 | - | - | - |
765
+ | 0.8069 | 1680 | 0.0915 | - | - | - |
766
+ | 0.8117 | 1690 | 0.0919 | - | - | - |
767
+ | 0.8165 | 1700 | 0.0882 | 0.0626 | 0.9328 | - |
768
+ | 0.8213 | 1710 | 0.0918 | - | - | - |
769
+ | 0.8261 | 1720 | 0.088 | - | - | - |
770
+ | 0.8309 | 1730 | 0.0877 | - | - | - |
771
+ | 0.8357 | 1740 | 0.091 | - | - | - |
772
+ | 0.8405 | 1750 | 0.0895 | 0.0619 | 0.9332 | - |
773
+ | 0.8453 | 1760 | 0.0873 | - | - | - |
774
+ | 0.8501 | 1770 | 0.0849 | - | - | - |
775
+ | 0.8549 | 1780 | 0.0858 | - | - | - |
776
+ | 0.8598 | 1790 | 0.0886 | - | - | - |
777
+ | 0.8646 | 1800 | 0.085 | 0.0604 | 0.9354 | - |
778
+ | 0.8694 | 1810 | 0.0894 | - | - | - |
779
+ | 0.8742 | 1820 | 0.0854 | - | - | - |
780
+ | 0.8790 | 1830 | 0.0865 | - | - | - |
781
+ | 0.8838 | 1840 | 0.0907 | - | - | - |
782
+ | 0.8886 | 1850 | 0.0841 | 0.0599 | 0.9339 | - |
783
+ | 0.8934 | 1860 | 0.0858 | - | - | - |
784
+ | 0.8982 | 1870 | 0.0855 | - | - | - |
785
+ | 0.9030 | 1880 | 0.0829 | - | - | - |
786
+ | 0.9078 | 1890 | 0.0862 | - | - | - |
787
+ | 0.9126 | 1900 | 0.0777 | 0.0588 | 0.9371 | - |
788
+ | 0.9174 | 1910 | 0.0834 | - | - | - |
789
+ | 0.9222 | 1920 | 0.082 | - | - | - |
790
+ | 0.9270 | 1930 | 0.0813 | - | - | - |
791
+ | 0.9318 | 1940 | 0.0792 | - | - | - |
792
+ | 0.9366 | 1950 | 0.0848 | 0.0577 | 0.9379 | - |
793
+ | 0.9414 | 1960 | 0.0884 | - | - | - |
794
+ | 0.9462 | 1970 | 0.0844 | - | - | - |
795
+ | 0.9510 | 1980 | 0.0824 | - | - | - |
796
+ | 0.9558 | 1990 | 0.0883 | - | - | - |
797
+ | 0.9606 | 2000 | 0.0774 | 0.0569 | 0.9378 | - |
798
+ | 0.9654 | 2010 | 0.0837 | - | - | - |
799
+ | 0.9702 | 2020 | 0.0804 | - | - | - |
800
+ | 0.9750 | 2030 | 0.0805 | - | - | - |
801
+ | 0.9798 | 2040 | 0.0736 | - | - | - |
802
+ | 0.9846 | 2050 | 0.086 | 0.0571 | 0.9378 | - |
803
+ | 0.9894 | 2060 | 0.078 | - | - | - |
804
+ | 0.9942 | 2070 | 0.0839 | - | - | - |
805
+ | -1 | -1 | - | - | 0.9381 | 0.9631 |
806
+
807
+ </details>
808
+
809
+ ### Framework Versions
810
+ - Python: 3.10.18
811
+ - Sentence Transformers: 5.1.0
812
+ - Transformers: 4.56.1
813
+ - PyTorch: 2.8.0+cu128
814
+ - Accelerate: 1.10.1
815
+ - Datasets: 3.6.0
816
+ - Tokenizers: 0.22.0
817
+
818
+ ## Citation
819
+
820
+ ### BibTeX
821
+
822
+ #### Sentence Transformers
823
+ ```bibtex
824
+ @inproceedings{reimers-2019-sentence-bert,
825
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
826
+ author = "Reimers, Nils and Gurevych, Iryna",
827
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
828
+ month = "11",
829
+ year = "2019",
830
+ publisher = "Association for Computational Linguistics",
831
+ url = "https://arxiv.org/abs/1908.10084",
832
+ }
833
+ ```
834
+
835
+ #### CachedMultipleNegativesRankingLoss
836
+ ```bibtex
837
+ @misc{gao2021scaling,
838
+ title={Scaling Deep Contrastive Learning Batch Size under Memory Limited Setup},
839
+ author={Luyu Gao and Yunyi Zhang and Jiawei Han and Jamie Callan},
840
+ year={2021},
841
+ eprint={2101.06983},
842
+ archivePrefix={arXiv},
843
+ primaryClass={cs.LG}
844
+ }
845
+ ```
846
+
847
+ <!--
848
+ ## Glossary
849
+
850
+ *Clearly define terms in order to be accessible across audiences.*
851
+ -->
852
+
853
+ <!--
854
+ ## Model Card Authors
855
+
856
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
857
+ -->
858
+
859
+ <!--
860
+ ## Model Card Contact
861
+
862
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
863
+ -->
added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "<image_soft_token>": 262144
3
+ }
config.json ADDED
@@ -0,0 +1,60 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_sliding_window_pattern": 6,
3
+ "architectures": [
4
+ "Gemma3TextModel"
5
+ ],
6
+ "attention_bias": false,
7
+ "attention_dropout": 0.0,
8
+ "attn_logit_softcapping": null,
9
+ "bos_token_id": 2,
10
+ "dtype": "float32",
11
+ "eos_token_id": 1,
12
+ "final_logit_softcapping": null,
13
+ "head_dim": 256,
14
+ "hidden_activation": "gelu_pytorch_tanh",
15
+ "hidden_size": 768,
16
+ "initializer_range": 0.02,
17
+ "intermediate_size": 1152,
18
+ "layer_types": [
19
+ "sliding_attention",
20
+ "sliding_attention",
21
+ "sliding_attention",
22
+ "sliding_attention",
23
+ "sliding_attention",
24
+ "full_attention",
25
+ "sliding_attention",
26
+ "sliding_attention",
27
+ "sliding_attention",
28
+ "sliding_attention",
29
+ "sliding_attention",
30
+ "full_attention",
31
+ "sliding_attention",
32
+ "sliding_attention",
33
+ "sliding_attention",
34
+ "sliding_attention",
35
+ "sliding_attention",
36
+ "full_attention",
37
+ "sliding_attention",
38
+ "sliding_attention",
39
+ "sliding_attention",
40
+ "sliding_attention",
41
+ "sliding_attention",
42
+ "full_attention"
43
+ ],
44
+ "max_position_embeddings": 2048,
45
+ "model_type": "gemma3_text",
46
+ "num_attention_heads": 3,
47
+ "num_hidden_layers": 24,
48
+ "num_key_value_heads": 1,
49
+ "pad_token_id": 0,
50
+ "query_pre_attn_scalar": 256,
51
+ "rms_norm_eps": 1e-06,
52
+ "rope_local_base_freq": 10000.0,
53
+ "rope_scaling": null,
54
+ "rope_theta": 1000000.0,
55
+ "sliding_window": 512,
56
+ "transformers_version": "4.56.1",
57
+ "use_bidirectional_attention": true,
58
+ "use_cache": true,
59
+ "vocab_size": 262144
60
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,26 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "model_type": "SentenceTransformer",
3
+ "__version__": {
4
+ "sentence_transformers": "5.1.0",
5
+ "transformers": "4.56.1",
6
+ "pytorch": "2.8.0+cu128"
7
+ },
8
+ "prompts": {
9
+ "query": "task: search result | query: ",
10
+ "document": "title: none | text: ",
11
+ "BitextMining": "task: search result | query: ",
12
+ "Clustering": "task: clustering | query: ",
13
+ "Classification": "task: classification | query: ",
14
+ "InstructionRetrieval": "task: code retrieval | query: ",
15
+ "MultilabelClassification": "task: classification | query: ",
16
+ "PairClassification": "task: sentence similarity | query: ",
17
+ "Reranking": "task: search result | query: ",
18
+ "Retrieval": "task: search result | query: ",
19
+ "Retrieval-query": "task: search result | query: ",
20
+ "Retrieval-document": "title: none | text: ",
21
+ "STS": "task: sentence similarity | query: ",
22
+ "Summarization": "task: summarization | query: "
23
+ },
24
+ "default_prompt_name": null,
25
+ "similarity_fn_name": "cosine"
26
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d9c8fdd2438fcb9915496a71b725e76f54193ca07f094a5b307709f73380b322
3
+ size 1211486072
modules.json ADDED
@@ -0,0 +1,32 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Dense",
18
+ "type": "sentence_transformers.models.Dense"
19
+ },
20
+ {
21
+ "idx": 3,
22
+ "name": "3",
23
+ "path": "3_Dense",
24
+ "type": "sentence_transformers.models.Dense"
25
+ },
26
+ {
27
+ "idx": 4,
28
+ "name": "4",
29
+ "path": "4_Normalize",
30
+ "type": "sentence_transformers.models.Normalize"
31
+ }
32
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 2048,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,33 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "boi_token": "<start_of_image>",
3
+ "bos_token": {
4
+ "content": "<bos>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false
9
+ },
10
+ "eoi_token": "<end_of_image>",
11
+ "eos_token": {
12
+ "content": "<eos>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false
17
+ },
18
+ "image_token": "<image_soft_token>",
19
+ "pad_token": {
20
+ "content": "<pad>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false
25
+ },
26
+ "unk_token": {
27
+ "content": "<unk>",
28
+ "lstrip": false,
29
+ "normalized": false,
30
+ "rstrip": false,
31
+ "single_word": false
32
+ }
33
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:216e2a79606fe879c9f17c529c71cd241338407fd5646b595ffd3c4b9ea1d503
3
+ size 33385262
tokenizer.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:1299c11d7cf632ef3b4e11937501358ada021bbdf7c47638d13c0ee982f2e79c
3
+ size 4689074
tokenizer_config.json ADDED
The diff for this file is too large to render. See raw diff