Upload folder using huggingface_hub
Browse files- README.md +358 -0
- config.json +65 -0
- model.safetensors +3 -0
- special_tokens_map.json +51 -0
- tokenizer.json +0 -0
- tokenizer_config.json +60 -0
- vocab.txt +0 -0
README.md
ADDED
|
@@ -0,0 +1,358 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
tags:
|
| 3 |
+
- sentence-transformers
|
| 4 |
+
- cross-encoder
|
| 5 |
+
- reranker
|
| 6 |
+
- generated_from_trainer
|
| 7 |
+
- dataset_size:35108
|
| 8 |
+
- loss:BinaryCrossEntropyLoss
|
| 9 |
+
base_model: klue/roberta-small
|
| 10 |
+
pipeline_tag: text-ranking
|
| 11 |
+
library_name: sentence-transformers
|
| 12 |
+
metrics:
|
| 13 |
+
- pearson
|
| 14 |
+
- spearman
|
| 15 |
+
model-index:
|
| 16 |
+
- name: CrossEncoder based on klue/roberta-small
|
| 17 |
+
results:
|
| 18 |
+
- task:
|
| 19 |
+
type: cross-encoder-correlation
|
| 20 |
+
name: Cross Encoder Correlation
|
| 21 |
+
dataset:
|
| 22 |
+
name: Unknown
|
| 23 |
+
type: unknown
|
| 24 |
+
metrics:
|
| 25 |
+
- type: pearson
|
| 26 |
+
value: 0.972225883817884
|
| 27 |
+
name: Pearson
|
| 28 |
+
- type: spearman
|
| 29 |
+
value: 0.8653505396714068
|
| 30 |
+
name: Spearman
|
| 31 |
+
---
|
| 32 |
+
|
| 33 |
+
# CrossEncoder based on klue/roberta-small
|
| 34 |
+
|
| 35 |
+
This is a [Cross Encoder](https://www.sbert.net/docs/cross_encoder/usage/usage.html) model finetuned from [klue/roberta-small](https://huggingface.co/klue/roberta-small) using the [sentence-transformers](https://www.SBERT.net) library. It computes scores for pairs of texts, which can be used for text reranking and semantic search.
|
| 36 |
+
|
| 37 |
+
## Model Details
|
| 38 |
+
|
| 39 |
+
### Model Description
|
| 40 |
+
- **Model Type:** Cross Encoder
|
| 41 |
+
- **Base model:** [klue/roberta-small](https://huggingface.co/klue/roberta-small) <!-- at revision b6b4c36d827e0293ae2fcf04d527072f10a23064 -->
|
| 42 |
+
- **Maximum Sequence Length:** 512 tokens
|
| 43 |
+
- **Number of Output Labels:** 1 label
|
| 44 |
+
<!-- - **Training Dataset:** Unknown -->
|
| 45 |
+
<!-- - **Language:** Unknown -->
|
| 46 |
+
<!-- - **License:** Unknown -->
|
| 47 |
+
|
| 48 |
+
### Model Sources
|
| 49 |
+
|
| 50 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
| 51 |
+
- **Documentation:** [Cross Encoder Documentation](https://www.sbert.net/docs/cross_encoder/usage/usage.html)
|
| 52 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
| 53 |
+
- **Hugging Face:** [Cross Encoders on Hugging Face](https://huggingface.co/models?library=sentence-transformers&other=cross-encoder)
|
| 54 |
+
|
| 55 |
+
## Usage
|
| 56 |
+
|
| 57 |
+
### Direct Usage (Sentence Transformers)
|
| 58 |
+
|
| 59 |
+
First install the Sentence Transformers library:
|
| 60 |
+
|
| 61 |
+
```bash
|
| 62 |
+
pip install -U sentence-transformers
|
| 63 |
+
```
|
| 64 |
+
|
| 65 |
+
Then you can load this model and run inference.
|
| 66 |
+
```python
|
| 67 |
+
from sentence_transformers import CrossEncoder
|
| 68 |
+
|
| 69 |
+
# Download from the 🤗 Hub
|
| 70 |
+
model = CrossEncoder("cross_encoder_model_id")
|
| 71 |
+
# Get scores for pairs of texts
|
| 72 |
+
pairs = [
|
| 73 |
+
['김태현이 반박한 사람의 이름은?', '휴일근로를 연장근로에 포함하고 주당 최장 근로시간을 현행 68시간(법정근로 40+연장근로 12+휴일근로 16)에서 52시간(법정근로 40+연장근로 12)으로 단축하는 내용의 ‘근로기준법 개정안 초안’이 나왔다. 국회 환경노동위원회 노사정소위는 9일 공청회를 열고 열띤 공방을 벌였다. 이철수 서울대 법학전문대학원 교수(소위 지원단 위원)는 발제에서 “근로시간의 기준이 되는 1주의 단위는 7일이고, 40+12 제도를 유지함으로써 주 40시간제 원칙을 재확인하는 내용”이라고 설명했다. 1안과 2안으로 구분한 초안의 핵심 내용은 휴일근로를 연장근로에 포함하는 것이다. 다만 1안은 연장근로의 제한에 대한 예외 규정을 두고 있다. 법정 근로시간 외에 1주당 8시간을 추가로 일할 수 있도록 ‘특별근로시간’ 조항을 뒀다. 2안은 연장·휴일·야간 가산임금 중복할증을 법에 명시해야 한다고 권고했다. 이와 함께 근로시간을 위반한 사업주에 대해서는 위법 사항을 면제해주는 이른바 ‘면벌 조항’을 뒀다. 토론에서는 근로시간 단축이라는 큰 틀에는 대체로 공감했지만, 구체적인 방안을 놓고 노·사·정 간 입장이 극명하게 갈렸다. 이완영 새누리당 의원은 “노동계에서는 근로시간이 단축되더라고 임금은 보전해야 한다고 주장하는데 대안이 있는지 궁금하다”고 말했다. 이에 대해 김태현 민주노총 정책연구원장은 “근로시간이 조금씩 줄어드는 동안 임금이 보전된 것은 경영자가 아닌 근로자들의 생산성 향상이 있었기 때문”이라고 반박했다.은수미 새정치민주연합 의원은 “근로시간 단축을 2년간 유예하고 6년간 단계적으로 정착시키겠다는 정부안은 한국 노동사의 사변이 될 것”이라고 주장했다. 강동한 중소기업중앙회 노동인력분과위원장은 “인력난에 시달리는 중소기업들을 죽이려면 이 법을 통과시키라”고 말했다.'],
|
| 74 |
+
['보살상의 최상단에는 무엇이 그려져있는가?', '특히 변계량은 조선시대 대제학을 20년 지낸 당대 최고의 학문 권위자다. 권력이나 이권하고는 무관한 학문을 다루는 최고 직책 대제학은 명예를 중요시하는 사대부들의 선망의 대상으로 “정승 10명이 대제학 한 명만 못하다”라는 말을 남겼다. 대제학은 ‘학문을 저울질하여 올바르게 평가한다’고 했으며 학문과 관련되는 모든 관직을 거친 대과 급제자만 오를 수 있었다. 품계는 정2품으로 판서와 동급이지만 정승이나 판서보다 높게 대우 받았다. 대제학은 오늘날 관직상으로 교육부 장관에 해당되나, 공적으로 철저히 검증된 대과급제자에 한해서 정치적 경륜을 갖추고 학문적으로는 당대에 최고의 성리학자로 공인된 인물만이 임명될 수 있다는 점에서 최고의 명예로운 관직이었다. 관직상으로는 일인지하만인지상(一人之下萬人之上)의 영의정, 좌의정, 우의정을 지낸 인물 가운데에서도 대제학을 지낸 인물이 소수라는 것은 정치적 또는 관료적 성격이 우선이 아니라 성리학의 학문성을 우선했다는 것이다. 따라서 대제학과 우의정, 좌의정, 영의정을 지낸 인물의 가문은 명문 가문 중에 명문 가문으로 존중했다.\n\n변계량의 학문은 명나라와 사대외교 하는데, 유교사회를 건설하고 조선의 이념을 전파하는데 쓰였다. 세종은 집현전 학사 중에서 “앞으로는 본전(사무실)에 출근하지 말고 오로지 집에서 글을 읽어라”고 명한다. 한 가지 조건은, 세 사람이 글을 읽는 규범은 변계량의 지도를 받아야 한다는 것이었다.'],
|
| 75 |
+
['윤 모씨의 성 접대 의혹과 연루된 사건이 발생한 지역은?', '잘나가던 프라다의 기세가 한풀 꺾였다. 프라다는 지난 2~4월까지 2014년도 1분기 순익이 지난해 같은 기간보다 24% 급감한 1억530만유로(약 1474억원)에 그쳤다고 5일(현지시간) 발표했다.매출도 0.6% 줄어든 10억6000만달러(약 1조8000억원)에 그쳤다. 2010년 이후 분기 매출이 처음 줄어든 가장 큰 이유는 지난해 29%나 증가했던 가죽제품 판매가 1분기에 3% 줄어든 탓이다. 프라다는 가죽제품 분야에서 명품업체 간 경쟁이 심화되면서 판매량이 줄어들었다고 설명했다. 루이비통 등이 브랜드 로고가 크게 새겨진 캔버스백 제품에 집중했다가 어려움을 겪는 사이 프라다는 로고를 작게 쓴 가죽가방을 판매해 성장했지만 최근 들어 시장 상황이 달라진 것. 루카 솔카 BNP파리바 명품담당 애널리스트는 “프라다 브랜드는 더 이상 명품 시장의 중심이 아니다”며 “가격을 올려 고급 제품으로 보이는 것 외에 새로운 매력을 소비자에게 보여줘야 위기를 타개할 수 있을 것”이라고 지적했다. 도매 부문 판매 감소와 유로화 강세 등 환율 변동성이 심해진 것도 매출에 영향을 미쳤다. 프라다는 가격 통제가 쉽고 브랜드 이미지 유지에도 도움이 된다고 판단해 도매보다는 자체 소매점을 통한 판매 전략을 펴고 있다. 하지만 올 들어 도매 판매가 25% 줄어드는 동안 소매 부문은 3% 증가하는 데 그쳤다. 아시아 시장에서의 부진도 한 이유다. 월스트리트저널은 “중국이 부패척결에 나서면서 사치품 소비에 대한 단속이 심해진 것도 판매에 부정적인 영향을 줬다”고 설명했다.'],
|
| 76 |
+
['뉴타입은 1998년 6월 며칠에 처음으로 발행되었는가?', '다음달엔 평년에 비해 때 이른 무더위가 기승을 부릴 전망이다. 8월에는 대기불안정과 저기압의 영향으로 많은 비가 내리겠다.기상청은 22일 ‘3개월 날씨 전망’에서 다음달엔 이동성 고기압과 상층 한기의 영향으로 기온 변화가 크겠고 기온은 대체로 평년보다 높을 것이라고 예보했다. 저기압의 영향으로 남부지방을 중심으로 다소 많은 비가 올 때가 있겠다.7월은 남쪽을 지나는 저기압의 영향을 주기적으로 받아 흐린 날이 많겠고 남부지방을 중심으로 많은 비가 내릴 전망이다. 장마가 끝나고 본격적인 무더위가 찾아오는 8월에는 평년에 비해 ‘덜 덥고 비가 많이 내리는’ 날씨가 이어지겠다. 기상청은 상층의 찬 공기가 하층의 뜨거운 공기와 만나 발생하는 대기불안정 및 발달한 저기압의 영향으로 많은 비가 올 때가 있겠다고 내다봤다. 평균 기온은 최근 30년래 평년(25.1도)보다 비슷하거나 낮겠고, 강우량은 평년(274.9㎜)과 비슷하거나 많겠다.올여름에는 평년보다 강한 태풍이 많이 발생할 것으로 전망된다. 기상청은 엘니뇨와 적도서풍의 강화에 따라 태풍이 평년에 비해 남동쪽에서 발생하겠으며, 태풍의 활동기간이 길어질 것으로 관측했다.이번 주말에 이어 석가탄신일인 25일에도 전국에 평년에 비해 무더운 날씨가 이어지겠다. 기상청은 26일 서울의 낮 최고기온이 30도까지 치솟아 올 들어 가장 높은 기온을 기록할 것으로 내다봤다.'],
|
| 77 |
+
['현대자동차의 전장부품 공급사가 전기차 시제품을 선보인 해는?', '최근 한 달간 주요국 통화 대비 원화의 변동폭이 가장 컸던 것으로 나타났다. 그리스 위기에 이어 중국�� 기습적인 위안화 절하 등 대외 불안 요인이 증폭된 가운데 외국인의 투자자금 이탈이 원화 가치 변동을 부채질한 것이란 분석이다.14일 한국은행 경제통계시스템(ECOS)의 미국 달러화 대비 주요국 통화 환율 변화 추이 자료에 따르면 지난 7월 초 이후 이달 13일 사이에 달러화 대비 원화 변동폭은 6.8%에 달했다. 이는 태국 바트(4.3%), 싱가포르달러(3.9%), 인도네시아 루피아(3.4%), 중국 위안(3.0%), 인도 루피(1.8%) 등 다른 아시아권 신흥국 통화보다 더 큰 변동폭이다. 특히 중국의 위안화 절하 발표 직후 원화는 극심한 변동성을 보였다. 손정선 외환은행 연구원은 “한국 주식시장에 투자한 외국인들의 자금이탈이 원화에 변동폭을 키운 주 요인”이라며 “원·달러 환율의 추가 상승 가능성이 외국인 투자자의 환차손을 더욱 확대할 수 있다는 우려가 국내 증시에서 자금 유출 요인이 된 점은 향후 원화 가치 하락을 가속시킬 수 있다”고 말했다.위안화 절하 사태 이후 원화 가치의 변동성이 한층 커지면서 외환당국은 광복절 연휴 기간에도 24시간 점검체제를 유지하고 있다. 한은은 연휴 다음날인 17일 오전 대책반 회의를 다시 연다.'],
|
| 78 |
+
]
|
| 79 |
+
scores = model.predict(pairs)
|
| 80 |
+
print(scores.shape)
|
| 81 |
+
# (5,)
|
| 82 |
+
|
| 83 |
+
# Or rank different texts based on similarity to a single text
|
| 84 |
+
ranks = model.rank(
|
| 85 |
+
'김태현이 반박한 사람의 이름은?',
|
| 86 |
+
[
|
| 87 |
+
'휴일근로를 연장근로에 포함하고 주당 최장 근로시간을 현행 68시간(법정근로 40+연장근로 12+휴일근로 16)에서 52시간(법정근로 40+연장근로 12)으로 단축하는 내용의 ‘근로기준법 개정안 초안’이 나왔다. 국회 환경노동위원회 노사정소위는 9일 공청회를 열고 열띤 공방을 벌였다. 이철수 서울대 법학전문대학원 교수(소위 지원단 위원)는 발제에서 “근로시간의 기준이 되는 1주의 단위는 7일이고, 40+12 제도를 유지함으로써 주 40시간제 원칙을 재확인하는 내용”이라고 설명했다. 1안과 2안으로 구분한 초안의 핵심 내용은 휴일근로를 연장근로에 포함하는 것이다. 다만 1안은 연장근로의 제한에 대한 예외 규정을 두고 있다. 법정 근로시간 외에 1주당 8시간을 추가로 일할 수 있도록 ‘특별근로시간’ 조항을 뒀다. 2안은 연장·휴일·야간 가산임금 중복할증을 법에 명시해야 한다고 권고했다. 이와 함께 근로시간을 위반한 사업주에 대해서는 위법 사항을 면제해주는 이른바 ‘면벌 조항’을 뒀다. 토론에서는 근로시간 단축이라는 큰 틀에는 대체로 공감했지만, 구체적인 방안을 놓고 노·사·정 간 입장이 극명하게 갈렸다. 이완영 새누리당 의원은 “노동계에서는 근로시간이 단축되더라고 임금은 보전해야 한다고 주장하는데 대안이 있는지 궁금하다”고 말했다. 이에 대해 김태현 민주노총 정책연구원장은 “근로시간이 조금씩 줄어드는 동안 임금이 보전된 것은 경영자가 아닌 근로자들의 생산성 향상이 있었기 때문”이라고 반박했다.은수미 새정치민주연합 의원은 “근로시간 단축을 2년간 유예하고 6년간 단계적으로 정착시키겠다는 정부안은 한국 노동사의 사변이 될 것”이라고 주장했다. 강동한 중소기업중앙회 노동인력분과위원장은 “인력난에 시달리는 중소기업들을 죽이려면 이 법을 통과시키라”고 말했다.',
|
| 88 |
+
'특히 변계량은 조선시대 대제학을 20년 지낸 당대 최고의 학문 권위자다. 권력이나 이권하고는 무관한 학문을 다루는 최고 직책 대제학은 명예를 중요시하는 사대부들의 선망의 대상으로 “정승 10명이 대제학 한 명만 못하다”라는 말을 남겼다. 대제학은 ‘학문을 저울질하여 올바르게 평가한다’고 했으며 학문과 관련되는 모든 관직을 거친 대과 급제자만 오를 수 있었다. 품계는 정2품으로 판서와 동급이지만 정승이나 판서보다 높게 대우 받았다. 대제학은 오늘날 관직상으로 교육부 장관에 해당되나, 공적으로 철저히 검증된 대과급제자에 한해서 정치적 경륜을 갖추고 학문적으로는 당대에 최고의 성리학자로 공인된 인물만이 임명될 수 있다는 점에서 최고의 명예로운 관직이었다. 관직상으로는 일인지하만인지상(一人之下萬人之上)의 영의정, 좌의정, 우의정을 지낸 인물 가운데에서도 대제학을 지낸 인물이 소수라는 것은 정치적 또는 관료적 성격이 우선이 아니라 성리학의 학문성을 우선했다는 것이다. 따라서 대제학과 우의정, 좌의정, 영의정을 지낸 인물의 가문은 명문 가문 중에 명문 가문으로 존중했다.\n\n변계량의 학문은 명나라와 사대외교 하는데, 유교사회를 건설하고 조선의 이념을 전파하는데 쓰였다. 세종은 집현전 학사 중에서 “앞으로는 본전(사무실)에 출근하지 말고 오로지 집에서 글을 읽어라”고 명한다. 한 가지 조건은, 세 사람이 글을 읽는 규범은 변계량의 지도를 받아야 한다는 것이었다.',
|
| 89 |
+
'잘나가던 프라다의 기세가 한풀 꺾였다. 프라다는 지난 2~4월까지 2014년도 1분기 순익이 지난해 같은 기간보다 24% 급감한 1억530만유로(약 1474억원)에 그쳤다고 5일(현지시간) 발표했다.매출도 0.6% 줄어든 10억6000만달러(약 1조8000억원)에 그쳤다. 2010년 이후 분기 매출이 처음 줄어든 가장 큰 이유는 지난해 29%나 증가했던 가죽제품 판매가 1분기에 3% 줄어든 탓이다. 프라다는 가죽제품 분야에서 명품업체 간 경쟁이 심화되면서 판매량이 줄어들었다고 설명했다. 루이비통 등이 브랜드 로고가 크게 새겨진 캔버스백 제품에 집중했다가 어려움을 겪는 사이 프라다는 로고를 작게 쓴 가죽가방을 판매해 성장했지만 최근 들어 시장 상황이 달라진 것. 루카 솔카 BNP파리바 명품담당 애널리스트는 “프라다 브랜드는 더 이상 명품 시장의 중심이 아니다”며 “가격을 올려 고급 제품으로 보이는 것 외에 새로운 매력을 소비자에게 보여줘야 위기를 타개할 수 있을 것”이라고 지적했다. 도매 부문 판매 감소와 유로화 강세 등 환율 변동성이 심해진 것도 매출에 영향을 미쳤다. 프라다는 가격 통제가 쉽고 브랜드 이미지 유지에도 도움이 된다고 판단해 도매보다는 자체 소매점을 통한 판매 전략을 펴고 있다. 하지만 올 들어 도매 판매가 25% 줄어드는 동안 소매 부문은 3% 증가하는 데 그쳤다. 아시아 시장에서의 부진도 한 이유다. 월스트리트저널은 “중국이 부패척결에 나서면서 사치품 소비에 대한 단속이 심해진 것도 판매에 부정적인 영향을 줬다”고 설명했다.',
|
| 90 |
+
'다음달엔 평년에 비해 때 이른 무더위가 기승을 부릴 전망이다. 8월에는 대기불안정과 저기압의 영향으로 많은 비가 내리겠다.기상청은 22일 ‘3개월 날씨 전망’에서 다음달엔 이동성 고기압과 상층 한기의 영향으로 기온 변화가 크겠고 기온은 대체로 평년보다 높을 것이라고 예보했다. 저기압의 영향으로 남부지방을 중심으로 다소 많은 비가 올 때가 있겠다.7월은 남쪽을 지나는 저기압의 영향을 주기적으로 받아 흐린 날이 많겠고 남부지방을 중심으로 많은 비가 내릴 전망이다. 장마가 끝나고 본격적인 무더위가 찾아오는 8월에는 평년에 비해 ‘덜 덥고 비가 많이 내리는’ 날씨가 이어지겠다. 기상청은 상층의 찬 공기가 하층의 뜨거운 공기와 만나 발생하는 대기불안정 및 발달한 저기압의 영향으로 많은 비가 올 때가 있겠다고 내다봤다. 평균 기온은 최근 30년래 평년(25.1도)보다 비슷하거나 낮겠고, 강우량은 평년(274.9㎜)과 비슷하거나 많겠다.올여름에는 평년보다 강한 태풍이 많이 발생할 것으로 전망된다. 기상청은 엘니뇨와 적도서풍의 강화에 따라 태풍이 평년에 비해 남동쪽에서 발생하겠으며, 태풍의 활동기간이 길어질 것으로 관측했다.이번 주말에 이어 석가탄신일인 25일에도 전국에 평년에 비해 무더운 날씨가 이어지겠다. 기상청은 26일 서울의 낮 최고기온이 30도까지 치솟아 올 들어 가장 높은 기온을 기록할 것으로 내다봤다.',
|
| 91 |
+
'최근 한 달간 주요국 통화 대비 원화의 변동폭이 가장 컸던 것으로 나타났다. 그리스 위기에 이어 중국의 기습적인 위안화 절하 등 대외 불안 요인이 증폭된 가운데 외국인의 투자자금 이탈이 원화 가치 변동을 부채질한 것이란 분석이다.14일 한국은행 경제통계시스템(ECOS)의 미국 달러화 대비 주요국 통화 환율 변화 추이 자료에 따르면 지난 7월 초 이후 이달 13일 사이에 달러화 대비 원화 변동폭은 6.8%에 달했다. 이는 태국 바트(4.3%), 싱가포르달러(3.9%), 인도네시아 루피아(3.4%), 중국 위안(3.0%), 인도 루피(1.8%) 등 다른 아시아권 신흥국 통화보다 더 큰 변동폭이다. 특히 중국의 위안화 절하 발표 직후 원화는 극심한 변동성을 보였다. 손정선 외환은행 연구원은 “한국 주식시장에 투자한 외국인들의 자금이탈이 원화에 변동폭을 키운 주 요인”이라며 “원·달러 환율의 추가 상승 가능성이 외국인 투자자의 환차손을 더욱 확대할 수 있다는 우려가 국내 증시에서 자금 유출 요인이 된 점은 향후 원화 가치 하락을 가속시킬 ��� 있다”고 말했다.위안화 절하 사태 이후 원화 가치의 변동성이 한층 커지면서 외환당국은 광복절 연휴 기간에도 24시간 점검체제를 유지하고 있다. 한은은 연휴 다음날인 17일 오전 대책반 회의를 다시 연다.',
|
| 92 |
+
]
|
| 93 |
+
)
|
| 94 |
+
# [{'corpus_id': ..., 'score': ...}, {'corpus_id': ..., 'score': ...}, ...]
|
| 95 |
+
```
|
| 96 |
+
|
| 97 |
+
<!--
|
| 98 |
+
### Direct Usage (Transformers)
|
| 99 |
+
|
| 100 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
| 101 |
+
|
| 102 |
+
</details>
|
| 103 |
+
-->
|
| 104 |
+
|
| 105 |
+
<!--
|
| 106 |
+
### Downstream Usage (Sentence Transformers)
|
| 107 |
+
|
| 108 |
+
You can finetune this model on your own dataset.
|
| 109 |
+
|
| 110 |
+
<details><summary>Click to expand</summary>
|
| 111 |
+
|
| 112 |
+
</details>
|
| 113 |
+
-->
|
| 114 |
+
|
| 115 |
+
<!--
|
| 116 |
+
### Out-of-Scope Use
|
| 117 |
+
|
| 118 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
| 119 |
+
-->
|
| 120 |
+
|
| 121 |
+
## Evaluation
|
| 122 |
+
|
| 123 |
+
### Metrics
|
| 124 |
+
|
| 125 |
+
#### Cross Encoder Correlation
|
| 126 |
+
|
| 127 |
+
* Evaluated with [<code>CECorrelationEvaluator</code>](https://sbert.net/docs/package_reference/cross_encoder/evaluation.html#sentence_transformers.cross_encoder.evaluation.CECorrelationEvaluator)
|
| 128 |
+
|
| 129 |
+
| Metric | Value |
|
| 130 |
+
|:-------------|:-----------|
|
| 131 |
+
| pearson | 0.9722 |
|
| 132 |
+
| **spearman** | **0.8654** |
|
| 133 |
+
|
| 134 |
+
<!--
|
| 135 |
+
## Bias, Risks and Limitations
|
| 136 |
+
|
| 137 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
| 138 |
+
-->
|
| 139 |
+
|
| 140 |
+
<!--
|
| 141 |
+
### Recommendations
|
| 142 |
+
|
| 143 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
| 144 |
+
-->
|
| 145 |
+
|
| 146 |
+
## Training Details
|
| 147 |
+
|
| 148 |
+
### Training Dataset
|
| 149 |
+
|
| 150 |
+
#### Unnamed Dataset
|
| 151 |
+
|
| 152 |
+
* Size: 35,108 training samples
|
| 153 |
+
* Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>label</code>
|
| 154 |
+
* Approximate statistics based on the first 1000 samples:
|
| 155 |
+
| | sentence_0 | sentence_1 | label |
|
| 156 |
+
|:--------|:-----------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------|:------------------------------------------------|
|
| 157 |
+
| type | string | string | int |
|
| 158 |
+
| details | <ul><li>min: 12 characters</li><li>mean: 28.66 characters</li><li>max: 64 characters</li></ul> | <ul><li>min: 505 characters</li><li>mean: 1001.86 characters</li><li>max: 2034 characters</li></ul> | <ul><li>0: ~49.70%</li><li>1: ~50.30%</li></ul> |
|
| 159 |
+
* Samples:
|
| 160 |
+
| sentence_0 | sentence_1 | label |
|
| 161 |
+
|:---------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------|
|
| 162 |
+
| <code>김태현이 반박한 사람의 이름은?</code> | <code>휴일근로를 연장근로에 포함하고 주당 최장 근로시간을 현행 68시간(법정근로 40+연장근로 12+휴일근로 16)에서 52시간(법정근로 40+연장근로 12)으로 단축하는 내용의 ‘근로기준법 개정�� 초안’이 나왔다. 국회 환경노동위원회 노사정소위는 9일 공청회를 열고 열띤 공방을 벌였다. 이철수 서울대 법학전문대학원 교수(소위 지원단 위원)는 발제에서 “근로시간의 기준이 되는 1주의 단위는 7일이고, 40+12 제도를 유지함으로써 주 40시간제 원칙을 재확인하는 내용”이라고 설명했다. 1안과 2안으로 구분한 초안의 핵심 내용은 휴일근로를 연장근로에 포함하는 것이다. 다만 1안은 연장근로의 제한에 대한 예외 규정을 두고 있다. 법정 근로시간 외에 1주당 8시간을 추가로 일할 수 있도록 ‘특별근로시간’ 조항을 뒀다. 2안은 연장·휴일·야간 가산임금 중복할증을 법에 명시해야 한다고 권고했다. 이와 함께 근로시간을 위반한 사업주에 대해서는 위법 사항을 면제해주는 이른바 ‘면벌 조항’을 뒀다. 토론에서는 근로시간 단축이라는 큰 틀에는 대체로 공감했지만, 구체적인 방안을 놓고 노·사·정 간 입장이 극명하게 갈렸다. 이완영 새누리당 의원은 “노동계에서는 근로시간이 단축되더라고 임금은 보전해야 한다고 주장하는데 대안이 있는지 궁금하다”고 말했다. 이에 대해 김태현 민주노총 정책연구원장은 “근로시간이 조금씩 줄어드는 동안 임금이 보전된 것은 경영자가 아닌 근로자들의 생산성 향상이 있었기 때문”이라고 반박했다.은수미 새정치민주연합 의원은 “근로시간 단축을 2년간 유예하고 6년간 단계적으로 정착시키겠다는 정부안은 한국 노동사의 사변이 될 것”이라고 주장했다. 강동한 중소기업중앙회 노동인력분과위원장은 “인력난에 시달리는 중소기업들을 죽이려면 이 법을 통과시키라”고 말했다.</code> | <code>1</code> |
|
| 163 |
+
| <code>보살상의 최상단에는 무엇이 그려져있는가?</code> | <code>특히 변계량은 조선시대 대제학을 20년 지낸 당대 최고의 학문 권위자다. 권력이나 이권하고는 무관한 학문을 다루는 최고 직책 대제학은 명예를 중요시하는 사대부들의 선망의 대상으로 “정승 10명이 대제학 한 명만 못하다”라는 말을 남겼다. 대제학은 ‘학문을 저울질하여 올바르게 평가한다’고 했으며 학문과 관련되는 모든 관직을 거친 대과 급제자만 오를 수 있었다. 품계는 정2품으로 판서와 동급이지만 정승이나 판서보다 높게 대우 받았다. 대제학은 오늘날 관직상으로 교육부 장관에 해당되나, 공적으로 철저히 검증된 대과급제자에 한해서 정치적 경륜을 갖추고 학문적으로는 당대에 최고의 성리학자로 공인된 인물만이 임명될 수 있다는 점에서 최고의 명예로운 관직이었다. 관직상으로는 일인지하만인지상(一人之下萬人之上)의 영의정, 좌의정, 우의정을 지낸 인물 가운데에서도 대제학을 지낸 인물이 소수라는 것은 정치적 또는 관료적 성격이 우선이 아니라 성리학의 학문성을 우선했다는 것이다. 따라서 대제학과 우의정, 좌의정, 영의정을 지낸 인물의 가문은 명문 가문 중에 명문 가문으로 존중했다.<br><br>변계량의 학문은 명나라와 사대외교 하는데, 유교사회를 건설하고 조선의 이념을 전파하는데 쓰였다. 세종은 집현전 학사 중에서 “앞으로는 본전(사무실)에 출근하지 말고 오로지 집에서 글을 읽어라”고 명한다. 한 가지 조건은, 세 사람이 글을 읽는 규범은 변계량의 지도를 받아야 한다는 것이었다.</code> | <code>0</code> |
|
| 164 |
+
| <code>윤 모씨의 성 접대 의혹과 연루된 사건이 발생한 지역은?</code> | <code>잘나가던 프라다의 기세가 한풀 꺾였다. 프라다는 지난 2~4월까지 2014년도 1분기 순익이 지난해 같은 기간보다 24% 급감한 1억530만유로(약 1474억원)에 그쳤다고 5일(현지시간) 발표했다.매출도 0.6% 줄어든 10억6000만달러(약 1조8000억원)에 그쳤다. 2010년 이후 분기 매출이 처음 줄어든 가장 큰 이유는 지난해 29%나 증가했던 가죽제품 판매가 1분기에 3% 줄어든 탓이다. 프라다는 가죽제품 분야에서 명품업체 간 경쟁이 심화되면서 판매량이 줄어들었다고 설명했다. 루이비통 등이 브랜드 로고가 크게 새겨진 캔버스백 제품에 집중했다가 어려움을 겪는 사이 프라다는 로고를 작게 쓴 가죽가방을 판매해 성장했지만 최근 들어 시장 상황이 달라진 것. 루카 솔카 BNP파리바 명품담당 애널리스트는 “프라다 브랜드는 더 이상 명품 시장의 중심이 아니다”며 “가격을 올려 고급 제품��로 보이는 것 외에 새로운 매력을 소비자에게 보여줘야 위기를 타개할 수 있을 것”이라고 지적했다. 도매 부문 판매 감소와 유로화 강세 등 환율 변동성이 심해진 것도 매출에 영향을 미쳤다. 프라다는 가격 통제가 쉽고 브랜드 이미지 유지에도 도움이 된다고 판단해 도매보다는 자체 소매점을 통한 판매 전략을 펴고 있다. 하지만 올 들어 도매 판매가 25% 줄어드는 동안 소매 부문은 3% 증가하는 데 그쳤다. 아시아 시장에서의 부진도 한 이유다. 월스트리트저널은 “중국이 부패척결에 나서면서 사치품 소비에 대한 단속이 심해진 것도 판매에 부정적인 영향을 줬다”고 설명했다.</code> | <code>0</code> |
|
| 165 |
+
* Loss: [<code>BinaryCrossEntropyLoss</code>](https://sbert.net/docs/package_reference/cross_encoder/losses.html#binarycrossentropyloss) with these parameters:
|
| 166 |
+
```json
|
| 167 |
+
{
|
| 168 |
+
"activation_fn": "torch.nn.modules.linear.Identity",
|
| 169 |
+
"pos_weight": null
|
| 170 |
+
}
|
| 171 |
+
```
|
| 172 |
+
|
| 173 |
+
### Training Hyperparameters
|
| 174 |
+
#### Non-Default Hyperparameters
|
| 175 |
+
|
| 176 |
+
- `per_device_train_batch_size`: 16
|
| 177 |
+
- `per_device_eval_batch_size`: 16
|
| 178 |
+
- `num_train_epochs`: 1
|
| 179 |
+
|
| 180 |
+
#### All Hyperparameters
|
| 181 |
+
<details><summary>Click to expand</summary>
|
| 182 |
+
|
| 183 |
+
- `overwrite_output_dir`: False
|
| 184 |
+
- `do_predict`: False
|
| 185 |
+
- `eval_strategy`: no
|
| 186 |
+
- `prediction_loss_only`: True
|
| 187 |
+
- `per_device_train_batch_size`: 16
|
| 188 |
+
- `per_device_eval_batch_size`: 16
|
| 189 |
+
- `per_gpu_train_batch_size`: None
|
| 190 |
+
- `per_gpu_eval_batch_size`: None
|
| 191 |
+
- `gradient_accumulation_steps`: 1
|
| 192 |
+
- `eval_accumulation_steps`: None
|
| 193 |
+
- `torch_empty_cache_steps`: None
|
| 194 |
+
- `learning_rate`: 5e-05
|
| 195 |
+
- `weight_decay`: 0.0
|
| 196 |
+
- `adam_beta1`: 0.9
|
| 197 |
+
- `adam_beta2`: 0.999
|
| 198 |
+
- `adam_epsilon`: 1e-08
|
| 199 |
+
- `max_grad_norm`: 1
|
| 200 |
+
- `num_train_epochs`: 1
|
| 201 |
+
- `max_steps`: -1
|
| 202 |
+
- `lr_scheduler_type`: linear
|
| 203 |
+
- `lr_scheduler_kwargs`: {}
|
| 204 |
+
- `warmup_ratio`: 0.0
|
| 205 |
+
- `warmup_steps`: 0
|
| 206 |
+
- `log_level`: passive
|
| 207 |
+
- `log_level_replica`: warning
|
| 208 |
+
- `log_on_each_node`: True
|
| 209 |
+
- `logging_nan_inf_filter`: True
|
| 210 |
+
- `save_safetensors`: True
|
| 211 |
+
- `save_on_each_node`: False
|
| 212 |
+
- `save_only_model`: False
|
| 213 |
+
- `restore_callback_states_from_checkpoint`: False
|
| 214 |
+
- `no_cuda`: False
|
| 215 |
+
- `use_cpu`: False
|
| 216 |
+
- `use_mps_device`: False
|
| 217 |
+
- `seed`: 42
|
| 218 |
+
- `data_seed`: None
|
| 219 |
+
- `jit_mode_eval`: False
|
| 220 |
+
- `bf16`: False
|
| 221 |
+
- `fp16`: False
|
| 222 |
+
- `fp16_opt_level`: O1
|
| 223 |
+
- `half_precision_backend`: auto
|
| 224 |
+
- `bf16_full_eval`: False
|
| 225 |
+
- `fp16_full_eval`: False
|
| 226 |
+
- `tf32`: None
|
| 227 |
+
- `local_rank`: 0
|
| 228 |
+
- `ddp_backend`: None
|
| 229 |
+
- `tpu_num_cores`: None
|
| 230 |
+
- `tpu_metrics_debug`: False
|
| 231 |
+
- `debug`: []
|
| 232 |
+
- `dataloader_drop_last`: False
|
| 233 |
+
- `dataloader_num_workers`: 0
|
| 234 |
+
- `dataloader_prefetch_factor`: None
|
| 235 |
+
- `past_index`: -1
|
| 236 |
+
- `disable_tqdm`: False
|
| 237 |
+
- `remove_unused_columns`: True
|
| 238 |
+
- `label_names`: None
|
| 239 |
+
- `load_best_model_at_end`: False
|
| 240 |
+
- `ignore_data_skip`: False
|
| 241 |
+
- `fsdp`: []
|
| 242 |
+
- `fsdp_min_num_params`: 0
|
| 243 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
| 244 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
| 245 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
| 246 |
+
- `parallelism_config`: None
|
| 247 |
+
- `deepspeed`: None
|
| 248 |
+
- `label_smoothing_factor`: 0.0
|
| 249 |
+
- `optim`: adamw_torch_fused
|
| 250 |
+
- `optim_args`: None
|
| 251 |
+
- `adafactor`: False
|
| 252 |
+
- `group_by_length`: False
|
| 253 |
+
- `length_column_name`: length
|
| 254 |
+
- `project`: huggingface
|
| 255 |
+
- `trackio_space_id`: trackio
|
| 256 |
+
- `ddp_find_unused_parameters`: None
|
| 257 |
+
- `ddp_bucket_cap_mb`: None
|
| 258 |
+
- `ddp_broadcast_buffers`: False
|
| 259 |
+
- `dataloader_pin_memory`: True
|
| 260 |
+
- `dataloader_persistent_workers`: False
|
| 261 |
+
- `skip_memory_metrics`: True
|
| 262 |
+
- `use_legacy_prediction_loop`: False
|
| 263 |
+
- `push_to_hub`: False
|
| 264 |
+
- `resume_from_checkpoint`: None
|
| 265 |
+
- `hub_model_id`: None
|
| 266 |
+
- `hub_strategy`: every_save
|
| 267 |
+
- `hub_private_repo`: None
|
| 268 |
+
- `hub_always_push`: False
|
| 269 |
+
- `hub_revision`: None
|
| 270 |
+
- `gradient_checkpointing`: False
|
| 271 |
+
- `gradient_checkpointing_kwargs`: None
|
| 272 |
+
- `include_inputs_for_metrics`: False
|
| 273 |
+
- `include_for_metrics`: []
|
| 274 |
+
- `eval_do_concat_batches`: True
|
| 275 |
+
- `fp16_backend`: auto
|
| 276 |
+
- `push_to_hub_model_id`: None
|
| 277 |
+
- `push_to_hub_organization`: None
|
| 278 |
+
- `mp_parameters`:
|
| 279 |
+
- `auto_find_batch_size`: False
|
| 280 |
+
- `full_determinism`: False
|
| 281 |
+
- `torchdynamo`: None
|
| 282 |
+
- `ray_scope`: last
|
| 283 |
+
- `ddp_timeout`: 1800
|
| 284 |
+
- `torch_compile`: False
|
| 285 |
+
- `torch_compile_backend`: None
|
| 286 |
+
- `torch_compile_mode`: None
|
| 287 |
+
- `include_tokens_per_second`: False
|
| 288 |
+
- `include_num_input_tokens_seen`: no
|
| 289 |
+
- `neftune_noise_alpha`: None
|
| 290 |
+
- `optim_target_modules`: None
|
| 291 |
+
- `batch_eval_metrics`: False
|
| 292 |
+
- `eval_on_start`: False
|
| 293 |
+
- `use_liger_kernel`: False
|
| 294 |
+
- `liger_kernel_config`: None
|
| 295 |
+
- `eval_use_gather_object`: False
|
| 296 |
+
- `average_tokens_across_devices`: True
|
| 297 |
+
- `prompts`: None
|
| 298 |
+
- `batch_sampler`: batch_sampler
|
| 299 |
+
- `multi_dataset_batch_sampler`: proportional
|
| 300 |
+
- `router_mapping`: {}
|
| 301 |
+
- `learning_rate_mapping`: {}
|
| 302 |
+
|
| 303 |
+
</details>
|
| 304 |
+
|
| 305 |
+
### Training Logs
|
| 306 |
+
| Epoch | Step | Training Loss | spearman |
|
| 307 |
+
|:------:|:----:|:-------------:|:--------:|
|
| 308 |
+
| -1 | -1 | - | 0.0902 |
|
| 309 |
+
| 0.2278 | 500 | 0.2132 | - |
|
| 310 |
+
| 0.4556 | 1000 | 0.0743 | - |
|
| 311 |
+
| 0.6834 | 1500 | 0.0618 | - |
|
| 312 |
+
| 0.9112 | 2000 | 0.0586 | - |
|
| 313 |
+
| -1 | -1 | - | 0.8654 |
|
| 314 |
+
|
| 315 |
+
|
| 316 |
+
### Framework Versions
|
| 317 |
+
- Python: 3.12.12
|
| 318 |
+
- Sentence Transformers: 5.1.1
|
| 319 |
+
- Transformers: 4.57.0
|
| 320 |
+
- PyTorch: 2.8.0+cu126
|
| 321 |
+
- Accelerate: 1.10.1
|
| 322 |
+
- Datasets: 4.0.0
|
| 323 |
+
- Tokenizers: 0.22.1
|
| 324 |
+
|
| 325 |
+
## Citation
|
| 326 |
+
|
| 327 |
+
### BibTeX
|
| 328 |
+
|
| 329 |
+
#### Sentence Transformers
|
| 330 |
+
```bibtex
|
| 331 |
+
@inproceedings{reimers-2019-sentence-bert,
|
| 332 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
| 333 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
| 334 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
| 335 |
+
month = "11",
|
| 336 |
+
year = "2019",
|
| 337 |
+
publisher = "Association for Computational Linguistics",
|
| 338 |
+
url = "https://arxiv.org/abs/1908.10084",
|
| 339 |
+
}
|
| 340 |
+
```
|
| 341 |
+
|
| 342 |
+
<!--
|
| 343 |
+
## Glossary
|
| 344 |
+
|
| 345 |
+
*Clearly define terms in order to be accessible across audiences.*
|
| 346 |
+
-->
|
| 347 |
+
|
| 348 |
+
<!--
|
| 349 |
+
## Model Card Authors
|
| 350 |
+
|
| 351 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
| 352 |
+
-->
|
| 353 |
+
|
| 354 |
+
<!--
|
| 355 |
+
## Model Card Contact
|
| 356 |
+
|
| 357 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
| 358 |
+
-->
|
config.json
ADDED
|
@@ -0,0 +1,65 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"_attn_implementation_autoset": true,
|
| 3 |
+
"architectures": [
|
| 4 |
+
"RobertaForSequenceClassification"
|
| 5 |
+
],
|
| 6 |
+
"attention_probs_dropout_prob": 0.1,
|
| 7 |
+
"bos_token_id": 0,
|
| 8 |
+
"classifier_dropout": null,
|
| 9 |
+
"dtype": "float32",
|
| 10 |
+
"eos_token_id": 2,
|
| 11 |
+
"gradient_checkpointing": false,
|
| 12 |
+
"hidden_act": "gelu",
|
| 13 |
+
"hidden_dropout_prob": 0.1,
|
| 14 |
+
"hidden_size": 768,
|
| 15 |
+
"id2label": {
|
| 16 |
+
"0": "LABEL_0"
|
| 17 |
+
},
|
| 18 |
+
"initializer_range": 0.02,
|
| 19 |
+
"intermediate_size": 3072,
|
| 20 |
+
"label2id": {
|
| 21 |
+
"LABEL_0": 0
|
| 22 |
+
},
|
| 23 |
+
"layer_norm_eps": 1e-05,
|
| 24 |
+
"max_position_embeddings": 514,
|
| 25 |
+
"model_type": "roberta",
|
| 26 |
+
"neuron": {
|
| 27 |
+
"auto_cast": null,
|
| 28 |
+
"auto_cast_type": null,
|
| 29 |
+
"compiler_type": "neuronx-cc",
|
| 30 |
+
"compiler_version": "2.19.8089.0+8ab9f450",
|
| 31 |
+
"disable_fallback": false,
|
| 32 |
+
"disable_fast_relayout": false,
|
| 33 |
+
"dynamic_batch_size": false,
|
| 34 |
+
"inline_weights_to_neff": true,
|
| 35 |
+
"input_names": [
|
| 36 |
+
"input_ids",
|
| 37 |
+
"attention_mask"
|
| 38 |
+
],
|
| 39 |
+
"model_type": "roberta",
|
| 40 |
+
"optlevel": "2",
|
| 41 |
+
"output_attentions": false,
|
| 42 |
+
"output_hidden_states": false,
|
| 43 |
+
"output_names": [
|
| 44 |
+
"logits"
|
| 45 |
+
],
|
| 46 |
+
"static_batch_size": 1,
|
| 47 |
+
"static_sequence_length": 128,
|
| 48 |
+
"task": "fill-mask",
|
| 49 |
+
"tensor_parallel_size": 1
|
| 50 |
+
},
|
| 51 |
+
"num_attention_heads": 12,
|
| 52 |
+
"num_hidden_layers": 6,
|
| 53 |
+
"pad_token_id": 1,
|
| 54 |
+
"position_embedding_type": "absolute",
|
| 55 |
+
"sentence_transformers": {
|
| 56 |
+
"activation_fn": "torch.nn.modules.activation.Sigmoid",
|
| 57 |
+
"version": "5.1.1"
|
| 58 |
+
},
|
| 59 |
+
"tokenizer_class": "BertTokenizer",
|
| 60 |
+
"torchscript": true,
|
| 61 |
+
"transformers_version": "4.57.0",
|
| 62 |
+
"type_vocab_size": 1,
|
| 63 |
+
"use_cache": true,
|
| 64 |
+
"vocab_size": 32000
|
| 65 |
+
}
|
model.safetensors
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:52a1986a8c7067ff048f3ab228b85450b402a5dca26b208999ae184e2c227e5b
|
| 3 |
+
size 272379124
|
special_tokens_map.json
ADDED
|
@@ -0,0 +1,51 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"bos_token": {
|
| 3 |
+
"content": "[CLS]",
|
| 4 |
+
"lstrip": false,
|
| 5 |
+
"normalized": false,
|
| 6 |
+
"rstrip": false,
|
| 7 |
+
"single_word": false
|
| 8 |
+
},
|
| 9 |
+
"cls_token": {
|
| 10 |
+
"content": "[CLS]",
|
| 11 |
+
"lstrip": false,
|
| 12 |
+
"normalized": false,
|
| 13 |
+
"rstrip": false,
|
| 14 |
+
"single_word": false
|
| 15 |
+
},
|
| 16 |
+
"eos_token": {
|
| 17 |
+
"content": "[SEP]",
|
| 18 |
+
"lstrip": false,
|
| 19 |
+
"normalized": false,
|
| 20 |
+
"rstrip": false,
|
| 21 |
+
"single_word": false
|
| 22 |
+
},
|
| 23 |
+
"mask_token": {
|
| 24 |
+
"content": "[MASK]",
|
| 25 |
+
"lstrip": false,
|
| 26 |
+
"normalized": false,
|
| 27 |
+
"rstrip": false,
|
| 28 |
+
"single_word": false
|
| 29 |
+
},
|
| 30 |
+
"pad_token": {
|
| 31 |
+
"content": "[PAD]",
|
| 32 |
+
"lstrip": false,
|
| 33 |
+
"normalized": false,
|
| 34 |
+
"rstrip": false,
|
| 35 |
+
"single_word": false
|
| 36 |
+
},
|
| 37 |
+
"sep_token": {
|
| 38 |
+
"content": "[SEP]",
|
| 39 |
+
"lstrip": false,
|
| 40 |
+
"normalized": false,
|
| 41 |
+
"rstrip": false,
|
| 42 |
+
"single_word": false
|
| 43 |
+
},
|
| 44 |
+
"unk_token": {
|
| 45 |
+
"content": "[UNK]",
|
| 46 |
+
"lstrip": false,
|
| 47 |
+
"normalized": false,
|
| 48 |
+
"rstrip": false,
|
| 49 |
+
"single_word": false
|
| 50 |
+
}
|
| 51 |
+
}
|
tokenizer.json
ADDED
|
The diff for this file is too large to render.
See raw diff
|
|
|
tokenizer_config.json
ADDED
|
@@ -0,0 +1,60 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"added_tokens_decoder": {
|
| 3 |
+
"0": {
|
| 4 |
+
"content": "[CLS]",
|
| 5 |
+
"lstrip": false,
|
| 6 |
+
"normalized": false,
|
| 7 |
+
"rstrip": false,
|
| 8 |
+
"single_word": false,
|
| 9 |
+
"special": true
|
| 10 |
+
},
|
| 11 |
+
"1": {
|
| 12 |
+
"content": "[PAD]",
|
| 13 |
+
"lstrip": false,
|
| 14 |
+
"normalized": false,
|
| 15 |
+
"rstrip": false,
|
| 16 |
+
"single_word": false,
|
| 17 |
+
"special": true
|
| 18 |
+
},
|
| 19 |
+
"2": {
|
| 20 |
+
"content": "[SEP]",
|
| 21 |
+
"lstrip": false,
|
| 22 |
+
"normalized": false,
|
| 23 |
+
"rstrip": false,
|
| 24 |
+
"single_word": false,
|
| 25 |
+
"special": true
|
| 26 |
+
},
|
| 27 |
+
"3": {
|
| 28 |
+
"content": "[UNK]",
|
| 29 |
+
"lstrip": false,
|
| 30 |
+
"normalized": false,
|
| 31 |
+
"rstrip": false,
|
| 32 |
+
"single_word": false,
|
| 33 |
+
"special": true
|
| 34 |
+
},
|
| 35 |
+
"4": {
|
| 36 |
+
"content": "[MASK]",
|
| 37 |
+
"lstrip": false,
|
| 38 |
+
"normalized": false,
|
| 39 |
+
"rstrip": false,
|
| 40 |
+
"single_word": false,
|
| 41 |
+
"special": true
|
| 42 |
+
}
|
| 43 |
+
},
|
| 44 |
+
"bos_token": "[CLS]",
|
| 45 |
+
"clean_up_tokenization_spaces": false,
|
| 46 |
+
"cls_token": "[CLS]",
|
| 47 |
+
"do_basic_tokenize": true,
|
| 48 |
+
"do_lower_case": false,
|
| 49 |
+
"eos_token": "[SEP]",
|
| 50 |
+
"extra_special_tokens": {},
|
| 51 |
+
"mask_token": "[MASK]",
|
| 52 |
+
"model_max_length": 512,
|
| 53 |
+
"never_split": null,
|
| 54 |
+
"pad_token": "[PAD]",
|
| 55 |
+
"sep_token": "[SEP]",
|
| 56 |
+
"strip_accents": null,
|
| 57 |
+
"tokenize_chinese_chars": true,
|
| 58 |
+
"tokenizer_class": "BertTokenizer",
|
| 59 |
+
"unk_token": "[UNK]"
|
| 60 |
+
}
|
vocab.txt
ADDED
|
The diff for this file is too large to render.
See raw diff
|
|
|