File size: 49,462 Bytes
e95bc6b |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 |
---
tags:
- sentence-transformers
- cross-encoder
- reranker
- generated_from_trainer
- dataset_size:35108
- loss:BinaryCrossEntropyLoss
base_model: klue/roberta-small
pipeline_tag: text-ranking
library_name: sentence-transformers
metrics:
- pearson
- spearman
model-index:
- name: CrossEncoder based on klue/roberta-small
results:
- task:
type: cross-encoder-correlation
name: Cross Encoder Correlation
dataset:
name: Unknown
type: unknown
metrics:
- type: pearson
value: 0.9823784372891121
name: Pearson
- type: spearman
value: 0.8648025114057425
name: Spearman
---
# CrossEncoder based on klue/roberta-small
This is a [Cross Encoder](https://www.sbert.net/docs/cross_encoder/usage/usage.html) model finetuned from [klue/roberta-small](https://huggingface.co/klue/roberta-small) using the [sentence-transformers](https://www.SBERT.net) library. It computes scores for pairs of texts, which can be used for text reranking and semantic search.
## Model Details
### Model Description
- **Model Type:** Cross Encoder
- **Base model:** [klue/roberta-small](https://huggingface.co/klue/roberta-small) <!-- at revision b6b4c36d827e0293ae2fcf04d527072f10a23064 -->
- **Maximum Sequence Length:** 512 tokens
- **Number of Output Labels:** 1 label
<!-- - **Training Dataset:** Unknown -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Documentation:** [Cross Encoder Documentation](https://www.sbert.net/docs/cross_encoder/usage/usage.html)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/huggingface/sentence-transformers)
- **Hugging Face:** [Cross Encoders on Hugging Face](https://huggingface.co/models?library=sentence-transformers&other=cross-encoder)
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import CrossEncoder
# Download from the π€ Hub
model = CrossEncoder("cross_encoder_model_id")
# Get scores for pairs of texts
pairs = [
['μ μ§κ΅μ΄ μΈκ΅ κΈ°μ
μ λμ°νκΈ° μν μ λλ?', 'νμ€μ λΆμ΄λ¦¬ κ²Έ κΈ°νμ¬μ λΆ μ₯κ΄μ΄ μ€μκΈ°μ
보νΈλ₯Ό μν΄ κ³΅κ³΅μ‘°λ¬ μμ₯μμ βκ΅λ΄μΈ λκΈ°μ
μ λν λλ± κ·μ β μμΉμ λ°νμ λ°λΌ μ λΆκ° μΈλΆ κ·μ λ°©μ λ§λ ¨μ λ€μ΄κ°λ€. μ λΆλ νΉν μ΄ κ°μ κ·μ λ μΈκ΅ κΈ°μ
λ§μ λμμΌλ‘ ν κ·μ μ λ¬λ¦¬ μΈκ³λ¬΄μ기ꡬ(WTO) 43κ° κ°μ
κ΅μ΄ λ§Ίκ³ μλ μ λΆμ‘°λ¬νμ (GPA)μ μλ°°λμ§ μλλ€λ μ
μ₯μ λΆλͺ
ν νλ€. βΆλ³Έμ§ 11μ11μΌμ A1, 3λ©΄ μ°Έκ³ βμ λΆ, β곡곡μμ₯ μμ°¨λ³ μμ βκΈ°μ¬λΆ κ΄κ³μλ 11μΌ βλ΄λΆ κ²ν κ²°κ³Ό κ΅λ΄ λκΈ°μ
κ³Ό μΈκ΅ λκΈ°μ
μ λλ±νκ² κ·μ νλ κ²μ κ΅μ μ μΌλ‘ λ¬Έμ κ° μ λλ€βλ©° βμ μ§κ΅λ μΈμ μ§μ, μ§μ
μ₯λ²½ μ€μΉ, μ¬μ μ§μ λ±μ ν΅ν΄ μκ΅ μ€μκΈ°μ
μ 100% 보νΈνκ³ μλ€βκ³ λ§νλ€. μΈκ΅ κΈ°μ
μ μ°¨λ³ λμ°νλ©΄ λ¬Έμ κ° λμ§λ§ κ·Έλ μ§ μμΌλ©΄ κ΅μ λ²μ λ¬Έμ κ° μλ€λ κ²μ΄λ€.μ΄ κ΄κ³μλ μ΄μ΄ βμ€μκΈ°μ
보νΈλ₯Ό μν΄ κ΅λ΄ λκΈ°μ
μ λ°°μ νλλ° (κ΅λ΄ λκΈ°μ
λ³΄λ€ λ©μΉκ° ν°) μΈκ΅κ³ λκΈ°μ
μ΄ λ€μ΄μ€λ 건 λ¬Έμ κ° μλ€λ μ μ΄ κ΅μ κ°μ¬μμλ μ¬λ¬ λ² μ§μ λλ€βλ©° βμ΄λ° νμμ λ°©μΉν μ μλ€λ κ² μ λΆ λ°©μΉ¨βμ΄λΌκ³ κ°μ‘°νλ€. μΌλΆμμ βμΈκ΅κ³ λκΈ°μ
κ·μ κ° κ΅λ΄ μμ₯μ μ§ν€λ €λ€ ν΄μΈ μμ₯μ μλ μ‘°μΉ μλλβλ μ§μ μ΄ λμ€λ λ° λν΄μλ βν΄μΈ μμ₯ ν¬κΈ°κ° μλλΌ κ΅λ΄ κΈ°μ
μ΄ λ°λ μμ°¨λ³ ν΄μ μ°¨μβμ΄λΌκ³ μ κ·Ή λ°λ°νλ€. μ€μκΈ°μ
μ μν΄ λ¨κ²¨λ μ리λ₯Ό μΈκ΅κ³ κΈ°μ
μ΄ μΉκ³ λ€μ΄μ€λ©΄ κ΅λ΄ λκΈ°μ
μ΄ μμ°¨λ³μ λ°λ κ²μ λ¬Όλ‘ μ€μκΈ°μ
μ¬μ΄μμλ βμΈκ΅κ³ κΈ°μ
κ³Ό μ ν΄λ₯Ό νλλ λͺ»νλλβμ λ°λΌ κ³΅κ³΅μ‘°λ¬ μμ₯μμ μ°¨λ³μ λ°μ μ μλ€λ μ΄μ μμλ€. κΈ°μ¬λΆλ μ΄μ λ°λΌ μ‘°λ§κ° μ°μ
ν΅μμμλΆ μ€μκΈ°μ
μ² μ‘°λ¬μ² λ± κ΄κ³λΆμ²μ νμν΄ ν λΆμ΄λ¦¬κ° λ°ν κ·μ λ°©μμ λ€λ¬λ μμ
μ λμκΈ°λ‘ νλ€. κΈ°μ¬λΆ λ΄λΆμ μΌλ‘λ μ΄λ―Έ μ§λμ£Όμ κ²ν μμ
μ ν μ°¨λ‘ νλ€. ν΅μ 주무λΆμ²μΈ μ°μ
λΆλ μ΄λ―Έ λ΄λΆμ μΌλ‘λ μ΄ κ°μ κ΅λ΄μΈ λλ± κ·μ λ WTO νμ μ μλ°°λμ§ μλλ€λ νλ¨μ λ΄λ Έλ€. μ°μ
λΆμ κ΄κ³μλ βμ€μκΈ°μ
보νΈλ₯Ό μν μμΈ μ μ©μ μ λΆμ‘°λ¬νμ λΏ μλλΌ μμ 무μνμ (FTA)μλ λͺ
λ¬ΈνλΌ μλ€βκ³ λ§νλ€. βκ·μ λ°©μμ βμ μ€βμ λΆλ ꡬ체μ μΈ κ·μ λ°©μμ΄ λμ€λ €λ©΄ μκ°μ΄ νμνλ€λ λ°μμ 보μλ€. μ€μκΈ°μ
보νΈλ₯Ό μν΄ κ΅λ΄ λκΈ°μ
λΏ μλλΌ μΈκ΅κ³ λκΈ°μ
λ κ·μ ν΄μΌ νλ€λ λ°©ν₯μ±μ μ μμ§λ§ ꡬ체μ μΌλ‘ μ΄λ»κ² ν΄μΌ μ κ΅ν λ°©μμ μ§λΌ μ μμμ§λ μ μ€ν κ²ν ν΄μΌ νλ€λ κ²μ΄λ€.κΈ°μ¬λΆ κ΄κ³μλ βμ°λ¦¬κ° 보νΈνλ €λ μ€μκΈ°μ
μ λ²μλ₯Ό μ΄λ»κ² μ ν μ§, ν΅μ λ§μ°° λ
Όλμ μ΄λ»κ² λμν μ§, μμ° μ΄μ‘ 5μ‘°μ μ΄μ λκΈ°μ
μ§λ¨μ κ·μ νλ μνΈμΆμμ ν κΈ°μ
μ§λ¨ κ·μ λ₯Ό μΈκ΅κ³ κΈ°μ
μ νλ μ μ©νλ€λ©΄ μ΄λ»κ² ν μ§ λ± λ€μν μ΄μκ° κ±Έλ € μλ€βλ©° βμ€μκΈ°μ
μ² μ°μ
λΆ κ³΅μ κ±°λμμν μ‘°λ¬μ² λ± λ€λ₯Έ λΆμ²μ μΆ©λΆν νμν΄ κ²°μ ν μ¬μβμ΄λΌκ³ λ§νλ€. μ£Όμ©μ/μ‘°λ―Έν κΈ°μ'],
['μλ μ΄ μ€μ€λ‘ μνλ₯Ό μ μν μ μμμ μ
μ¦νμ¬ μΉλΆμμ μ΄κΈ΄ μλλ λꡬμΈκ°?', 'βλ§λ
Έμ€: μ΄λͺ
μ μβμ μλ μ κ³ ν₯μΈ ν
μ¬μ€μ£Ό μ νμμ μλ μΉ΄ν리 κ·Ήμ₯μμ 1966λ
11μ 15μΌ μμ¬νλ₯Ό κ°μ‘λ€. μλ μ μμ¬νμ μ°λ €κ³ μμΉλΌμ΄νΈλ₯Ό ꡬνμΌλ©° ν리μ°λ λΆμκΈ°λ₯Ό λ΄κΈ° μν΄ μΊμ€νΈκ° ν 리무μ§μ λμ¬νλ€. νμ§λ§ λ¦¬λ¬΄μ§ ν λ λ°μ λμ¬κ° μ λμμΌλ―λ‘, μΊμ€νΈλ₯Ό λ°μΌλ‘ λλμ΄ ν κ·Έλ£Ήμ μμ¬νλ‘ νμ°κ³ , λ€μ 리무μ§μ λλ € κΈ°λ€λ¦¬κ³ μλ λλ¨Έμ§ κ·Έλ£Ήμ κ·Όμ² λͺ¨νμ΄μμ νμ°κ³ μμ¬νλ‘ λ°λ €μμΌνλ€. μμ¬νμλ μμ₯, μ§μ 보μκ΄ λ± μ§μμ μ£Όμ μΈμ¬λ€μ΄ λ€μ μ΄λλμλ€. μνκ° μμν μ§ μΌλ§ μ§λμ§ μμ, μμ¬νμ₯μ μμμΌλ‘ κ°λμ°Όλ€. μλ κ³Ό λλ¨Έμ§ μΆμ°μ§μ λ―Όλ§ν΄μ§ μ±λ‘ μ¬λΉ¨λ¦¬ μΆκ΅¬λ₯Ό ν΅ν΄ λΉ μ Έλκ°λ€. μμ¬ν ν, μλ μ μμ μ΄ λ³΄κΈ°μλ βλ§λ
Έμ€βκ° μ΅μ
μ μνλΌκ³ μκ°νμ§λ§ κ·Έλλ μλμ€λ½λ€κ³ λ°νλ€. λν, μλ§ λ€λ¬μΌλ©΄ μ¬λ°λ μ½λ―Έλ μνλ‘ λ§λ€ μ μμ κ² κ°λ€λ μκΈ°λ μΈν°λ·°μμ νμλ€\n\nμ΄ μνλ μλ¨Έμ¨ μ¬κ° λ°°ν¬λ₯Ό λ§‘μλ€. λν μΉ΄ν리 κ·Ήμ₯μμ μ μ λμ μμλμμΌλ©°, ν
μ¬μ€ μλΆμ λλΌμ΄λΈμΈ κ·Ήμ₯μμλ μμμ΄ λμλ€. μ΄λ€ λ³΄κ³ μ λ°λ₯΄λ©΄ μμ
μ λκ°λ₯Ό λ°μ μ€νμ μν€ λλ¨Ό μ‘΄μ€μ κ·Έλ
μ κ°μμ§ λΏμ΄μμΌλ©°, κ·Έ λκ°λ μμ κ±°μ λ€λμ κ°μμ§ μμμ΄μλ€κ³ νλλ°, μ΄λ μνκ° μ¬μ μ μΌλ‘ μΌλ§λ ν¬κ² μ€ν¨νλμ§λ₯Ό 보μ¬μ€λ€ 곡μ λ°μ€μ€νΌμ€ μ§κ³λ μλ €μ Έμμ§ μλ€. μνμ λν λ°μμ μ’μ§ μμμΌλ, μλ μ μμ μ΄ νΌμ μνλ₯Ό λ§λ€ μ μμμ μ¦λͺ
νμ¬, μ€νΈλ§ μ€λ¦¬ννΈμμ λ΄κΈ°μμ μΉλ¦¬νμλ€'],
['μ₯νΈμμ€ λΆμΌμ μ§μν λ, μν μΈμ λ³λλ‘ μ¨μΌ νλ κΈμ λͺ μ₯μΈκ°?', 'λΆμ°λ μ² νκ³Όμ λ€λλ νμ€μ± μ¨(24)λ μ§λν΄ κ°μ νμ μ λΆμΌλ‘ μ 3ν νκ²½ μ²λ
μ μΆλ¬Έμμ λ¬Έμ λλλ Έλ€. νμ¨λ μ² νκ³Ό μ±
μ μ’μνλ νλ²ν νμμ΄μλ€. μ μΆλ¬Έμ μ₯νΈμμ€ λΆλ¬Έμ λΉμ λλ©° κ·Έμ μΆμ λ³νλ€. μκΈμ μ¬λΉ μΌμ μ κ΅μ μ¬ννλ©° μ΄μΌκΈ°λ₯Ό μμ§νλ€. κ°μ νΈλ¨ μλ¨ λ± μμ¬μ λΉκ·Ήμ μ§λ κ³³μ μ°Ύμλ€λλ©° μ΄μΌκΈ°λ₯Ό λ€μλ€. λΉμ μ κΉμ§λ§ ν΄λ λ§νκΈ°λ₯Ό μ’μνλ μ μ μ²λ
μ μ΄λμ νμΈμ λ§μ κ· κΈ°μΈμ¬ λ£λ μ μ μκ°λ‘ λ³μ νλ€. νμ¨λ μ¬ν΄ λ¬Ένλλ€ μκ°μ λ³Έμ¬μ μ΄λ¦μ μ¬λ¦¬λ λ± μ μΆλ¬Έμ λΉμ μ΄ μ°μ°μ΄ μλμμμ μ¦λͺ
ν΄ λκ°κ³ μλ€. κ·Έμ μ²λ
μ μΆλ¬Έμ λΉμ μ μ΄λ±μ κ³λ³΄(μνλ무)λ ν΄κ³ λ₯Ό κ±°λν΄ μ΄λ¬ μ μ μΆκ°λλ€.μ’μ μνμ κ·Έκ²μ μ½λ μ¬λμ μΈμμ λ¬Όλ‘ λ§λ μ¬λμ μΈμλ λ°κΎΌλ€. κ°μ₯ μ’μ μ¬λ‘κ° μ μΆλ¬Έμλ€. λ¬Έν μ§λ§μμΌλ‘μ λμλ μ΅μμ λλ μ 보λ΄λ μ΄λ€μ μ μΆλ¬ΈμλΌλ κ΄λ¬Έμ κ±°μ³ μκ°λ‘ λ³μ νλ€.μ 2ν μ₯νΈμμ€ λΉμ μμΈ κΉμκ²½ μ¨(36)μ λΉμ μ μ²μΆνμ°(λ―Όμμ¬)μ μ μ μΈλκ° κ²ͺλ μ΄λ €μμ μμ§νκ² ννν΄ νΈνλ°μ μνμ΄λ€. μ΄ μμ€μλ κΉμ¨κ° κ²ͺμ μΌλ€μ΄ μλΉ λΆλΆ λ
Ήμ μλ€. κΉμ¨λ μ§μμ΄ μ΄λ €μμ§λ λ°λμ μ΄λ¦° μμ ν΄ λ³΄μ§ μμ μλ₯΄λ°μ΄νΈκ° μμ μ λμλ€.κΉμ¨λ μ§λ 2μ νκ΅λ¬Ένμμ μμνμ μμΈ νλ¦°μ€νΈν
μ΄ νμνλ μ°½μμ§νμ€ μ
μ£Όμκ° νλ‘κ·Έλ¨μ μ μ λΌ ν λ¬ λμ νΈν
μμ μ§νμ μ λ
νλ€. νΈν
μμ νμ μ‘μ λνμ μμ νΈν
μ£Όλ°©μμ μ€κ±°μ§νλ κΈ°μ΅μ΄ λ μ¬λλ€. βνΈν
μμ κΈμ μ°λ μλ μκ°μ΄ λμ κΈ°λΆμ΄ λ¬νμ΄μ. νΈν
μμ μΌν λλ μ λ¬ΈμΌλ‘ λ€μ΄κ° μλ μλ μ μΈμλλ° λ§μ΄μ£ .β μ μ μκ°κ° λ λ€ λ ν° μ±
μκ°μ λλΌκ³ μλ€λ κ·Έλ μ΄λ¬ λ λ²μ§Έ μνμ νκ³ ν κ³νμ΄λ€.μ 3ν μ λΆλ¬Έ λΉμ μ κΉλ―Όμ¨ μ¨(37)λ λ±λ¨ μ΄μ κ³Ό λ³λ€λ₯Ό κ² μμ΄ λ³΄μ΄λ μΌμμ 보λ΄κ³ μλ€. νμ§λ§ κ·Έμκ²λ λΆλͺ
ν λ³νκ° μκ²Όλ€. βλ±λ¨ μ μλ μ’ νΈμνκ² μλ₯Ό μΌλλ° λ±λ¨ν λ€λ‘λ μ±
μκ° μκ² μλ₯Ό μ°λ €κ³ νλ€βκ³ κΉμ¨λ λ§νλ€. βκ·Έλμ λ μλ―Όν μνλ₯Ό μ μ§νλ €κ³ λ
Έλ ₯ν©λλ€. μλ₯Ό μΌλ€λ λ° λ§μ‘±νμ§ μκ³ μ΄ μλ₯Ό ν΅ν΄ 무μμ ν μ μμκΉ κ³ λ―Όνκ³ μμ΄μ.βμ 2ν μ λΆλ¬Έ λΉμ μ μ΄μμ° μ¨(32)λ βμνμ μ΄ μ¬λμ μ½λ μ¬λλ³΄λ€ μ£Όμ μ λν΄ λ κΉμ΄ μκ°ν μλ°μ μλ€βλ©° βμνμ μ°λ©΄μ λ΄ μμ μ΄ λ°λμ΄κ°λ κ²μ λλλ€βκ³ λ§νλ€.μ μΈ μκ°λ₯Ό λ°κ΅΄Β·μ‘μ±νκ³ λ¬Ένμ½ν
μΈ λ₯Ό λ°κ΅΄νκΈ° μν νκ²½ μ²λ
μ μΆλ¬Έμκ° 4νλ₯Ό λ§μλ€. μ 3νλΆν° λ§ 39μΈ μ΄νκΉμ§ μ°Έμ¬ν μ μλλ‘ νμ λνλ€. 20λ λνμλΆν° μκ°μ κΏμ λμ§ μμ 30λ μ§λ§μμκ²κΉμ§ λ¬Έμ΄ μ΄λ € μλ€.μ¬ν΄λ μ, μ₯νΈμμ€, μλλ¦¬μ€ λ± μΈ κ° λΆλ¬Έμμ μλ‘μ΄ μκ°λ₯Ό μ°Ύμ λμ λ€. μ₯νΈμμ€ λΆλ¬Έμ 3000λ§μμ μκΈμ μ€λ€. μκ³ λμ 200μ μκ³ μ§ κΈ°μ€ 1000μ₯ μνμ΄λ©° 10μ₯ λΆλμ μ€κ±°λ¦¬ μ€λͺ
μ λ°λ‘ μ μΆν΄μΌ νλ€. μλ 5νΈ μ΄μ μ μΆν΄μΌ νλ©°, μλλ¦¬μ€ μκ³ λ 400μ₯ μν(μλμμ€ 10μ₯ λ³λ)μ΄λ€. μμ μλλ¦¬μ€ μκΈμ 500λ§μμ©μ΄λ€.μκ³ λ A4 μ©μ§μ μΆλ ₯ν΄μ 보λ΄μΌ νλ€. μλͺ¨μμ κ³Όκ±°μ λ°ννκ±°λ μ
μν μ μ΄ μλ μμ μ°½μλ¬Όμ΄μ΄μΌ νλ€. λ€λ₯Έ 곡λͺ¨μ μ μ€λ³΅ ν¬κ³ ν΄ μ΄λ―Έ μ
μν μνμ΄κ±°λ νμ ν μ¬μ€μ΄ λ°νμ§λ©΄ λΉμ μ μ·¨μνλ€. λ΄ν¬μ βνκ²½ μ²λ
μ μΆλ¬Έμ μλͺ¨μνβμ΄λΌ μ κ³ μν 첫 μ₯κ³Ό λ§μ§λ§ μ₯μ μλͺ¨ λΆλ¬Έ, μ΄λ¦(νλͺ
μΌ κ²½μ° λ³Έλͺ
λ³κΈ°), μ£Όμ, μ νλ²νΈ, μκ³ λ(200μ μκ³ μ§ κΈ°μ€), μ£Όλ―Όλ±λ‘μ μλ
μμΌμ λͺ
μν΄μΌ μ μ μλͺ¨μμΌλ‘ μ μνλ€. λͺ¨λ μκ³ λ λ°ννμ§ μλλ€.'],
['ν©κ΄ν¬κ° λ°°μ΄ λ°©μΈμ μ¬μ©νλ λμλ?', 'νμ€ν κ²½λ¨μ§μ¬(μ¬μ§)κ° μΆμ²λ₯Ό μμ¬λ°κ³ μλ 2011λ
6μ λΉ λν κ²½μ κΈ°νκΈ 1μ΅2000λ§μμ λν΄ βμλ΄κ° λμ¬κΈκ³ λ₯Ό ν΅ν΄ κ΄λ¦¬ν λΉμκΈμμ λμ¨ λβμ΄λΌκ³ 11μΌ λ°νλ€. κ²μ°°μ κ·Έλ¬λ μ΄λ―Έ μ§λ 8μΌ μ‘°μ¬μμ ν μ§μ¬μ μ΄ κ°μ μ§μ μ΄ μ±μμ’
μ κ²½λ¨κΈ°μ
νμ₯ μΈ‘μΌλ‘λΆν° 1μ΅μμ λ°μλ€λ νμλ₯Ό λ°λ°ν μμ€μ λͺ» λλ€κ³ νλ¨ν κ²μΌλ‘ μ ν΄μ‘λ€.ν μ§μ¬λ μ΄λ κ²½μλ¨λμ² μνμμ€μμ βμ±μμ’
리μ€νΈβ κ²μ°° μμ¬μ κ΄λ ¨ν΄ κΈ°μκ°λ΄νλ₯Ό μ΄κ³ βλ³νΈμ¬λ₯Ό 11λ
λμ νλ©° νμ λ¨Ήκ³ μ΄ λ§νΌμ λμ λͺ¨μκ³ , 2008λ
μ¬λΉ μλ΄λνλ₯Ό ν λ κ΅ν μ΄μμμμ₯μ κ²Έν΄ λ§€λ¬ κ΅ν λμ±
λΉλ‘ λμ€λ 4000λ§~5000λ§μμ μ λΆ νκΈνν΄μ κ΅ν λμ±
λΉλ‘ μ°κ³ λ¨μ λμ μ§μ¬λμκ² μνλΉλ‘ μ£Όκ³€ νλ€βκ³ λ§νλ€. μ λ κ²μ°° νΉλ³μμ¬ν(νμ₯ λ¬Έλ¬΄μΌ κ²μ¬μ₯)μ΄ ν μ§μ¬κ° κ²½μ μκΈ λΆλΆμ λͺ
νν μλͺ
νμ§ λͺ»νλ€κ³ λ°ν λ° λν λ°λ°μ΄λ€. ν μ§μ¬λ λ βκ²μ°°μ μΌμ νλ₯Ό μ μΆνμ§ μμλ€βλ©° βμ°λ¦¬κ° μΌμ νλ₯Ό λ¨Όμ μ μΆνμ λ (1μ΅μμ μ λ¬νλ€λ) μ€λͺ¨μ¨κ° κ·Έ μΌμ μ λΌμλ£μ΄ λμ μ£Όμλ€κ³ νλ©΄ λλ¦¬κ° μκΈ° λλ¬Έβμ΄λΌκ³ λ§νλ€. κ·Έλ¬λ©΄μ μ€μ¨μ βλ°°λ¬μ¬κ³ β κ°λ₯μ±μ λν΄μλ μΈκΈνλ€.μ΄μ κ΄λ ¨, κ°ν¬μ© μμ μΉλ―Όμ£Όμ°ν© λΆλλ³μΈμ λ
Όνμ ν΅ν΄ βμλ΄λν λΉμ μλ Ήν μμ²λ§μμ κ΅ν μ΄μλΉλ₯Ό μνλΉλ‘ μ€ κ²μ λͺ
λ°±ν κ³΅κΈ ν‘λ Ήβμ΄λΌλ©° βλΆμΈμ΄ κ΄λ¦¬νλ λΉμκΈμ 곡μ§μ μ¬μ°μ κ³ μ μλ
κ° μμ΅μ μΌλ‘ κ³ μ λλ½νλ€λ©΄ 곡μ§μμ€λ¦¬λ² μλ° νμλ μΆκ°λλ€βκ³ μ§μ νλ€.κ²μ°°μ κ΅νμμ μμ ν μ§μ¬κ° λ§€λ
μ¬μ° λ³λ λ΄μμ μ κ³ ν λ΄μ©κ³Ό κΈμ΅κ³μ’ μ
μΆκΈ λ΄μ λ±μ λΆμν κ²°κ³Ό ν μ§μ¬μ μ΄ κ°μ μ£Όμ₯μ΄ νμλ₯Ό λ€μ§μ§ λͺ»νλ€κ³ κ²°λ‘ λ΄λ¦° κ²μΌλ‘ μλ €μ‘λ€.'],
['νλ₯΄λΌμ΄ν 첫 μμλΆν° λ±μ₯νλ μΊλ¦ν°λ?', 'μμΌλ‘ λͺ¨νΌμ(μ μ¬λ¬΄λΆ μΆμ λνμ° μΈμ¬)μ κΈνΌμ(κΈμ΅κ°λ
μ μΆμ λνμ° μΈμ¬)μ κΈμ΅κΆ μ΄λμ΄ μ°¨λ¨λ κ°λ₯μ±μ΄ λμμ‘λ€. μ΅κ·Ό μ¬κ°μ μΈμνΈ μ°Έμ¬μ μ£Όμ μμΈμΌλ‘ μ λΆ κ³ μ κ΄λ£λ€μ κ°μ’
ννμ μ‘°ν©μΌλ‘μ βλνμ°βμ μ΄λμ΄ μ§λͺ©λκ³ μλ μν©μμ λ°κ·Όν λν΅λ ΉκΉμ§ βμ κ΄κΈ°κ΄μ ν΄μ§ 곡μ§μκ° κ°μ§ λͺ»νλλ‘ νλ λ± κ΄λ ¨ μ λλ₯Ό κ·Όλ³Έμ μΌλ‘ μμ νλΌβκ³ μ§μνκΈ° λλ¬Έμ΄λ€. 29μΌ κΈμ΅κΆμ λ°λ₯΄λ©΄ νμ¬ κ³΅μμ΄μ§λ§ κΈ°νμ¬μ λΆ μΆμ κ³ μ κ΄λ£λ€λ‘ λ΄μ λλ μν΄λ³΄ννν νμ₯κ³Ό μ£ΌνκΈμ΅κ³΅μ¬ μ¬μ₯ μλ¦¬κ° λΆν¬λͺ
ν΄μ§κ³ μλ€. μμΌλ‘ λ κΈ°κ΄ μΈ λ€λ₯Έ κΈμ΅κΈ°κ΄μΌλ‘λ κΈ°μ¬λΆμ κΈκ°μ μΆμ κ°λΆλ€μ μ΄λμ΄ μ΄λ €μΈ κ²μΌλ‘ 보μΈλ€. μμ μ§λν΄ λμ μ¬νμ μ΅κ·Ό μΉ΄λμ¬ μ 보 μ μΆ μ¬νκ° ν°μ§λ©΄μ κΈμ΅μμνμ κΈκ°μ κ³ μμ§μ κΈμ΅μ¬ μ΄λμ λν λΉλμ΄ λμ΄μ§ μμλ€. μ΄μ λ°λΌ κ·Έλμ κ³ μ 곡무μλ€μ΄ ν΄μ§ ν μ¬μ·¨μ
μ νμ΄ λνλ κΈμ΅κΆ μ΄λμ΄ λ§νλ©΄μ κΈ°μ¬λΆ, κΈμ΅μ, κΈκ°μμ μΈμ¬ μ μ²΄κ° λμ± μ¬ν΄μ§ κ²μΌλ‘ μμλλ€. κ·Έλμ κΈμ΅κΆμ μΌλΆ μμ§μ λͺ¨νΌμμ κΈνΌμκ° μ°¨μ§νκ³ μμ΄ μ΄λ° κ΄νμ μμ μΌ νλ€λ μ£Όμ₯μ΄ κΎΈμ€ν μ κΈ°λλ€. μμλ‘ KBκΈμ΅μ§μ£Ό νμ₯μ μ¬μ κ²½μ λΆ(ν κΈ°μ¬λΆ) μ 2μ°¨κ΄, μμ’
룑 λνκΈμ΅μ§μ£Ό νμ₯μ κΈ°μ¬λΆ 1μ°¨κ΄ μΆμ μ΄λ€. μ΅κ·μ° μ μΆμνμ€μνμ₯μ κΈμ΅μ μ¦κΆμ λ¬Όμμν μμμμ, κΉκ·Όμ μ¬μ κΈμ΅ννμ₯μ κΈ°μ¬λΆ κ΅κ³ κ΅μ₯, νμλ§ μμ°κ΄λ¦¬κ³΅μ¬ μ¬μ₯μ κΈμ΅μ μμμμ, μ§μ
μ μ μ±
κΈμ΅κ³΅μ¬ μ¬μ₯μ κΈμ΅μ κΈμ΅μ 보λΆμμμ₯ λ±μ μμνλ€. λ°λ³μ μνμ°ν©νμ₯μ μ¬κ²½λΆ 1μ°¨κ΄, κΉκ·λ³΅ μλͺ
보νννμ₯μ μ¬κ²½λΆ κΈ°νκ΄λ¦¬μ€μ₯, κΉμ£Όν μκΈλ³΄νκ³΅μ¬ μ¬μ₯μ κΈμ΅μ μ¬λ¬΄μ²μ₯μ΄μλ€. μ‘°μ±ν λ‘―λ°μΉ΄λ κ°μ¬μ μ κΈ°ν νκ΅μ€ν λ€λμ°¨νλ(SC)μν κ°μ¬μμν λνλ κΈκ°μ μΆμ μ΄λ€. ν μμ€μν κ΄κ³μλ βκ΄λ£ μΆμ μ΄ κΈμ΅μ
κ³λ‘ μ€λ κ²μ λ§μλ μ μΉμΈ μΆμ μ΄ κ·Έ μ리λ₯Ό λ©μΈ κ² κ°μ μ°λ €λλ€βκ³ λ§νλ€. μ€μ μ΅κ·Ό μκΈλ³΄νκ³΅μ¬ κ°μ¬μλ λ¬Έμ ν μ μλλ¦¬λΉ μΆ©λ¨λλΉ μμ°Β·νμλΉμνμν μμμ₯, κΈ°μ 보μ¦κΈ°κΈ κ°μ¬μλ λ°λν΄ μ μλλ¦¬λΉ μμμ΄ μ μλλ€. κΉμ£Όμ κΈ°μ [email protected]'],
]
scores = model.predict(pairs)
print(scores.shape)
# (5,)
# Or rank different texts based on similarity to a single text
ranks = model.rank(
'μ μ§κ΅μ΄ μΈκ΅ κΈ°μ
μ λμ°νκΈ° μν μ λλ?',
[
'νμ€μ λΆμ΄λ¦¬ κ²Έ κΈ°νμ¬μ λΆ μ₯κ΄μ΄ μ€μκΈ°μ
보νΈλ₯Ό μν΄ κ³΅κ³΅μ‘°λ¬ μμ₯μμ βκ΅λ΄μΈ λκΈ°μ
μ λν λλ± κ·μ β μμΉμ λ°νμ λ°λΌ μ λΆκ° μΈλΆ κ·μ λ°©μ λ§λ ¨μ λ€μ΄κ°λ€. μ λΆλ νΉν μ΄ κ°μ κ·μ λ μΈκ΅ κΈ°μ
λ§μ λμμΌλ‘ ν κ·μ μ λ¬λ¦¬ μΈκ³λ¬΄μ기ꡬ(WTO) 43κ° κ°μ
κ΅μ΄ λ§Ίκ³ μλ μ λΆμ‘°λ¬νμ (GPA)μ μλ°°λμ§ μλλ€λ μ
μ₯μ λΆλͺ
ν νλ€. βΆλ³Έμ§ 11μ11μΌμ A1, 3λ©΄ μ°Έκ³ βμ λΆ, β곡곡μμ₯ μμ°¨λ³ μμ βκΈ°μ¬λΆ κ΄κ³μλ 11μΌ βλ΄λΆ κ²ν κ²°κ³Ό κ΅λ΄ λκΈ°μ
κ³Ό μΈκ΅ λκΈ°μ
μ λλ±νκ² κ·μ νλ κ²μ κ΅μ μ μΌλ‘ λ¬Έμ κ° μ λλ€βλ©° βμ μ§κ΅λ μΈμ μ§μ, μ§μ
μ₯λ²½ μ€μΉ, μ¬μ μ§μ λ±μ ν΅ν΄ μκ΅ μ€μκΈ°μ
μ 100% 보νΈνκ³ μλ€βκ³ λ§νλ€. μΈκ΅ κΈ°μ
μ μ°¨λ³ λμ°νλ©΄ λ¬Έμ κ° λμ§λ§ κ·Έλ μ§ μμΌλ©΄ κ΅μ λ²μ λ¬Έμ κ° μλ€λ κ²μ΄λ€.μ΄ κ΄κ³μλ μ΄μ΄ βμ€μκΈ°μ
보νΈλ₯Ό μν΄ κ΅λ΄ λκΈ°μ
μ λ°°μ νλλ° (κ΅λ΄ λκΈ°μ
λ³΄λ€ λ©μΉκ° ν°) μΈκ΅κ³ λκΈ°μ
μ΄ λ€μ΄μ€λ 건 λ¬Έμ κ° μλ€λ μ μ΄ κ΅μ κ°μ¬μμλ μ¬λ¬ λ² μ§μ λλ€βλ©° βμ΄λ° νμμ λ°©μΉν μ μλ€λ κ² μ λΆ λ°©μΉ¨βμ΄λΌκ³ κ°μ‘°νλ€. μΌλΆμμ βμΈκ΅κ³ λκΈ°μ
κ·μ κ° κ΅λ΄ μμ₯μ μ§ν€λ €λ€ ν΄μΈ μμ₯μ μλ μ‘°μΉ μλλβλ μ§μ μ΄ λμ€λ λ° λν΄μλ βν΄μΈ μμ₯ ν¬κΈ°κ° μλλΌ κ΅λ΄ κΈ°μ
μ΄ λ°λ μμ°¨λ³ ν΄μ μ°¨μβμ΄λΌκ³ μ κ·Ή λ°λ°νλ€. μ€μκΈ°μ
μ μν΄ λ¨κ²¨λ μ리λ₯Ό μΈκ΅κ³ κΈ°μ
μ΄ μΉκ³ λ€μ΄μ€λ©΄ κ΅λ΄ λκΈ°μ
μ΄ μμ°¨λ³μ λ°λ κ²μ λ¬Όλ‘ μ€μκΈ°μ
μ¬μ΄μμλ βμΈκ΅κ³ κΈ°μ
κ³Ό μ ν΄λ₯Ό νλλ λͺ»νλλβμ λ°λΌ κ³΅κ³΅μ‘°λ¬ μμ₯μμ μ°¨λ³μ λ°μ μ μλ€λ μ΄μ μμλ€. κΈ°μ¬λΆλ μ΄μ λ°λΌ μ‘°λ§κ° μ°μ
ν΅μμμλΆ μ€μκΈ°μ
μ² μ‘°λ¬μ² λ± κ΄κ³λΆμ²μ νμν΄ ν λΆμ΄λ¦¬κ° λ°ν κ·μ λ°©μμ λ€λ¬λ μμ
μ λμκΈ°λ‘ νλ€. κΈ°μ¬λΆ λ΄λΆμ μΌλ‘λ μ΄λ―Έ μ§λμ£Όμ κ²ν μμ
μ ν μ°¨λ‘ νλ€. ν΅μ 주무λΆμ²μΈ μ°μ
λΆλ μ΄λ―Έ λ΄λΆμ μΌλ‘λ μ΄ κ°μ κ΅λ΄μΈ λλ± κ·μ λ WTO νμ μ μλ°°λμ§ μλλ€λ νλ¨μ λ΄λ Έλ€. μ°μ
λΆμ κ΄κ³μλ βμ€μκΈ°μ
보νΈλ₯Ό μν μμΈ μ μ©μ μ λΆμ‘°λ¬νμ λΏ μλλΌ μμ 무μνμ (FTA)μλ λͺ
λ¬ΈνλΌ μλ€βκ³ λ§νλ€. βκ·μ λ°©μμ βμ μ€βμ λΆλ ꡬ체μ μΈ κ·μ λ°©μμ΄ λμ€λ €λ©΄ μκ°μ΄ νμνλ€λ λ°μμ 보μλ€. μ€μκΈ°μ
보νΈλ₯Ό μν΄ κ΅λ΄ λκΈ°μ
λΏ μλλΌ μΈκ΅κ³ λκΈ°μ
λ κ·μ ν΄μΌ νλ€λ λ°©ν₯μ±μ μ μμ§λ§ ꡬ체μ μΌλ‘ μ΄λ»κ² ν΄μΌ μ κ΅ν λ°©μμ μ§λΌ μ μμμ§λ μ μ€ν κ²ν ν΄μΌ νλ€λ κ²μ΄λ€.κΈ°μ¬λΆ κ΄κ³μλ βμ°λ¦¬κ° 보νΈνλ €λ μ€μκΈ°μ
μ λ²μλ₯Ό μ΄λ»κ² μ ν μ§, ν΅μ λ§μ°° λ
Όλμ μ΄λ»κ² λμν μ§, μμ° μ΄μ‘ 5μ‘°μ μ΄μ λκΈ°μ
μ§λ¨μ κ·μ νλ μνΈμΆμμ ν κΈ°μ
μ§λ¨ κ·μ λ₯Ό μΈκ΅κ³ κΈ°μ
μ νλ μ μ©νλ€λ©΄ μ΄λ»κ² ν μ§ λ± λ€μν μ΄μκ° κ±Έλ € μλ€βλ©° βμ€μκΈ°μ
μ² μ°μ
λΆ κ³΅μ κ±°λμμν μ‘°λ¬μ² λ± λ€λ₯Έ λΆμ²μ μΆ©λΆν νμν΄ κ²°μ ν μ¬μβμ΄λΌκ³ λ§νλ€. μ£Όμ©μ/μ‘°λ―Έν κΈ°μ',
'βλ§λ
Έμ€: μ΄λͺ
μ μβμ μλ μ κ³ ν₯μΈ ν
μ¬μ€μ£Ό μ νμμ μλ μΉ΄ν리 κ·Ήμ₯μμ 1966λ
11μ 15μΌ μμ¬νλ₯Ό κ°μ‘λ€. μλ μ μμ¬νμ μ°λ €κ³ μμΉλΌμ΄νΈλ₯Ό ꡬνμΌλ©° ν리μ°λ λΆμκΈ°λ₯Ό λ΄κΈ° μν΄ μΊμ€νΈκ° ν 리무μ§μ λμ¬νλ€. νμ§λ§ λ¦¬λ¬΄μ§ ν λ λ°μ λμ¬κ° μ λμμΌλ―λ‘, μΊμ€νΈλ₯Ό λ°μΌλ‘ λλμ΄ ν κ·Έλ£Ήμ μμ¬νλ‘ νμ°κ³ , λ€μ 리무μ§μ λλ € κΈ°λ€λ¦¬κ³ μλ λλ¨Έμ§ κ·Έλ£Ήμ κ·Όμ² λͺ¨νμ΄μμ νμ°κ³ μμ¬νλ‘ λ°λ €μμΌνλ€. μμ¬νμλ μμ₯, μ§μ 보μκ΄ λ± μ§μμ μ£Όμ μΈμ¬λ€μ΄ λ€μ μ΄λλμλ€. μνκ° μμν μ§ μΌλ§ μ§λμ§ μμ, μμ¬νμ₯μ μμμΌλ‘ κ°λμ°Όλ€. μλ κ³Ό λλ¨Έμ§ μΆμ°μ§μ λ―Όλ§ν΄μ§ μ±λ‘ μ¬λΉ¨λ¦¬ μΆκ΅¬λ₯Ό ν΅ν΄ λΉ μ Έλκ°λ€. μμ¬ν ν, μλ μ μμ μ΄ λ³΄κΈ°μλ βλ§λ
Έμ€βκ° μ΅μ
μ μνλΌκ³ μκ°νμ§λ§ κ·Έλλ μλμ€λ½λ€κ³ λ°νλ€. λν, μλ§ λ€λ¬μΌλ©΄ μ¬λ°λ μ½λ―Έλ μνλ‘ λ§λ€ μ μμ κ² κ°λ€λ μκΈ°λ μΈν°λ·°μμ νμλ€\n\nμ΄ μνλ μλ¨Έμ¨ μ¬κ° λ°°ν¬λ₯Ό λ§‘μλ€. λν μΉ΄ν리 κ·Ήμ₯μμ μ μ λμ μμλμμΌλ©°, ν
μ¬μ€ μλΆμ λλΌμ΄λΈμΈ κ·Ήμ₯μμλ μμμ΄ λμλ€. μ΄λ€ λ³΄κ³ μ λ°λ₯΄λ©΄ μμ
μ λκ°λ₯Ό λ°μ μ€νμ μν€ λλ¨Ό μ‘΄μ€μ κ·Έλ
μ κ°μμ§ λΏμ΄μμΌλ©°, κ·Έ λκ°λ μμ κ±°μ λ€λμ κ°μμ§ μμμ΄μλ€κ³ νλλ°, μ΄λ μνκ° μ¬μ μ μΌλ‘ μΌλ§λ ν¬κ² μ€ν¨νλμ§λ₯Ό 보μ¬μ€λ€ 곡μ λ°μ€μ€νΌμ€ μ§κ³λ μλ €μ Έμμ§ μλ€. μνμ λν λ°μμ μ’μ§ μμμΌλ, μλ μ μμ μ΄ νΌμ μνλ₯Ό λ§λ€ μ μμμ μ¦λͺ
νμ¬, μ€νΈλ§ μ€λ¦¬ννΈμμ λ΄κΈ°μμ μΉλ¦¬νμλ€',
'λΆμ°λ μ² νκ³Όμ λ€λλ νμ€μ± μ¨(24)λ μ§λν΄ κ°μ νμ μ λΆμΌλ‘ μ 3ν νκ²½ μ²λ
μ μΆλ¬Έμμ λ¬Έμ λλλ Έλ€. νμ¨λ μ² νκ³Ό μ±
μ μ’μνλ νλ²ν νμμ΄μλ€. μ μΆλ¬Έμ μ₯νΈμμ€ λΆλ¬Έμ λΉμ λλ©° κ·Έμ μΆμ λ³νλ€. μκΈμ μ¬λΉ μΌμ μ κ΅μ μ¬ννλ©° μ΄μΌκΈ°λ₯Ό μμ§νλ€. κ°μ νΈλ¨ μλ¨ λ± μμ¬μ λΉκ·Ήμ μ§λ κ³³μ μ°Ύμλ€λλ©° μ΄μΌκΈ°λ₯Ό λ€μλ€. λΉμ μ κΉμ§λ§ ν΄λ λ§νκΈ°λ₯Ό μ’μνλ μ μ μ²λ
μ μ΄λμ νμΈμ λ§μ κ· κΈ°μΈμ¬ λ£λ μ μ μκ°λ‘ λ³μ νλ€. νμ¨λ μ¬ν΄ λ¬Ένλλ€ μκ°μ λ³Έμ¬μ μ΄λ¦μ μ¬λ¦¬λ λ± μ μΆλ¬Έμ λΉμ μ΄ μ°μ°μ΄ μλμμμ μ¦λͺ
ν΄ λκ°κ³ μλ€. κ·Έμ μ²λ
μ μΆλ¬Έμ λΉμ μ μ΄λ±μ κ³λ³΄(μνλ무)λ ν΄κ³ λ₯Ό κ±°λν΄ μ΄λ¬ μ μ μΆκ°λλ€.μ’μ μνμ κ·Έκ²μ μ½λ μ¬λμ μΈμμ λ¬Όλ‘ λ§λ μ¬λμ μΈμλ λ°κΎΌλ€. κ°μ₯ μ’μ μ¬λ‘κ° μ μΆλ¬Έμλ€. λ¬Έν μ§λ§μμΌλ‘μ λμλ μ΅μμ λλ μ 보λ΄λ μ΄λ€μ μ μΆλ¬ΈμλΌλ κ΄λ¬Έμ κ±°μ³ μκ°λ‘ λ³μ νλ€.μ 2ν μ₯νΈμμ€ λΉμ μμΈ κΉμκ²½ μ¨(36)μ λΉμ μ μ²μΆνμ°(λ―Όμμ¬)μ μ μ μΈλκ° κ²ͺλ μ΄λ €μμ μμ§νκ² ννν΄ νΈνλ°μ μνμ΄λ€. μ΄ μμ€μλ κΉμ¨κ° κ²ͺμ μΌλ€μ΄ μλΉ λΆλΆ λ
Ήμ μλ€. κΉμ¨λ μ§μμ΄ μ΄λ €μμ§λ λ°λμ μ΄λ¦° μμ ν΄ λ³΄μ§ μμ μλ₯΄λ°μ΄νΈκ° μμ μ λμλ€.κΉμ¨λ μ§λ 2μ νκ΅λ¬Ένμμ μμνμ μμΈ νλ¦°μ€νΈν
μ΄ νμνλ μ°½μμ§νμ€ μ
μ£Όμκ° νλ‘κ·Έλ¨μ μ μ λΌ ν λ¬ λμ νΈν
μμ μ§νμ μ λ
νλ€. νΈν
μμ νμ μ‘μ λνμ μμ νΈν
μ£Όλ°©μμ μ€κ±°μ§νλ κΈ°μ΅μ΄ λ μ¬λλ€. βνΈν
μμ κΈμ μ°λ μλ μκ°μ΄ λμ κΈ°λΆμ΄ λ¬νμ΄μ. νΈν
μμ μΌν λλ μ λ¬ΈμΌλ‘ λ€μ΄κ° μλ μλ μ μΈμλλ° λ§μ΄μ£ .β μ μ μκ°κ° λ λ€ λ ν° μ±
μκ°μ λλΌκ³ μλ€λ κ·Έλ μ΄λ¬ λ λ²μ§Έ μνμ νκ³ ν κ³νμ΄λ€.μ 3ν μ λΆλ¬Έ λΉμ μ κΉλ―Όμ¨ μ¨(37)λ λ±λ¨ μ΄μ κ³Ό λ³λ€λ₯Ό κ² μμ΄ λ³΄μ΄λ μΌμμ 보λ΄κ³ μλ€. νμ§λ§ κ·Έμκ²λ λΆλͺ
ν λ³νκ° μκ²Όλ€. βλ±λ¨ μ μλ μ’ νΈμνκ² μλ₯Ό μΌλλ° λ±λ¨ν λ€λ‘λ μ±
μκ° μκ² μλ₯Ό μ°λ €κ³ νλ€βκ³ κΉμ¨λ λ§νλ€. βκ·Έλμ λ μλ―Όν μνλ₯Ό μ μ§νλ €κ³ λ
Έλ ₯ν©λλ€. μλ₯Ό μΌλ€λ λ° λ§μ‘±νμ§ μκ³ μ΄ μλ₯Ό ν΅ν΄ 무μμ ν μ μμκΉ κ³ λ―Όνκ³ μμ΄μ.βμ 2ν μ λΆλ¬Έ λΉμ μ μ΄μμ° μ¨(32)λ βμνμ μ΄ μ¬λμ μ½λ μ¬λλ³΄λ€ μ£Όμ μ λν΄ λ κΉμ΄ μκ°ν μλ°μ μλ€βλ©° βμνμ μ°λ©΄μ λ΄ μμ μ΄ λ°λμ΄κ°λ κ²μ λλλ€βκ³ λ§νλ€.μ μΈ μκ°λ₯Ό λ°κ΅΄Β·μ‘μ±νκ³ λ¬Ένμ½ν
μΈ λ₯Ό λ°κ΅΄νκΈ° μν νκ²½ μ²λ
μ μΆλ¬Έμκ° 4νλ₯Ό λ§μλ€. μ 3νλΆν° λ§ 39μΈ μ΄νκΉμ§ μ°Έμ¬ν μ μλλ‘ νμ λνλ€. 20λ λνμλΆν° μκ°μ κΏμ λμ§ μμ 30λ μ§λ§μμκ²κΉμ§ λ¬Έμ΄ μ΄λ € μλ€.μ¬ν΄λ μ, μ₯νΈμμ€, μλλ¦¬μ€ λ± μΈ κ° λΆλ¬Έμμ μλ‘μ΄ μκ°λ₯Ό μ°Ύμ λμ λ€. μ₯νΈμμ€ λΆλ¬Έμ 3000λ§μμ μκΈμ μ€λ€. μκ³ λμ 200μ μκ³ μ§ κΈ°μ€ 1000μ₯ μνμ΄λ©° 10μ₯ λΆλμ μ€κ±°λ¦¬ μ€λͺ
μ λ°λ‘ μ μΆν΄μΌ νλ€. μλ 5νΈ μ΄μ μ μΆν΄μΌ νλ©°, μλλ¦¬μ€ μκ³ λ 400μ₯ μν(μλμμ€ 10μ₯ λ³λ)μ΄λ€. μμ μλλ¦¬μ€ μκΈμ 500λ§μμ©μ΄λ€.μκ³ λ A4 μ©μ§μ μΆλ ₯ν΄μ 보λ΄μΌ νλ€. μλͺ¨μμ κ³Όκ±°μ λ°ννκ±°λ μ
μν μ μ΄ μλ μμ μ°½μλ¬Όμ΄μ΄μΌ νλ€. λ€λ₯Έ 곡λͺ¨μ μ μ€λ³΅ ν¬κ³ ν΄ μ΄λ―Έ μ
μν μνμ΄κ±°λ νμ ν μ¬μ€μ΄ λ°νμ§λ©΄ λΉμ μ μ·¨μνλ€. λ΄ν¬μ βνκ²½ μ²λ
μ μΆλ¬Έμ μλͺ¨μνβμ΄λΌ μ κ³ μν 첫 μ₯κ³Ό λ§μ§λ§ μ₯μ μλͺ¨ λΆλ¬Έ, μ΄λ¦(νλͺ
μΌ κ²½μ° λ³Έλͺ
λ³κΈ°), μ£Όμ, μ νλ²νΈ, μκ³ λ(200μ μκ³ μ§ κΈ°μ€), μ£Όλ―Όλ±λ‘μ μλ
μμΌμ λͺ
μν΄μΌ μ μ μλͺ¨μμΌλ‘ μ μνλ€. λͺ¨λ μκ³ λ λ°ννμ§ μλλ€.',
'νμ€ν κ²½λ¨μ§μ¬(μ¬μ§)κ° μΆμ²λ₯Ό μμ¬λ°κ³ μλ 2011λ
6μ λΉ λν κ²½μ κΈ°νκΈ 1μ΅2000λ§μμ λν΄ βμλ΄κ° λμ¬κΈκ³ λ₯Ό ν΅ν΄ κ΄λ¦¬ν λΉμκΈμμ λμ¨ λβμ΄λΌκ³ 11μΌ λ°νλ€. κ²μ°°μ κ·Έλ¬λ μ΄λ―Έ μ§λ 8μΌ μ‘°μ¬μμ ν μ§μ¬μ μ΄ κ°μ μ§μ μ΄ μ±μμ’
μ κ²½λ¨κΈ°μ
νμ₯ μΈ‘μΌλ‘λΆν° 1μ΅μμ λ°μλ€λ νμλ₯Ό λ°λ°ν μμ€μ λͺ» λλ€κ³ νλ¨ν κ²μΌλ‘ μ ν΄μ‘λ€.ν μ§μ¬λ μ΄λ κ²½μλ¨λμ² μνμμ€μμ βμ±μμ’
리μ€νΈβ κ²μ°° μμ¬μ κ΄λ ¨ν΄ κΈ°μκ°λ΄νλ₯Ό μ΄κ³ βλ³νΈμ¬λ₯Ό 11λ
λμ νλ©° νμ λ¨Ήκ³ μ΄ λ§νΌμ λμ λͺ¨μκ³ , 2008λ
μ¬λΉ μλ΄λνλ₯Ό ν λ κ΅ν μ΄μμμμ₯μ κ²Έν΄ λ§€λ¬ κ΅ν λμ±
λΉλ‘ λμ€λ 4000λ§~5000λ§μμ μ λΆ νκΈνν΄μ κ΅ν λμ±
λΉλ‘ μ°κ³ λ¨μ λμ μ§μ¬λμκ² μνλΉλ‘ μ£Όκ³€ νλ€βκ³ λ§νλ€. μ λ κ²μ°° νΉλ³μμ¬ν(νμ₯ λ¬Έλ¬΄μΌ κ²μ¬μ₯)μ΄ ν μ§μ¬κ° κ²½μ μκΈ λΆλΆμ λͺ
νν μλͺ
νμ§ λͺ»νλ€κ³ λ°ν λ° λν λ°λ°μ΄λ€. ν μ§μ¬λ λ βκ²μ°°μ μΌμ νλ₯Ό μ μΆνμ§ μμλ€βλ©° βμ°λ¦¬κ° μΌμ νλ₯Ό λ¨Όμ μ μΆνμ λ (1μ΅μμ μ λ¬νλ€λ) μ€λͺ¨μ¨κ° κ·Έ μΌμ μ λΌμλ£μ΄ λμ μ£Όμλ€κ³ νλ©΄ λλ¦¬κ° μκΈ° λλ¬Έβμ΄λΌκ³ λ§νλ€. κ·Έλ¬λ©΄μ μ€μ¨μ βλ°°λ¬μ¬κ³ β κ°λ₯μ±μ λν΄μλ μΈκΈνλ€.μ΄μ κ΄λ ¨, κ°ν¬μ© μμ μΉλ―Όμ£Όμ°ν© λΆλλ³μΈμ λ
Όνμ ν΅ν΄ βμλ΄λν λΉμ μλ Ήν μμ²λ§μμ κ΅ν μ΄μλΉλ₯Ό μνλΉλ‘ μ€ κ²μ λͺ
λ°±ν κ³΅κΈ ν‘λ Ήβμ΄λΌλ©° βλΆμΈμ΄ κ΄λ¦¬νλ λΉμκΈμ 곡μ§μ μ¬μ°μ κ³ μ μλ
κ° μμ΅μ μΌλ‘ κ³ μ λλ½νλ€λ©΄ 곡μ§μμ€λ¦¬λ² μλ° νμλ μΆκ°λλ€βκ³ μ§μ νλ€.κ²μ°°μ κ΅νμμ μμ ν μ§μ¬κ° λ§€λ
μ¬μ° λ³λ λ΄μμ μ κ³ ν λ΄μ©κ³Ό κΈμ΅κ³μ’ μ
μΆκΈ λ΄μ λ±μ λΆμν κ²°κ³Ό ν μ§μ¬μ μ΄ κ°μ μ£Όμ₯μ΄ νμλ₯Ό λ€μ§μ§ λͺ»νλ€κ³ κ²°λ‘ λ΄λ¦° κ²μΌλ‘ μλ €μ‘λ€.',
'μμΌλ‘ λͺ¨νΌμ(μ μ¬λ¬΄λΆ μΆμ λνμ° μΈμ¬)μ κΈνΌμ(κΈμ΅κ°λ
μ μΆμ λνμ° μΈμ¬)μ κΈμ΅κΆ μ΄λμ΄ μ°¨λ¨λ κ°λ₯μ±μ΄ λμμ‘λ€. μ΅κ·Ό μ¬κ°μ μΈμνΈ μ°Έμ¬μ μ£Όμ μμΈμΌλ‘ μ λΆ κ³ μ κ΄λ£λ€μ κ°μ’
ννμ μ‘°ν©μΌλ‘μ βλνμ°βμ μ΄λμ΄ μ§λͺ©λκ³ μλ μν©μμ λ°κ·Όν λν΅λ ΉκΉμ§ βμ κ΄κΈ°κ΄μ ν΄μ§ 곡μ§μκ° κ°μ§ λͺ»νλλ‘ νλ λ± κ΄λ ¨ μ λλ₯Ό κ·Όλ³Έμ μΌλ‘ μμ νλΌβκ³ μ§μνκΈ° λλ¬Έμ΄λ€. 29μΌ κΈμ΅κΆμ λ°λ₯΄λ©΄ νμ¬ κ³΅μμ΄μ§λ§ κΈ°νμ¬μ λΆ μΆμ κ³ μ κ΄λ£λ€λ‘ λ΄μ λλ μν΄λ³΄ννν νμ₯κ³Ό μ£ΌνκΈμ΅κ³΅μ¬ μ¬μ₯ μλ¦¬κ° λΆν¬λͺ
ν΄μ§κ³ μλ€. μμΌλ‘ λ κΈ°κ΄ μΈ λ€λ₯Έ κΈμ΅κΈ°κ΄μΌλ‘λ κΈ°μ¬λΆμ κΈκ°μ μΆμ κ°λΆλ€μ μ΄λμ΄ μ΄λ €μΈ κ²μΌλ‘ 보μΈλ€. μμ μ§λν΄ λμ μ¬νμ μ΅κ·Ό μΉ΄λμ¬ μ 보 μ μΆ μ¬νκ° ν°μ§λ©΄μ κΈμ΅μμνμ κΈκ°μ κ³ μμ§μ κΈμ΅μ¬ μ΄λμ λν λΉλμ΄ λμ΄μ§ μμλ€. μ΄μ λ°λΌ κ·Έλμ κ³ μ 곡무μλ€μ΄ ν΄μ§ ν μ¬μ·¨μ
μ νμ΄ λνλ κΈμ΅κΆ μ΄λμ΄ λ§νλ©΄μ κΈ°μ¬λΆ, κΈμ΅μ, κΈκ°μμ μΈμ¬ μ μ²΄κ° λμ± μ¬ν΄μ§ κ²μΌλ‘ μμλλ€. κ·Έλμ κΈμ΅κΆμ μΌλΆ μμ§μ λͺ¨νΌμμ κΈνΌμκ° μ°¨μ§νκ³ μμ΄ μ΄λ° κ΄νμ μμ μΌ νλ€λ μ£Όμ₯μ΄ κΎΈμ€ν μ κΈ°λλ€. μμλ‘ KBκΈμ΅μ§μ£Ό νμ₯μ μ¬μ κ²½μ λΆ(ν κΈ°μ¬λΆ) μ 2μ°¨κ΄, μμ’
룑 λνκΈμ΅μ§μ£Ό νμ₯μ κΈ°μ¬λΆ 1μ°¨κ΄ μΆμ μ΄λ€. μ΅κ·μ° μ μΆμνμ€μνμ₯μ κΈμ΅μ μ¦κΆμ λ¬Όμμν μμμμ, κΉκ·Όμ μ¬μ κΈμ΅ννμ₯μ κΈ°μ¬λΆ κ΅κ³ κ΅μ₯, νμλ§ μμ°κ΄λ¦¬κ³΅μ¬ μ¬μ₯μ κΈμ΅μ μμμμ, μ§μ
μ μ μ±
κΈμ΅κ³΅μ¬ μ¬μ₯μ κΈμ΅μ κΈμ΅μ 보λΆμμμ₯ λ±μ μμνλ€. λ°λ³μ μνμ°ν©νμ₯μ μ¬κ²½λΆ 1μ°¨κ΄, κΉκ·λ³΅ μλͺ
보νννμ₯μ μ¬κ²½λΆ κΈ°νκ΄λ¦¬μ€μ₯, κΉμ£Όν μκΈλ³΄νκ³΅μ¬ μ¬μ₯μ κΈμ΅μ μ¬λ¬΄μ²μ₯μ΄μλ€. μ‘°μ±ν λ‘―λ°μΉ΄λ κ°μ¬μ μ κΈ°ν νκ΅μ€ν λ€λμ°¨νλ(SC)μν κ°μ¬μμν λνλ κΈκ°μ μΆμ μ΄λ€. ν μμ€μν κ΄κ³μλ βκ΄λ£ μΆμ μ΄ κΈμ΅μ
κ³λ‘ μ€λ κ²μ λ§μλ μ μΉμΈ μΆμ μ΄ κ·Έ μ리λ₯Ό λ©μΈ κ² κ°μ μ°λ €λλ€βκ³ λ§νλ€. μ€μ μ΅κ·Ό μκΈλ³΄νκ³΅μ¬ κ°μ¬μλ λ¬Έμ ν μ μλλ¦¬λΉ μΆ©λ¨λλΉ μμ°Β·νμλΉμνμν μμμ₯, κΈ°μ 보μ¦κΈ°κΈ κ°μ¬μλ λ°λν΄ μ μλλ¦¬λΉ μμμ΄ μ μλλ€. κΉμ£Όμ κΈ°μ [email protected]',
]
)
# [{'corpus_id': ..., 'score': ...}, {'corpus_id': ..., 'score': ...}, ...]
```
<!--
### Direct Usage (Transformers)
<details><summary>Click to see the direct usage in Transformers</summary>
</details>
-->
<!--
### Downstream Usage (Sentence Transformers)
You can finetune this model on your own dataset.
<details><summary>Click to expand</summary>
</details>
-->
<!--
### Out-of-Scope Use
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->
## Evaluation
### Metrics
#### Cross Encoder Correlation
* Evaluated with [<code>CECorrelationEvaluator</code>](https://sbert.net/docs/package_reference/cross_encoder/evaluation.html#sentence_transformers.cross_encoder.evaluation.CECorrelationEvaluator)
| Metric | Value |
|:-------------|:-----------|
| pearson | 0.9824 |
| **spearman** | **0.8648** |
<!--
## Bias, Risks and Limitations
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->
<!--
### Recommendations
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 35,108 training samples
* Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>label</code>
* Approximate statistics based on the first 1000 samples:
| | sentence_0 | sentence_1 | label |
|:--------|:-----------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------|:------------------------------------------------|
| type | string | string | int |
| details | <ul><li>min: 11 characters</li><li>mean: 29.18 characters</li><li>max: 66 characters</li></ul> | <ul><li>min: 501 characters</li><li>mean: 1000.46 characters</li><li>max: 2030 characters</li></ul> | <ul><li>0: ~51.40%</li><li>1: ~48.60%</li></ul> |
* Samples:
| sentence_0 | sentence_1 | label |
|:----------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------|
| <code>μ μ§κ΅μ΄ μΈκ΅ κΈ°μ
μ λμ°νκΈ° μν μ λλ?</code> | <code>νμ€μ λΆμ΄λ¦¬ κ²Έ κΈ°νμ¬μ λΆ μ₯κ΄μ΄ μ€μκΈ°μ
보νΈλ₯Ό μν΄ κ³΅κ³΅μ‘°λ¬ μμ₯μμ βκ΅λ΄μΈ λκΈ°μ
μ λν λλ± κ·μ β μμΉμ λ°νμ λ°λΌ μ λΆκ° μΈλΆ κ·μ λ°©μ λ§λ ¨μ λ€μ΄κ°λ€. μ λΆλ νΉν μ΄ κ°μ κ·μ λ μΈκ΅ κΈ°μ
λ§μ λμμΌλ‘ ν κ·μ μ λ¬λ¦¬ μΈκ³λ¬΄μ기ꡬ(WTO) 43κ° κ°μ
κ΅μ΄ λ§Ίκ³ μλ μ λΆμ‘°λ¬νμ (GPA)μ μλ°°λμ§ μλλ€λ μ
μ₯μ λΆλͺ
ν νλ€. βΆλ³Έμ§ 11μ11μΌμ A1, 3λ©΄ μ°Έκ³ βμ λΆ, β곡곡μμ₯ μμ°¨λ³ μμ βκΈ°μ¬λΆ κ΄κ³μλ 11μΌ βλ΄λΆ κ²ν κ²°κ³Ό κ΅λ΄ λκΈ°μ
κ³Ό μΈκ΅ λκΈ°μ
μ λλ±νκ² κ·μ νλ κ²μ κ΅μ μ μΌλ‘ λ¬Έμ κ° μ λλ€βλ©° βμ μ§κ΅λ μΈμ μ§μ, μ§μ
μ₯λ²½ μ€μΉ, μ¬μ μ§μ λ±μ ν΅ν΄ μκ΅ μ€μκΈ°μ
μ 100% 보νΈνκ³ μλ€βκ³ λ§νλ€. μΈκ΅ κΈ°μ
μ μ°¨λ³ λμ°νλ©΄ λ¬Έμ κ° λμ§λ§ κ·Έλ μ§ μμΌλ©΄ κ΅μ λ²μ λ¬Έμ κ° μλ€λ κ²μ΄λ€.μ΄ κ΄κ³μλ μ΄μ΄ βμ€μκΈ°μ
보νΈλ₯Ό μν΄ κ΅λ΄ λκΈ°μ
μ λ°°μ νλλ° (κ΅λ΄ λκΈ°μ
λ³΄λ€ λ©μΉκ° ν°) μΈκ΅κ³ λκΈ°μ
μ΄ λ€μ΄μ€λ 건 λ¬Έμ κ° μλ€λ μ μ΄ κ΅μ κ°μ¬μμλ μ¬λ¬ λ² μ§μ λλ€βλ©° βμ΄λ° νμμ λ°©μΉν μ μλ€λ κ² μ λΆ λ°©μΉ¨βμ΄λΌκ³ κ°μ‘°νλ€. μΌλΆμμ βμΈκ΅κ³ λκΈ°μ
κ·μ κ° κ΅λ΄ μμ₯μ μ§ν€λ €λ€ ν΄μΈ μμ₯μ μλ μ‘°μΉ μλλβλ μ§μ μ΄ λμ€λ λ° λν΄μλ βν΄μΈ μμ₯ ν¬κΈ°κ° μλλΌ κ΅λ΄ κΈ°μ
μ΄ λ°λ μμ°¨λ³ ν΄μ μ°¨μβμ΄λΌκ³ μ κ·Ή λ°λ°νλ€. μ€μκΈ°μ
μ μν΄ λ¨κ²¨λ μ리λ₯Ό μΈκ΅κ³ κΈ°μ
μ΄ μΉκ³ λ€μ΄μ€λ©΄ κ΅λ΄ λκΈ°μ
μ΄ μμ°¨λ³μ λ°λ κ²μ λ¬Όλ‘ μ€μκΈ°μ
μ¬μ΄μμλ βμΈκ΅κ³ κΈ°μ
κ³Ό μ ν΄λ₯Ό νλλ λͺ»νλλβμ λ°λΌ κ³΅κ³΅μ‘°λ¬ μμ₯μμ μ°¨λ³μ λ°μ μ μλ€λ μ΄μ μμλ€. κΈ°μ¬λΆλ μ΄μ λ°λΌ μ‘°λ§κ° μ°μ
ν΅μμμλΆ μ€μκΈ°μ
μ² μ‘°λ¬μ² λ± κ΄κ³λΆμ²μ νμν΄ ν λΆμ΄λ¦¬κ° λ°ν κ·μ λ°©μμ λ€λ¬λ μμ
μ λμκΈ°λ‘ νλ€. κΈ°μ¬λΆ λ΄λΆμ μΌλ‘λ μ΄λ―Έ μ§λμ£Όμ κ²ν μμ
μ ν μ°¨λ‘ νλ€. ν΅μ 주무λΆμ²μΈ μ°μ
λΆλ μ΄λ―Έ λ΄λΆμ μΌλ‘λ μ΄ κ°μ κ΅λ΄μΈ λλ± κ·μ λ WTO νμ μ μλ°°λμ§ μλλ€λ νλ¨μ λ΄λ Έλ€. μ°μ
λΆμ κ΄κ³μλ βμ€μκΈ°μ
보νΈλ₯Ό μν μμΈ μ μ©μ μ ...</code> | <code>1</code> |
| <code>μλ μ΄ μ€μ€λ‘ μνλ₯Ό μ μν μ μμμ μ
μ¦νμ¬ μΉλΆμμ μ΄κΈ΄ μλλ λꡬμΈκ°?</code> | <code>βλ§λ
Έμ€: μ΄λͺ
μ μβμ μλ μ κ³ ν₯μΈ ν
μ¬μ€μ£Ό μ νμμ μλ μΉ΄ν리 κ·Ήμ₯μμ 1966λ
11μ 15μΌ μμ¬νλ₯Ό κ°μ‘λ€. μλ μ μμ¬νμ μ°λ €κ³ μμΉλΌμ΄νΈλ₯Ό ꡬνμΌλ©° ν리μ°λ λΆμκΈ°λ₯Ό λ΄κΈ° μν΄ μΊμ€νΈκ° ν 리무μ§μ λμ¬νλ€. νμ§λ§ λ¦¬λ¬΄μ§ ν λ λ°μ λμ¬κ° μ λμμΌλ―λ‘, μΊμ€νΈλ₯Ό λ°μΌλ‘ λλμ΄ ν κ·Έλ£Ήμ μμ¬νλ‘ νμ°κ³ , λ€μ 리무μ§μ λλ € κΈ°λ€λ¦¬κ³ μλ λλ¨Έμ§ κ·Έλ£Ήμ κ·Όμ² λͺ¨νμ΄μμ νμ°κ³ μμ¬νλ‘ λ°λ €μμΌνλ€. μμ¬νμλ μμ₯, μ§μ 보μκ΄ λ± μ§μμ μ£Όμ μΈμ¬λ€μ΄ λ€μ μ΄λλμλ€. μνκ° μμν μ§ μΌλ§ μ§λμ§ μμ, μμ¬νμ₯μ μμμΌλ‘ κ°λμ°Όλ€. μλ κ³Ό λλ¨Έμ§ μΆμ°μ§μ λ―Όλ§ν΄μ§ μ±λ‘ μ¬λΉ¨λ¦¬ μΆκ΅¬λ₯Ό ν΅ν΄ λΉ μ Έλκ°λ€. μμ¬ν ν, μλ μ μμ μ΄ λ³΄κΈ°μλ βλ§λ
Έμ€βκ° μ΅μ
μ μνλΌκ³ μκ°νμ§λ§ κ·Έλλ μλμ€λ½λ€κ³ λ°νλ€. λν, μλ§ λ€λ¬μΌλ©΄ μ¬λ°λ μ½λ―Έλ μνλ‘ λ§λ€ μ μμ κ² κ°λ€λ μκΈ°λ μΈν°λ·°μμ νμλ€<br><br>μ΄ μνλ μλ¨Έμ¨ μ¬κ° λ°°ν¬λ₯Ό λ§‘μλ€. λν μΉ΄ν리 κ·Ήμ₯μμ μ μ λμ μμλμμΌλ©°, ν
μ¬μ€ μλΆμ λλΌμ΄λΈμΈ κ·Ήμ₯μμλ μμμ΄ λμλ€. μ΄λ€ λ³΄κ³ μ λ°λ₯΄λ©΄ μμ
μ λκ°λ₯Ό λ°μ μ€νμ μν€ λλ¨Ό μ‘΄μ€μ κ·Έλ
μ κ°μμ§ λΏμ΄μμΌλ©°, κ·Έ λκ°λ μμ κ±°μ λ€λμ κ°μμ§ μμμ΄μλ€κ³ νλλ°, μ΄λ μνκ° μ¬μ μ μΌλ‘ μΌλ§λ ν¬κ² μ€ν¨νλμ§λ₯Ό 보μ¬μ€λ€ 곡μ λ°μ€μ€νΌμ€ μ§κ³λ μλ €μ Έμμ§ μλ€. μνμ λν λ°μμ μ’μ§ μμμΌλ, μλ μ μμ μ΄ νΌμ μνλ₯Ό λ§λ€ μ μμμ μ¦λͺ
νμ¬, μ€νΈλ§ μ€λ¦¬ννΈμμ λ΄κΈ°μμ μΉλ¦¬νμλ€</code> | <code>1</code> |
| <code>μ₯νΈμμ€ λΆμΌμ μ§μν λ, μν μΈμ λ³λλ‘ μ¨μΌ νλ κΈμ λͺ μ₯μΈκ°?</code> | <code>λΆμ°λ μ² νκ³Όμ λ€λλ νμ€μ± μ¨(24)λ μ§λν΄ κ°μ νμ μ λΆμΌλ‘ μ 3ν νκ²½ μ²λ
μ μΆλ¬Έμμ λ¬Έμ λλλ Έλ€. νμ¨λ μ² νκ³Ό μ±
μ μ’μνλ νλ²ν νμμ΄μλ€. μ μΆλ¬Έμ μ₯νΈμμ€ λΆλ¬Έμ λΉμ λλ©° κ·Έμ μΆμ λ³νλ€. μκΈμ μ¬λΉ μΌμ μ κ΅μ μ¬ννλ©° μ΄μΌκΈ°λ₯Ό μμ§νλ€. κ°μ νΈλ¨ μλ¨ λ± μμ¬μ λΉκ·Ήμ μ§λ κ³³μ μ°Ύμλ€λλ©° μ΄μΌκΈ°λ₯Ό λ€μλ€. λΉμ μ κΉμ§λ§ ν΄λ λ§νκΈ°λ₯Ό μ’μνλ μ μ μ²λ
μ μ΄λμ νμΈμ λ§μ κ· κΈ°μΈμ¬ λ£λ μ μ μκ°λ‘ λ³μ νλ€. νμ¨λ μ¬ν΄ λ¬Ένλλ€ μκ°μ λ³Έμ¬μ μ΄λ¦μ μ¬λ¦¬λ λ± μ μΆλ¬Έμ λΉμ μ΄ μ°μ°μ΄ μλμμμ μ¦λͺ
ν΄ λκ°κ³ μλ€. κ·Έμ μ²λ
μ μΆλ¬Έμ λΉμ μ μ΄λ±μ κ³λ³΄(μνλ무)λ ν΄κ³ λ₯Ό κ±°λν΄ μ΄λ¬ μ μ μΆκ°λλ€.μ’μ μνμ κ·Έκ²μ μ½λ μ¬λμ μΈμμ λ¬Όλ‘ λ§λ μ¬λμ μΈμλ λ°κΎΌλ€. κ°μ₯ μ’μ μ¬λ‘κ° μ μΆλ¬Έμλ€. λ¬Έν μ§λ§μμΌλ‘μ λμλ μ΅μμ λλ μ 보λ΄λ μ΄λ€μ μ μΆλ¬ΈμλΌλ κ΄λ¬Έμ κ±°μ³ μκ°λ‘ λ³μ νλ€.μ 2ν μ₯νΈμμ€ λΉμ μμΈ κΉμκ²½ μ¨(36)μ λΉμ μ μ²μΆνμ°(λ―Όμμ¬)μ μ μ μΈλκ° κ²ͺλ μ΄λ €μμ μμ§νκ² ννν΄ νΈνλ°μ μνμ΄λ€. μ΄ μμ€μλ κΉμ¨κ° κ²ͺμ μΌλ€μ΄ μλΉ λΆλΆ λ
Ήμ μλ€. κΉμ¨λ μ§μμ΄ μ΄λ €μμ§λ λ°λμ μ΄λ¦° μμ ν΄ λ³΄μ§ μμ μλ₯΄λ°μ΄νΈκ° μμ μ λμλ€.κΉμ¨λ μ§λ 2μ νκ΅λ¬Ένμμ μμνμ μμΈ νλ¦°μ€νΈν
μ΄ νμνλ μ°½μμ§νμ€ μ
μ£Όμκ° νλ‘κ·Έλ¨μ μ μ λΌ ν λ¬ λμ νΈν
μμ μ§νμ μ λ
νλ€. νΈν
μμ νμ μ‘μ λνμ μμ νΈν
μ£Όλ°©μμ μ€κ±°μ§νλ κΈ°μ΅μ΄ λ μ¬λλ€. βνΈν
μμ κΈμ μ°λ μλ μκ°μ΄ λμ κΈ°λΆμ΄ λ¬νμ΄μ. νΈν
μμ μΌν λλ μ λ¬ΈμΌλ‘ λ€μ΄κ° μλ μλ μ μΈμλλ° λ§μ΄μ£ .β μ μ μκ°κ° λ λ€ λ ν° μ±
μκ°μ λλΌκ³ μλ€λ κ·Έλ μ΄λ¬ λ λ²μ§Έ μνμ νκ³ ν κ³νμ΄λ€.μ 3ν μ λΆλ¬Έ λΉμ μ κΉλ―Όμ¨ μ¨(37)λ λ±λ¨ μ΄μ κ³Ό λ³λ€λ₯Ό κ² μμ΄ λ³΄μ΄λ μΌμμ 보λ΄κ³ μλ€. νμ§λ§ κ·Έμκ²λ λΆλͺ
ν λ³νκ° μκ²Όλ€. βλ±λ¨ μ μλ μ’ νΈμνκ² μλ₯Ό μΌλλ° λ±λ¨ν λ€λ‘λ μ±
μκ° μκ² μλ₯Ό μ°λ €κ³ νλ€βκ³ κΉμ¨λ λ§ν...</code> | <code>1</code> |
* Loss: [<code>BinaryCrossEntropyLoss</code>](https://sbert.net/docs/package_reference/cross_encoder/losses.html#binarycrossentropyloss) with these parameters:
```json
{
"activation_fn": "torch.nn.modules.linear.Identity",
"pos_weight": null
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `per_device_train_batch_size`: 16
- `per_device_eval_batch_size`: 16
- `num_train_epochs`: 1
#### All Hyperparameters
<details><summary>Click to expand</summary>
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: no
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 16
- `per_device_eval_batch_size`: 16
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 5e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1
- `num_train_epochs`: 1
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.0
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `bf16`: False
- `fp16`: False
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: False
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `parallelism_config`: None
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch_fused
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `project`: huggingface
- `trackio_space_id`: trackio
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `hub_revision`: None
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: no
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `liger_kernel_config`: None
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: True
- `prompts`: None
- `batch_sampler`: batch_sampler
- `multi_dataset_batch_sampler`: proportional
- `router_mapping`: {}
- `learning_rate_mapping`: {}
</details>
### Training Logs
| Epoch | Step | Training Loss | spearman |
|:------:|:----:|:-------------:|:--------:|
| -1 | -1 | - | -0.0070 |
| 0.2278 | 500 | 0.2184 | - |
| 0.4556 | 1000 | 0.0722 | - |
| 0.6834 | 1500 | 0.0663 | - |
| 0.9112 | 2000 | 0.0545 | - |
| -1 | -1 | - | 0.8648 |
| 0.2278 | 500 | 0.0512 | - |
| 0.4556 | 1000 | 0.0454 | - |
| 0.6834 | 1500 | 0.0445 | - |
| 0.9112 | 2000 | 0.037 | - |
| 0.2278 | 500 | 0.0124 | - |
| 0.4556 | 1000 | 0.016 | - |
| 0.6834 | 1500 | 0.018 | - |
| 0.9112 | 2000 | 0.017 | - |
### Framework Versions
- Python: 3.12.3
- Sentence Transformers: 5.1.2
- Transformers: 4.57.3
- PyTorch: 2.8.0+cu128
- Accelerate: 1.12.0
- Datasets: 4.4.1
- Tokenizers: 0.22.1
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
```
<!--
## Glossary
*Clearly define terms in order to be accessible across audiences.*
-->
<!--
## Model Card Authors
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->
<!--
## Model Card Contact
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
--> |