MagnusSa commited on
Commit
c68c597
1 Parent(s): 2840364

Add new SentenceTransformer model.

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": true,
4
+ "pooling_mode_mean_tokens": false,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,1226 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ base_model: ltg/norbert3-base
3
+ datasets: []
4
+ language:
5
+ - 'no'
6
+ library_name: sentence-transformers
7
+ license: apache-2.0
8
+ metrics:
9
+ - cosine_accuracy@1
10
+ - cosine_accuracy@3
11
+ - cosine_accuracy@5
12
+ - cosine_accuracy@10
13
+ - cosine_precision@1
14
+ - cosine_precision@3
15
+ - cosine_precision@5
16
+ - cosine_precision@10
17
+ - cosine_recall@1
18
+ - cosine_recall@3
19
+ - cosine_recall@5
20
+ - cosine_recall@10
21
+ - cosine_ndcg@10
22
+ - cosine_mrr@10
23
+ - cosine_map@100
24
+ pipeline_tag: sentence-similarity
25
+ tags:
26
+ - sentence-transformers
27
+ - sentence-similarity
28
+ - feature-extraction
29
+ - generated_from_trainer
30
+ - dataset_size:136886
31
+ - loss:MatryoshkaLoss
32
+ - loss:MultipleNegativesRankingLoss
33
+ widget:
34
+ - source_sentence: Hvilket språk brukes i Kellsboken?
35
+ sentences:
36
+ - 'Trump buet ut på hjemmebane
37
+
38
+ President Donald Trump ble buet ut under en baseballkamp i Washington. På bildet
39
+ forlater han kampen før den er ferdigspilt. (Foto: Pablo Martinez Monsivais/AP/NTB
40
+ Scanpix)
41
+
42
+ Dette var første gang Trump-ekteparet har dristet seg til å gå på en baseballkamp
43
+ på hjemmebane i svært så demokratiske Washington, til tross for at Nationals''
44
+ hjemmebane ligger veldig nærme Det hvite hus.
45
+
46
+ Det ble ikke gjort noe stort nummer ut av at presidentparet skulle på kampen mellom
47
+ Washington Nationals og Houston Astros på Nationals Park. Det kunne Det hvite
48
+ hus godt ha gjort, sett i lys av at Donald Trump hadde gjort seg populær i USA
49
+ da han bare timer i forveien hadde kunngjort at amerikanske styrker hadde angrepet
50
+ skjulestedet til en av USA mest forhatte fiender.
51
+
52
+ Det USA-ledede angrepet medførte at IS-lederen Abu Bakr al-Baghdadi tok sitt eget
53
+ liv ved å utløse en bombevest da spesialstyrkene rykket inn i Idlib nordvest i
54
+ Syria.
55
+
56
+ «Lås ham inne!»
57
+
58
+ Trump-ekteparet vinket litt og smilte da de ankom kampen søndag, men det var først
59
+ i en av pausene den store reaksjonen kom.
60
+
61
+ Da skulle amerikanske krigshelter hylles på arenaen, men da videoen på storskjermen
62
+ sveipet over til Trump og følget hans, og det ble kunngjort hvem som var på besøk,
63
+ besvarte folkemengden det med unison buing og hyllesten til heltene ble på seksjoner
64
+ av tribunen plutselig til taktfaste rop av typen «Lås ham inne!», mens plakater
65
+ med «Veteraner støtter riksrett» og «Still Trump for riksrett» dukket opp.
66
+
67
+ Skjermer Trump
68
+
69
+ Presidentparet lot seg ikke affisere. Det forlot for øvrig kampen før den var
70
+ ferdigspilt.
71
+
72
+ Trumps stab har forsøkt å skjerme ham for situasjoner der han kan bli utsatt for
73
+ massiv buing og hetsing fra store menneskemengder, og han unngår spesielt slike
74
+ situasjoner i tettsteder og byer der flertallet av velgerne er demokrater, som
75
+ i Washington.
76
+
77
+ I District of Columbia, der Washington ligger, fikk han bare fire prosents oppslutning
78
+ under valget i 2016.'
79
+ - 'Foreldrekoden: Slik unngår du at familieferien kollapser
80
+
81
+ FOTO: Morten Uglum Psykolog og familieterapeut Hedvig Montgomery og journalist
82
+ Bjørn Egil Halvorsen er vertskap i Foreldrekoden.
83
+
84
+ Du har brent av alle feriepengene på hvit sand og palmesus, eller safari og klatre-action.
85
+ Og hva skjer? Klaging, syting og grining fra barna. Resultat: bitterhet og store
86
+ skuffelser. «Det var den ferien».
87
+
88
+ Jo da, det er lett å spenne forventningene høyt når familien skal på ferietur.
89
+ Fri. Avkobling. Alle skal kose seg sammen. Så: kollaps.
90
+
91
+ – Det handler om å legge forventningene på et levelig nivå, sier psykolog og familieterapeut
92
+ Hedvig Montgomery i sesongens siste episode av podkasten Foreldrekoden.
93
+
94
+ Hør episoden i Itunes her eller Spotify her.
95
+
96
+ Du kan også lytte i spilleren nedenfor:
97
+
98
+ Men hva innebærer det?
99
+
100
+ – Det du skal bruke tid på i forkant er å tenke over: «Passer ferien til den gjengen
101
+ vi er?»
102
+
103
+ Kort oppsummert:
104
+
105
+ Reiser du med barnehagebarn? Da handler det om å gjøre ferien langsom nok. Barna
106
+ må føle seg trygge på feriestedet. Ikke for mange og ikke for korte stopp underveis.
107
+
108
+ Reiser du med 10-åring? En gullalder. De synes fortsatt du er et fint reisefølge.
109
+ Og de er nysgjerrige og klare for å prøve nye ting.
110
+
111
+ På tur med tenåring? Straks mer utfordrende. De vil ikke nødvendigvis gjøre det
112
+ samme som dere «alltid har gjort». Et generelt råd: Sørg for trådløst nettverk!
113
+
114
+ Her er høydepunktene
115
+
116
+ Dette er bare noen av rådene som serveres i en sommerferie-spesial av Foreldrekoden.
117
+
118
+ I denne episoden får du vite hva du bør gjøre for å komme helskinnet gjennom.
119
+ Og hva du absolutt ikke bør gjøre.
120
+
121
+ God sommer!
122
+
123
+ Nedenfor finner du våre mest populære episoder denne sesongen
124
+
125
+ Vil du høre flere? Her er en samleside med alle episodene
126
+
127
+ Foreldrekoden har etablert en egen Facebook-gruppe for foreldre i alle aldre.
128
+ Her kan du få eksklusiv informasjon, få et innblikk bak spakene og være med å
129
+ diskutere temaer og få tips fra andre. Bli med!
130
+
131
+ Vi er selvsagt også på Instagram. Følg oss gjerne for bakgrunnsbilder og ekstra
132
+ info.'
133
+ - 'Kellsboken
134
+
135
+ Kellsboken (irsk: Leabhar Cheanannais) er en evangeliebok i form av en kodeks
136
+ av illuminerte manuskript fra 700- eller 800-tallet. Den er kjent for sine mange
137
+ og vakre illustrasjoner. Boken ble tidligere også kalt «Sankt Columbas bok»,
138
+ etter den hellige Columba av Iona. Den inneholder de fire evangeliene fra Det
139
+ nye testamente skrevet på latin. Evangelieteksten er hovedsakelig fra Vulgata,
140
+ skjønt også en del tekst fra tidligere versjoner av Bibelen som Vetus Latina,
141
+ den gammellatinske oversettelsen som Vulgata erstattet. I motsetning til mange
142
+ evangeliebøker som var beregnet for reiser, misjon eller for egen oppbyggelse,
143
+ var denne og andre store bind ment for alteret og til pryd for kirken.
144
+
145
+ Kellsboken er et mesterverk av irsk kunsthåndverk og kalligrafi, og representerer
146
+ høydepunktet innenfor insulære illuminerte manuskript i tidlig middelalder. Gerald
147
+ av Wales mente den var et verk, «ikke av mennesker, men av engler», og Umberto
148
+ Eco kalte den for «produktet til en kaldblodig hallusinasjonist.» Den blir også
149
+ regnet som en irsk nasjonalskatt. Illustrasjonene og ornamentene i boken overgår
150
+ tidligere irske evangeliebøker i prakt og kompleksitet. Dekorasjonene kombinerer
151
+ tradisjonell kristen ikonografi med de snirklete, komplekse motivene som er typisk
152
+ for insulær kunst. Manuskriptsidene er rikt dekorert med figurer av mennesker,
153
+ dyr og mytologiske uhyrer, sammen med keltiske knuter og flettverkmønstre i stimulerende
154
+ farger. Mange av de små dekorative elementene er gjennomsyret av kristen symbolisme,
155
+ og bidrar til å ytterligere framheve temaene i de større illustrasjonene.
156
+
157
+ Boken er skrevet på pergament av kalveskinn (vellum) og har 340 folioblader, siden
158
+ 1953 har manuskriptet vært innbundet i fire bind. Det er ti fullsideillustrasjoner,
159
+ men også tekstsidene er vakkert dekorert. Tekstsidene er smykket med forseggjorte
160
+ forstørrede initialer og miniatyrer mellom tekstlinjene. Teksten er skrevet med
161
+ insulær majuskelskrift, og synes å være utført av tre, kanskje fire, forskjellige
162
+ skrivere. Det er i hovedsak brukt et brunaktig jerngallusblekk, laget av knuste
163
+ eikenøtter og jernsulfat i en blanding med harpiks og vann, men også karbonblekk
164
+ er benyttet. Fargene er framstilt fra en lang rekke substanser, mange av dem importert
165
+ fra fjerne land.
166
+
167
+
168
+
169
+ '
170
+ - source_sentence: Hva går interiørarkitekt ut på?
171
+ sentences:
172
+ - Fullført og bestått opplæring fører fram til yrkeskompetanse. Yrkestittelen er
173
+ fotterapeut.
174
+ - 'Piloter (flygere) kan arbeide som pilot i fly eller helikopter i sivil luftfart
175
+ pilot i jagerfly spesialfly transportfly eller helikopter i Forsvaret pilot av
176
+ ubemannede luftfartøy (anvendelsesområdet for fjernstyrte luftfartøy er i sterk
177
+ vekst innen kommersiell og offentlig virksomhet og i Forsvaret) En vanlig trafikkflybesetning
178
+ består normalt av en kaptein og en styrmann i tillegg til kabinbesetningen om
179
+ bord på passasjerfly. For andre typer operasjoner og oppdrag kan det være behov
180
+ for medisinsk personell redningsspesialister eller «task specialists». Som kaptein
181
+ er du sjef i flyet og har ansvar for besetning passasjerer og last. Kapteinen
182
+ har ansvar for at flyet fungerer slik det skal og for at flygingen foregår etter
183
+ sikkerhetsreglene. Styrmannen er nestkommanderende og avløser kapteinen ved behov.
184
+ Vanlige arbeidsoppgaver kan være Sammen setter kaptein og styrmann opp reiseplanen
185
+ med spesifikasjoner for flyhastighet flyhøyde og flytid. På en vanlig tur flyr
186
+ gjerne en av pilotene flyet mens den andre overvåker flyvningen. Overvåkingen
187
+ omfatter blant annet håndtering av radio og kommunikasjon med flygeledere underveis
188
+ drivstoffkontroll og kontroll av alle brytere og spaker. Det endelige ansvaret
189
+ ligger alltid hos kapteinen. Piloter må gjennomgå jevnlige legeundersøkelser avhengig
190
+ av alder. De må også gjennomføre jevnlige treningsprogram blant annet simulatortrening.
191
+ Siden engelsk er et arbeidsspråk innen flytrafikk må du som pilot ha meget gode
192
+ engelskkunnskaper. '
193
+ - 'Som interiørarkitekt planlegger og tegner du innvendige rom i bygninger. Arbeidet
194
+ utføres både når nye bygg skal bygges og ved endringer i eldre bygg. Interiørarkitekten
195
+ arbeider med alt fra boliger til helse- undervisnings- nærings- og kulturbygg.
196
+ Noen driver også med spesialdesign det vil si design av møbler og andre romkomponenter
197
+ til enkeltprosjekter. En interiørarkitekt bidrar til god infrastruktur og utvikler
198
+ løsninger basert på brukernes behov og ønsker. Vanlige arbeidsoppgaver for en
199
+ interiørarkitekt sørge for helhetlig planlegging og utforming av rom. Det innebærer
200
+ at rom materialer farger og møblering ses i sammenheng og at interiør og arkitektur
201
+ samspiller best mulig prosjektere (tegne beskrive og beregne) interiørløsninger
202
+ og endringer i bygg oftest ved hjelp av dataprogrammer utføre behovsanalyser og
203
+ lede brukermedvirkningsprosesser det vil si prosesser der brukerne av bygget kommer
204
+ med sine ønsker utarbeide farge- og materialpaletter planlegge belysning velge
205
+ møbler og tekstiler designe skreddersydde løsninger gjøre kostnadsberegninger
206
+ innhente anbud og bestille leveranser prosjektledelse Interiørarkitekten samarbeider
207
+ med oppdragsgiver byggherre arkitekt og andre fagfolk. Interiørarkitekter kan
208
+ også jobbe med mye av det samme som en interiørkonsulenter men interiørarkitekter
209
+ har lengre utdanning og kan ofte påta seg større oppdrag. En interiørarkitekt
210
+ må også til en hver tid holde seg oppdatert på lover og normer. Norske interiørarkitekters
211
+ og møbeldesigneres landsforening (NIL) autoriserer interiørarkitekter på masternivå.
212
+ Med autorisasjon fra NIL kan du kalle deg interiørarkitekt MNIL. '
213
+ - source_sentence: Hvordan bli 1 maskinist?
214
+ sentences:
215
+ - 'Vi kan dele politiyrket i to hovedgrupper Politibetjent Politibetjenten er utdannet
216
+ ved Politihøgskolen og har en rekke arbeidsoppgaver i politiet. Arbeidsoppgavene
217
+ er avhengig av hvilken enhet politibetjenten jobber i eksempler på enheter kan
218
+ være Etterforskning Patrulje UP (trafikkpolitiet) Forebyggende Les mer om hvordan
219
+ det er å jobbe som politibetjent Les mer om hvordan det er å jobbe som etterforsker
220
+ Politijurist Politijuristen er utdannet jurist og arbeider med påtalemessige oppgaver
221
+ deriblant å lede etterforskning og fungere som aktor i retten. Politijurister
222
+ har ofte de ledende stillingene i politiet. Les mer om politijurist '
223
+ - 'Om bord på et skip kan det være flere i maskinbesetningen. Dette varierer etter
224
+ hvor stort maskineriet er. På større fartøy er det både 1. maskinist og 2. maskinister.
225
+ Fellesbetegnelsen for de som jobber som maskinist eller maskinsjef er maskinoffiser.
226
+ Som maskinist har du mulighet å jobbe på skip plattform eller på landanlegg der
227
+ det er behov for ansatte med maskinistutdanning. Som 1. maskinist er du maskinsjefens
228
+ nestkommanderende om bord og jobber i maskinrommet med å holde maskineriet i god
229
+ teknisk stand. Vanlige arbeidsoppgaver for maskinister daglig ansvar for drift
230
+ reparasjon overhaling og vedlikehold av maskineri og tekniske systemer på hele
231
+ fartøyet planlegge større og mindre vedlikeholdsarbeider vakthold i kontrollrom
232
+ hovedansvar for sikkerheten i maskinrommet bunkring (Fylle drivstoff) opplæring
233
+ av nye i maskinbesetningen I dette yrket må du være forberedt på å arbeide turnus
234
+ og kanskje være lengre perioder om bord for eksempel fire uker om bord fire uker
235
+ fri. Alle som skal jobbe på skip og andre flyttbare innretninger til havs må ha
236
+ en helseerklæring som viser at du kan jobbe om bord på et skip. Da skal en sjømannslege
237
+ sjekke blant annet syn hørsel din fysiske funksjonsevne. Dette gjelder også lærlinger
238
+ som skal jobbe om bord. '
239
+ - 'En førsteamanuensis er en vitenskapelig ansatt ved universitet og høgskoler.
240
+ For å kunne ansettes som førsteamanuensis må du ha doktorgrad eller tilsvarende
241
+ dokumentert kompetanse på et aktuelt fagområde. Vanlige arbeidsoppgaver for en
242
+ førsteamanuensis er utføre forskningsarbeid formidle og publisere forskningsresultater
243
+ veilede og undervise studenter redigere og vurdere andres vitenskapelige arbeider
244
+ samarbeide med myndigheter organisasjoner eller næringsliv om forskningsbaserte
245
+ løsninger og innovasjon Førsteamanuensisstillinger finnes innenfor alle typer
246
+ fagfelt og det er vanlig at du har spesialisert deg innen et eller flere områder
247
+ av fagfeltet. Du vil normalt samarbeide med andre fagpersoner på arbeidsstedet.
248
+ I andre land går førsteamanuensis under navn som associate professor eller senior
249
+ lecturer. '
250
+ - source_sentence: Hva tjener fysiker?
251
+ sentences:
252
+ - 'Vanlige arbeidsoppgaver for en stillasbygger montere ulike typer stillaser atkomster
253
+ arbeidsplattformer inndekking og andre midlertidige konstruksjoner rigge og stroppe
254
+ i forbindelse med montering og demontering av stillas Som stillasbygger jobber
255
+ du både på bakken og i høyden. Du må kunne lese arbeidstegninger og framdriftsplaner.
256
+ Stillasbyggeren er viktig i arbeidet med å forebygge ulykker på byggeplasser.
257
+ Økende krav til bygg og installasjoner gjør at stillasbygging blir stadig mer
258
+ komplisert. Det øker i sin tur kravet til stillasmontørens kompetanse når det
259
+ gjelder både teknikk fagkunnskaper og helse miljø og sikkerhet (HMS). '
260
+ - 'En fysiker arbeider med fenomener og krefter som oppstår mellom materie og objekter
261
+ både rundt oss i hverdagen og i universet. Fysikk er grunnlag for mange fag og
262
+ dermed kan fysikere jobbe innenfor flere områder som for eksempel medisin og elektronikk.
263
+ Fysikere kan forske på alt fra fornybar energi til hva som skjer i hjernen vår.
264
+ Som fysiker lærer du å bruke verktøy som programmering og datasimuleringer og
265
+ å håndtere store datamengder og komplekse analyser. Vanlige arbeidsoppgaver for
266
+ en fysiker lage og teste modeller for å beskrive fysiske fenomener i naturen lage
267
+ og teste modeller for kompliserte prosesser innen industri og teknologi utvikle
268
+ nye instrumenter og måleteknikker blant annet for anvendelser innen medisin miljøovervåking
269
+ og energiteknologi Fysikeren bruker vitenskapelige metoder som eksperimenter teoretiske
270
+ modeller og matematiske simuleringer i arbeidet sitt. '
271
+ - 'Som dykker arbeider du under vann. I Norge deler vi yrkesdykking inn i to områder
272
+ innaskjærsdykking og dykking ved landanlegg eller i Nordsjøen. Det er vanlig å
273
+ spesialisere seg innen ett av disse områdene. Yrkesdykkere kan ha ulike bakgrunner
274
+ som for eksempel håndverksyrker (rørlegger sveiser og elektriker) ingeniør fotograf
275
+ dykkerinstruktør eller marin- og havforskning. I mange andre yrker er dykking
276
+ en del av jobben. Dette gjelder yrker som mannskap på redningsskøytene brannkonstabler
277
+ og arkeologer. Vanlige arbeidsoppgaver for yrkesdykkere innaskjærs anleggs- og
278
+ inspeksjonsarbeid av bruer kaier og rørledninger berging ved skipsforlis dykking
279
+ innen havbruk servicearbeid på skip registrering av marinarkeologiske funn som
280
+ vitenskapelig dykker Vanlige arbeidsoppgaver for yrkesdykkere til havs og ved
281
+ landanlegg service og inspeksjon på faste og flytende innretninger inspeksjoner
282
+ av olje- og gassrørledninger installasjoner ved utbygging av nye olje- og gassfelt
283
+ nedbygging av kalde olje- og gassfelt ei kommende næring er havvind Ved dykking
284
+ til havs er det nødvendig med videre utdanning som klokkedykker dersom dybden
285
+ overstiger 50 meter. En del av arbeidstiden vil også foregå over vann. Gjennomsnittlig
286
+ dykketid er på 100 timer i året. I dette yrket må du regne med en god del reising.
287
+ For dykkere som jobber innen bygg- og anleggsbransjen kan antall reisedøgn komme
288
+ opp i 250 i året. I Nordsjøen vil dette tallet være omtrent det halve dersom man
289
+ går i fast rotasjon. Det finnes flere jobbmuligheter hos dykkeentreprenører i
290
+ Norge. Noen dykkere går sammen og danner egne selskaper. Norske dykkere er ettertraktet
291
+ arbeidskraft også i utlandet. '
292
+ - source_sentence: 'Det vil si: at han har fått beskjed om Lord Julian Wade.'
293
+ sentences:
294
+ - Han ble på forhånd fortalt om Lord Julian Wades ankomst.
295
+ - Ikke en eneste person ble fortalt at Lord Julian Wade nærmet seg raskt.
296
+ - Han var ikke sikker på om de panikkmennene ville se ting annerledes enn Woverstone.
297
+ model-index:
298
+ - name: norsbert3-base-matryoshka
299
+ results:
300
+ - task:
301
+ type: information-retrieval
302
+ name: Information Retrieval
303
+ dataset:
304
+ name: dim 768
305
+ type: dim_768
306
+ metrics:
307
+ - type: cosine_accuracy@1
308
+ value: 0.13983050847457626
309
+ name: Cosine Accuracy@1
310
+ - type: cosine_accuracy@3
311
+ value: 0.423728813559322
312
+ name: Cosine Accuracy@3
313
+ - type: cosine_accuracy@5
314
+ value: 0.6165254237288136
315
+ name: Cosine Accuracy@5
316
+ - type: cosine_accuracy@10
317
+ value: 0.7796610169491526
318
+ name: Cosine Accuracy@10
319
+ - type: cosine_precision@1
320
+ value: 0.13983050847457626
321
+ name: Cosine Precision@1
322
+ - type: cosine_precision@3
323
+ value: 0.14124293785310732
324
+ name: Cosine Precision@3
325
+ - type: cosine_precision@5
326
+ value: 0.1233050847457627
327
+ name: Cosine Precision@5
328
+ - type: cosine_precision@10
329
+ value: 0.07796610169491525
330
+ name: Cosine Precision@10
331
+ - type: cosine_recall@1
332
+ value: 0.13983050847457626
333
+ name: Cosine Recall@1
334
+ - type: cosine_recall@3
335
+ value: 0.423728813559322
336
+ name: Cosine Recall@3
337
+ - type: cosine_recall@5
338
+ value: 0.6165254237288136
339
+ name: Cosine Recall@5
340
+ - type: cosine_recall@10
341
+ value: 0.7796610169491526
342
+ name: Cosine Recall@10
343
+ - type: cosine_ndcg@10
344
+ value: 0.43465961679856546
345
+ name: Cosine Ndcg@10
346
+ - type: cosine_mrr@10
347
+ value: 0.32635189669087955
348
+ name: Cosine Mrr@10
349
+ - type: cosine_map@100
350
+ value: 0.33416123485226257
351
+ name: Cosine Map@100
352
+ - task:
353
+ type: information-retrieval
354
+ name: Information Retrieval
355
+ dataset:
356
+ name: dim 512
357
+ type: dim_512
358
+ metrics:
359
+ - type: cosine_accuracy@1
360
+ value: 0.18220338983050846
361
+ name: Cosine Accuracy@1
362
+ - type: cosine_accuracy@3
363
+ value: 0.451271186440678
364
+ name: Cosine Accuracy@3
365
+ - type: cosine_accuracy@5
366
+ value: 0.6398305084745762
367
+ name: Cosine Accuracy@5
368
+ - type: cosine_accuracy@10
369
+ value: 0.7648305084745762
370
+ name: Cosine Accuracy@10
371
+ - type: cosine_precision@1
372
+ value: 0.18220338983050846
373
+ name: Cosine Precision@1
374
+ - type: cosine_precision@3
375
+ value: 0.1504237288135593
376
+ name: Cosine Precision@3
377
+ - type: cosine_precision@5
378
+ value: 0.12796610169491524
379
+ name: Cosine Precision@5
380
+ - type: cosine_precision@10
381
+ value: 0.07648305084745761
382
+ name: Cosine Precision@10
383
+ - type: cosine_recall@1
384
+ value: 0.18220338983050846
385
+ name: Cosine Recall@1
386
+ - type: cosine_recall@3
387
+ value: 0.451271186440678
388
+ name: Cosine Recall@3
389
+ - type: cosine_recall@5
390
+ value: 0.6398305084745762
391
+ name: Cosine Recall@5
392
+ - type: cosine_recall@10
393
+ value: 0.7648305084745762
394
+ name: Cosine Recall@10
395
+ - type: cosine_ndcg@10
396
+ value: 0.45416517024932196
397
+ name: Cosine Ndcg@10
398
+ - type: cosine_mrr@10
399
+ value: 0.3560187987624428
400
+ name: Cosine Mrr@10
401
+ - type: cosine_map@100
402
+ value: 0.3643053668543318
403
+ name: Cosine Map@100
404
+ - task:
405
+ type: information-retrieval
406
+ name: Information Retrieval
407
+ dataset:
408
+ name: dim 256
409
+ type: dim_256
410
+ metrics:
411
+ - type: cosine_accuracy@1
412
+ value: 0.1483050847457627
413
+ name: Cosine Accuracy@1
414
+ - type: cosine_accuracy@3
415
+ value: 0.4364406779661017
416
+ name: Cosine Accuracy@3
417
+ - type: cosine_accuracy@5
418
+ value: 0.586864406779661
419
+ name: Cosine Accuracy@5
420
+ - type: cosine_accuracy@10
421
+ value: 0.7457627118644068
422
+ name: Cosine Accuracy@10
423
+ - type: cosine_precision@1
424
+ value: 0.1483050847457627
425
+ name: Cosine Precision@1
426
+ - type: cosine_precision@3
427
+ value: 0.14548022598870056
428
+ name: Cosine Precision@3
429
+ - type: cosine_precision@5
430
+ value: 0.11737288135593218
431
+ name: Cosine Precision@5
432
+ - type: cosine_precision@10
433
+ value: 0.07457627118644068
434
+ name: Cosine Precision@10
435
+ - type: cosine_recall@1
436
+ value: 0.1483050847457627
437
+ name: Cosine Recall@1
438
+ - type: cosine_recall@3
439
+ value: 0.4364406779661017
440
+ name: Cosine Recall@3
441
+ - type: cosine_recall@5
442
+ value: 0.586864406779661
443
+ name: Cosine Recall@5
444
+ - type: cosine_recall@10
445
+ value: 0.7457627118644068
446
+ name: Cosine Recall@10
447
+ - type: cosine_ndcg@10
448
+ value: 0.42902891050216163
449
+ name: Cosine Ndcg@10
450
+ - type: cosine_mrr@10
451
+ value: 0.32930622814097377
452
+ name: Cosine Mrr@10
453
+ - type: cosine_map@100
454
+ value: 0.3370556823255626
455
+ name: Cosine Map@100
456
+ - task:
457
+ type: information-retrieval
458
+ name: Information Retrieval
459
+ dataset:
460
+ name: dim 128
461
+ type: dim_128
462
+ metrics:
463
+ - type: cosine_accuracy@1
464
+ value: 0.12076271186440678
465
+ name: Cosine Accuracy@1
466
+ - type: cosine_accuracy@3
467
+ value: 0.375
468
+ name: Cosine Accuracy@3
469
+ - type: cosine_accuracy@5
470
+ value: 0.548728813559322
471
+ name: Cosine Accuracy@5
472
+ - type: cosine_accuracy@10
473
+ value: 0.7266949152542372
474
+ name: Cosine Accuracy@10
475
+ - type: cosine_precision@1
476
+ value: 0.12076271186440678
477
+ name: Cosine Precision@1
478
+ - type: cosine_precision@3
479
+ value: 0.125
480
+ name: Cosine Precision@3
481
+ - type: cosine_precision@5
482
+ value: 0.1097457627118644
483
+ name: Cosine Precision@5
484
+ - type: cosine_precision@10
485
+ value: 0.07266949152542372
486
+ name: Cosine Precision@10
487
+ - type: cosine_recall@1
488
+ value: 0.12076271186440678
489
+ name: Cosine Recall@1
490
+ - type: cosine_recall@3
491
+ value: 0.375
492
+ name: Cosine Recall@3
493
+ - type: cosine_recall@5
494
+ value: 0.548728813559322
495
+ name: Cosine Recall@5
496
+ - type: cosine_recall@10
497
+ value: 0.7266949152542372
498
+ name: Cosine Recall@10
499
+ - type: cosine_ndcg@10
500
+ value: 0.39885041689034356
501
+ name: Cosine Ndcg@10
502
+ - type: cosine_mrr@10
503
+ value: 0.2963941014258812
504
+ name: Cosine Mrr@10
505
+ - type: cosine_map@100
506
+ value: 0.3033946857091755
507
+ name: Cosine Map@100
508
+ - task:
509
+ type: information-retrieval
510
+ name: Information Retrieval
511
+ dataset:
512
+ name: dim 64
513
+ type: dim_64
514
+ metrics:
515
+ - type: cosine_accuracy@1
516
+ value: 0.13771186440677965
517
+ name: Cosine Accuracy@1
518
+ - type: cosine_accuracy@3
519
+ value: 0.3347457627118644
520
+ name: Cosine Accuracy@3
521
+ - type: cosine_accuracy@5
522
+ value: 0.5021186440677966
523
+ name: Cosine Accuracy@5
524
+ - type: cosine_accuracy@10
525
+ value: 0.652542372881356
526
+ name: Cosine Accuracy@10
527
+ - type: cosine_precision@1
528
+ value: 0.13771186440677965
529
+ name: Cosine Precision@1
530
+ - type: cosine_precision@3
531
+ value: 0.1115819209039548
532
+ name: Cosine Precision@3
533
+ - type: cosine_precision@5
534
+ value: 0.10042372881355931
535
+ name: Cosine Precision@5
536
+ - type: cosine_precision@10
537
+ value: 0.06525423728813559
538
+ name: Cosine Precision@10
539
+ - type: cosine_recall@1
540
+ value: 0.13771186440677965
541
+ name: Cosine Recall@1
542
+ - type: cosine_recall@3
543
+ value: 0.3347457627118644
544
+ name: Cosine Recall@3
545
+ - type: cosine_recall@5
546
+ value: 0.5021186440677966
547
+ name: Cosine Recall@5
548
+ - type: cosine_recall@10
549
+ value: 0.652542372881356
550
+ name: Cosine Recall@10
551
+ - type: cosine_ndcg@10
552
+ value: 0.3693317456702838
553
+ name: Cosine Ndcg@10
554
+ - type: cosine_mrr@10
555
+ value: 0.2813155770782891
556
+ name: Cosine Mrr@10
557
+ - type: cosine_map@100
558
+ value: 0.29017075974466466
559
+ name: Cosine Map@100
560
+ ---
561
+
562
+ # norsbert3-base-matryoshka
563
+
564
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [ltg/norbert3-base](https://huggingface.co/ltg/norbert3-base) on the utdanning_pair_qa, norqa and mnli_no_triplet datasets. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
565
+
566
+ ## Model Details
567
+
568
+ ### Model Description
569
+ - **Model Type:** Sentence Transformer
570
+ - **Base model:** [ltg/norbert3-base](https://huggingface.co/ltg/norbert3-base) <!-- at revision fe70aec6f8581f0c373302ec0bb4608d5d435900 -->
571
+ - **Maximum Sequence Length:** 512 tokens
572
+ - **Output Dimensionality:** 768 tokens
573
+ - **Similarity Function:** Cosine Similarity
574
+ - **Training Datasets:**
575
+ - utdanning_pair_qa
576
+ - norqa
577
+ - mnli_no_triplet
578
+ - **Language:** no
579
+ - **License:** apache-2.0
580
+
581
+ ### Model Sources
582
+
583
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
584
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
585
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
586
+
587
+ ### Full Model Architecture
588
+
589
+ ```
590
+ SentenceTransformer(
591
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: NorbertModel
592
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
593
+ )
594
+ ```
595
+
596
+ ## Usage
597
+
598
+ ### Direct Usage (Sentence Transformers)
599
+
600
+ First install the Sentence Transformers library:
601
+
602
+ ```bash
603
+ pip install -U sentence-transformers
604
+ ```
605
+
606
+ Then you can load this model and run inference.
607
+ ```python
608
+ from sentence_transformers import SentenceTransformer
609
+
610
+ # Download from the 🤗 Hub
611
+ model = SentenceTransformer("MagnusSa/norsbert3-base-matryoshka")
612
+ # Run inference
613
+ sentences = [
614
+ 'Det vil si: at han har fått beskjed om Lord Julian Wade.',
615
+ 'Han ble på forhånd fortalt om Lord Julian Wades ankomst.',
616
+ 'Ikke en eneste person ble fortalt at Lord Julian Wade nærmet seg raskt.',
617
+ ]
618
+ embeddings = model.encode(sentences)
619
+ print(embeddings.shape)
620
+ # [3, 768]
621
+
622
+ # Get the similarity scores for the embeddings
623
+ similarities = model.similarity(embeddings, embeddings)
624
+ print(similarities.shape)
625
+ # [3, 3]
626
+ ```
627
+
628
+ <!--
629
+ ### Direct Usage (Transformers)
630
+
631
+ <details><summary>Click to see the direct usage in Transformers</summary>
632
+
633
+ </details>
634
+ -->
635
+
636
+ <!--
637
+ ### Downstream Usage (Sentence Transformers)
638
+
639
+ You can finetune this model on your own dataset.
640
+
641
+ <details><summary>Click to expand</summary>
642
+
643
+ </details>
644
+ -->
645
+
646
+ <!--
647
+ ### Out-of-Scope Use
648
+
649
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
650
+ -->
651
+
652
+ ## Evaluation
653
+
654
+ ### Metrics
655
+
656
+ #### Information Retrieval
657
+ * Dataset: `dim_768`
658
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
659
+
660
+ | Metric | Value |
661
+ |:--------------------|:-----------|
662
+ | cosine_accuracy@1 | 0.1398 |
663
+ | cosine_accuracy@3 | 0.4237 |
664
+ | cosine_accuracy@5 | 0.6165 |
665
+ | cosine_accuracy@10 | 0.7797 |
666
+ | cosine_precision@1 | 0.1398 |
667
+ | cosine_precision@3 | 0.1412 |
668
+ | cosine_precision@5 | 0.1233 |
669
+ | cosine_precision@10 | 0.078 |
670
+ | cosine_recall@1 | 0.1398 |
671
+ | cosine_recall@3 | 0.4237 |
672
+ | cosine_recall@5 | 0.6165 |
673
+ | cosine_recall@10 | 0.7797 |
674
+ | cosine_ndcg@10 | 0.4347 |
675
+ | cosine_mrr@10 | 0.3264 |
676
+ | **cosine_map@100** | **0.3342** |
677
+
678
+ #### Information Retrieval
679
+ * Dataset: `dim_512`
680
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
681
+
682
+ | Metric | Value |
683
+ |:--------------------|:-----------|
684
+ | cosine_accuracy@1 | 0.1822 |
685
+ | cosine_accuracy@3 | 0.4513 |
686
+ | cosine_accuracy@5 | 0.6398 |
687
+ | cosine_accuracy@10 | 0.7648 |
688
+ | cosine_precision@1 | 0.1822 |
689
+ | cosine_precision@3 | 0.1504 |
690
+ | cosine_precision@5 | 0.128 |
691
+ | cosine_precision@10 | 0.0765 |
692
+ | cosine_recall@1 | 0.1822 |
693
+ | cosine_recall@3 | 0.4513 |
694
+ | cosine_recall@5 | 0.6398 |
695
+ | cosine_recall@10 | 0.7648 |
696
+ | cosine_ndcg@10 | 0.4542 |
697
+ | cosine_mrr@10 | 0.356 |
698
+ | **cosine_map@100** | **0.3643** |
699
+
700
+ #### Information Retrieval
701
+ * Dataset: `dim_256`
702
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
703
+
704
+ | Metric | Value |
705
+ |:--------------------|:-----------|
706
+ | cosine_accuracy@1 | 0.1483 |
707
+ | cosine_accuracy@3 | 0.4364 |
708
+ | cosine_accuracy@5 | 0.5869 |
709
+ | cosine_accuracy@10 | 0.7458 |
710
+ | cosine_precision@1 | 0.1483 |
711
+ | cosine_precision@3 | 0.1455 |
712
+ | cosine_precision@5 | 0.1174 |
713
+ | cosine_precision@10 | 0.0746 |
714
+ | cosine_recall@1 | 0.1483 |
715
+ | cosine_recall@3 | 0.4364 |
716
+ | cosine_recall@5 | 0.5869 |
717
+ | cosine_recall@10 | 0.7458 |
718
+ | cosine_ndcg@10 | 0.429 |
719
+ | cosine_mrr@10 | 0.3293 |
720
+ | **cosine_map@100** | **0.3371** |
721
+
722
+ #### Information Retrieval
723
+ * Dataset: `dim_128`
724
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
725
+
726
+ | Metric | Value |
727
+ |:--------------------|:-----------|
728
+ | cosine_accuracy@1 | 0.1208 |
729
+ | cosine_accuracy@3 | 0.375 |
730
+ | cosine_accuracy@5 | 0.5487 |
731
+ | cosine_accuracy@10 | 0.7267 |
732
+ | cosine_precision@1 | 0.1208 |
733
+ | cosine_precision@3 | 0.125 |
734
+ | cosine_precision@5 | 0.1097 |
735
+ | cosine_precision@10 | 0.0727 |
736
+ | cosine_recall@1 | 0.1208 |
737
+ | cosine_recall@3 | 0.375 |
738
+ | cosine_recall@5 | 0.5487 |
739
+ | cosine_recall@10 | 0.7267 |
740
+ | cosine_ndcg@10 | 0.3989 |
741
+ | cosine_mrr@10 | 0.2964 |
742
+ | **cosine_map@100** | **0.3034** |
743
+
744
+ #### Information Retrieval
745
+ * Dataset: `dim_64`
746
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
747
+
748
+ | Metric | Value |
749
+ |:--------------------|:-----------|
750
+ | cosine_accuracy@1 | 0.1377 |
751
+ | cosine_accuracy@3 | 0.3347 |
752
+ | cosine_accuracy@5 | 0.5021 |
753
+ | cosine_accuracy@10 | 0.6525 |
754
+ | cosine_precision@1 | 0.1377 |
755
+ | cosine_precision@3 | 0.1116 |
756
+ | cosine_precision@5 | 0.1004 |
757
+ | cosine_precision@10 | 0.0653 |
758
+ | cosine_recall@1 | 0.1377 |
759
+ | cosine_recall@3 | 0.3347 |
760
+ | cosine_recall@5 | 0.5021 |
761
+ | cosine_recall@10 | 0.6525 |
762
+ | cosine_ndcg@10 | 0.3693 |
763
+ | cosine_mrr@10 | 0.2813 |
764
+ | **cosine_map@100** | **0.2902** |
765
+
766
+ <!--
767
+ ## Bias, Risks and Limitations
768
+
769
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
770
+ -->
771
+
772
+ <!--
773
+ ### Recommendations
774
+
775
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
776
+ -->
777
+
778
+ ## Training Details
779
+
780
+ ### Training Datasets
781
+
782
+ #### utdanning_pair_qa
783
+
784
+ * Dataset: utdanning_pair_qa
785
+ * Size: 4,994 training samples
786
+ * Columns: <code>anchor</code> and <code>positive</code>
787
+ * Approximate statistics based on the first 1000 samples:
788
+ | | anchor | positive |
789
+ |:--------|:---------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
790
+ | type | string | string |
791
+ | details | <ul><li>min: 6 tokens</li><li>mean: 9.27 tokens</li><li>max: 18 tokens</li></ul> | <ul><li>min: 7 tokens</li><li>mean: 152.57 tokens</li><li>max: 361 tokens</li></ul> |
792
+ * Samples:
793
+ | anchor | positive |
794
+ |:-----------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
795
+ | <code>Hva trenger man for å bli lektor?</code> | <code>Lektor er stillingsbetegnelsen til en lærer som har tatt en mastergrad fra universitet eller høgskole. Som lektor underviser du vanligvis i de fagene du har fordypet deg i under utdanningen. Som lektor skal du legge til rette for læring utvikling og gode holdninger hos barn og unge. Vanlige arbeidsoppgaver forberede gjennomføre og evaluere undervisning på bakgrunn av skolens verdigrunnlag og læreplanene i faget du underviser i vurdere elever tilrettelegge undervisningen for elever som har behov for det. Dette kan gjerne gjøres i samarbeid med en spesialpedagog. tilrettelegge for enkeltelever som trenger ekstra hjelp og lage pedagogiske opplegg som gjør det enklere for disse barna å lære håndtere mange ulike situasjoner for eksempel mobbing. Lektoren samarbeider tett med lærerkolleger rektor undervisningsinspektør og andre ansatte ved skolen. Det er også viktig å ha et godt samarbeid med foreldre. Merk at grunnskolelærerutdanning nå også er en mastergrad og nyutdannede grunnskolelærere er også lektorer. Lektor er som nevnt tittelen på en lærer som har tatt en mastergrad men brukes ofte på folkemunne om lærere som underviser i videregående opplæring. </code> |
796
+ | <code>Hvilken utdanning har en økonom?</code> | <code>Økonom er en samlebetegnelse på personer med høyere økonomisk-administrativ utdanning. Som økonom kan du jobbe innen et bredt og allsidig fagfelt. Arbeidsoppgavene kan derfor variere mye. Noen vanlige arbeidsoppgaver for økonomer er ledelse administrasjon regnskaps- og budsjettarbeid forretningsutvikling og strategi innovasjon salg og markedsføring markedsanalyser personalarbeid Det finnes flere økonomiutdannelser men merk at disse skiller seg fra hverandre og gir ulik yrkeskompetanse. Eksempler på økonomiyrker regnskapsfører revisor samfunnsøkonom siviløkonom økonomisjef økonomikonsulent Man kan lage et skille mellom samfunnsøkonomer og bedriftsøkonomer. Grovt sett har bedriftsøkonomer bedriften som studieobjekt mens samfunnsøkonomer har økonomien i samfunn som studieobjekt. Økonomers arbeid består derfor ofte i å analysere den nåværende økonomiske situasjonen i samfunnet og/eller bedriften og bruker dette som grunnlag for å si noe om fremtiden. </code> |
797
+ | <code>Hva går bedriftsøkonomi ut på?</code> | <code>Som økonomisjef har du et overordnet ansvar for økonomiske spørsmål i bedriften du jobber. Dette innebærer ansvar for budsjett og regnskap og kontroll på investeringer og utgifter. Vanlige arbeidsoppgaver føre årsregnskap med noter og delårsregnskap budsjetter og prognoser planlegge finansiering investeringer og skatt ha kontroll over forbruk og lønnsomhet ha opplæring av ansatte i din avdeling er med i bedriftens ledergruppe Økonomisjefen er ofte leder for både økonomiavdelingen og regnskapsavdelingen. Det innebærer både faglig ansvar lederoppgaver og personalansvar. Du er også selskapets bindeledd til revisor når årsoppgjøret skal godkjennes. Andre titler for økonomisjef er økonomidirektør finansdirektør finanssjef regnskapssjef regnskapsdirektør og CFO. </code> |
798
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
799
+ ```json
800
+ {
801
+ "loss": "MultipleNegativesRankingLoss",
802
+ "matryoshka_dims": [
803
+ 768,
804
+ 512,
805
+ 256,
806
+ 128,
807
+ 64
808
+ ],
809
+ "matryoshka_weights": [
810
+ 1,
811
+ 1,
812
+ 1,
813
+ 1,
814
+ 1
815
+ ],
816
+ "n_dims_per_step": -1
817
+ }
818
+ ```
819
+
820
+ #### norqa
821
+
822
+ * Dataset: norqa
823
+ * Size: 3,808 training samples
824
+ * Columns: <code>anchor</code> and <code>positive</code>
825
+ * Approximate statistics based on the first 1000 samples:
826
+ | | anchor | positive |
827
+ |:--------|:----------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|
828
+ | type | string | string |
829
+ | details | <ul><li>min: 6 tokens</li><li>mean: 12.64 tokens</li><li>max: 40 tokens</li></ul> | <ul><li>min: 359 tokens</li><li>mean: 468.31 tokens</li><li>max: 512 tokens</li></ul> |
830
+ * Samples:
831
+ | anchor | positive |
832
+ |:-----------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
833
+ | <code>Når døde Shackleton?</code> | <code>Shackleton–Rowett-ekspedisjonen<br>Shackleton–Rowett-ekspedisjonen (1921–22) var den siste antarktisekspedisjonen til den britiske polarforskeren Ernest Shackleton og markerte slutten på den heroiske tidsalder for antarktisutforskning. Ekspedisjonen ble finansiert av forretningsmannen John Quiller Rowett, og benevnes tidvis som Quest-ekspedisjonen etter ekspedisjonsskipet «Quest», ei ombygd norsk selfangstskute. Shackletons opprinnelige plan var å utforske Beauforthavet i Arktis, men denne planen ble forkastet etter at kanadiske myndigheter holdt tilbake økonomisk støtte. «Quest» var mindre enn fartøyene som hadde blitt benyttet på de foregående ekspedisjonene, og hun viste seg raskt lite egnet for oppgaven. Framdriften sørover ble forsinket av skipets dårlige sjøegenskaper og hyppige motorproblemer. Før ekspedisjonen hadde kommet skikkelig i gang, døde Shackleton om bord i skipet rett etter ankomsten til Sør-Georgia.<br>Hovedaktiviteten i den påfølgende svekkede ekspedisjonen var en tremåneders seilas til Øst-Antarktis under ledelse av nestkommanderende, Frank Wild. I dette farvannet kom «Quest»s svakheter raskt til syne: lav fart, høyt drivstofforbruk, tung rulling i høy sjø og stadig lekk. Skipet var ikke i stand til å fortsette lenger enn 20° øst, vesentlig kortere enn målsetningen, og den lave motoreffekten var ikke tilstrekkelig til å forsere den antarktiske sjøisen. Etter flere mislykkede forsøk på å bryte seg gjennom pakkisen valgte Wild å returnere til Sør-Georgia. På veien ble turen lagt innom Elefantøya, der Wild sammen med 21 andre hadde vært skipbrudden etter tapet av «Endurance» seks år tidligere.<br>Wild hadde tanker om en andre, mer produktiv sesong i isen, og tok skipet til Cape Town for overhaling. Her mottok han en melding fra Rowett som beordret skipet hjem til England, slik at ekspedisjonen endte i stillhet. Selv om den ikke har fått stor oppmerksomhet i polarhistorien, markerte Quest-ekspedisjonen avslutningen på den heroiske tidsalder for antarktisutforskning og begynnelsen på den «mekaniske tidsalder» som fulgte. Til sjuende og sist er det imidlertid Shackletons død som har blitt stående igjen som minnet fra ekspedisjonen.<br><br><br></code> |
834
+ | <code>Hva har Apollon blitt anerkjent som?</code> | <code>Apollon<br>Apollon (gresk: Ἀπόλλων, Apóllōn) er i gresk og romersk mytologi en av de mest betydningsfulle av de olympiske guder og med flest sider (guddommelige assosiasjoner) knyttet til sin guddom. Som idealet av kouros (en skjeggløs yngling) har Apollon blitt anerkjent som en gud av lyset og solen, sannhet og profeti, bueskyting, medisin og helbredelse, musikk, poesi og kunstartene, og mer.<br>Apollon er sønn av Zevs og Leto, og har tvillingsøsteren Artemis, den jomfruelige månegudinnen for jakt, helbredelse, kyskhet og barnefødsler og beskytter av ville dyr og villmarken. Apollon er kjent i den greskpåvirkede etruskiske mytologien som Apulu. Apollon ble dyrket både i antikkens Hellas og i Romerriket, i tillegg til i den moderne hellenistiske nypaganisme (nyhedendommen).<br>Som beskytter av Delfi (Pythianske Apollon) var Apollon er en spådomsgud — den profetiske guddom av Delfis orakel. Medisin og helbredelse ble knyttet til Apollon, enten gjennom guden selv eller indirekte ved hans sønn Asklepios. Apollon ble også sett som en som kunne påføre dårlig helse og dødelig pest foruten å være den som hadde muligheten til å helbrede. Blant gudens religiøse endringer var at han ble assosiert med herredømmet over de greske kolonistatene som spredte seg langs kysten av Middelhavet, foruten å bli beskytter av gjetere og dyreflokker. Som leder av musene (Apollon Musagetes) og leder for deres kor fungerte Apollon som beskytter av musikk og poesi. Hermes oppfant lyren for ham, og instrumentet ble en vanlig attributt for Apollon. Hymner som ble sunget til Apollons pris ble kalt for paeaner.<br>I hellenistiske tider, særlig i løpet av 200-tallet f.Kr. som Apollon Helios, ble Apollon identifisert blant grekerne med Helios, solguden, og hans søster Artemis ble tilsvarende lik Selene, månegudinnen. I latinske tekster har forskeren Joseph Fontenrose imidlertid erklært seg ute av stand til å finne noen sammensmelting med Sol blant de augustinske poeter i det første århundre. Selv ikke i besvergelsene til Æneas og Latinus i Æneiden XII (161-215). Apollo og Helios/Sol forble atskilte vesener i de litterære og mytologiske tekstene fram til 200-tallet e.Kr.<br><br><br></code> |
835
+ | <code>Hva heter de fire innerste planetene i solsystemet?</code> | <code>Solsystemet<br>Planeter og dvergplaneter i solsystemet. Planetenes størrelse er i skala, men ikke den relative avstanden til solen.<br>Solsystemet er det sol-planetsystemet som består av solen, jorden og månen, og andre kjente himmellegemer i det nærmeste verdensrommet. I dette systemet er solen i sentrum med de himmellegemer som den binder til seg gjennom gravitasjon, og har sin opprinnelse i en gravitasjonskollaps av en gigantisk gass- og støvsky for 4,6 milliarder år siden. Solsystemet befinner seg i Orion-armen i galaksen Melkeveien.<br>Rundt solen kretser en rekke himmellegemer i en nærmest flat skive i ekvatorbaneplanet som kalles ekliptikken. Utenfor solen finnes det meste av solsystemets masse i de åtte planetene, som har tilnærmet sirkulære omløpsbaner. De fire indre planetene Merkur, Venus, jorden og Mars består i stor grad av stein og metall og kalles steinplanetene. De fire ytre planetene Jupiter, Saturn, Uranus og Neptun består i stor grad av hydrogen og helium. De kalles ofte gasskjempene, da de har en mye tykkere atmosfære bestående av ulike gasser, og de er i tillegg mye tyngre og større enn steinplanetene.<br>Det finnes to områder med mindre himmellegemer. Asteroidebeltet mellom Mars og Jupiter består av mindre legemer av metall og stein slik som steinplanetene. Kuiperbeltet utenfor Neptuns omløpsbane består hovedsakelig av himmellegemer av frossent vann, ammoniakk og metan. Innenfor disse beltene er det kjent ti større objekter, Ceres, Pluto, Haumea, Makemake, Eris, Orcus, Quaoar, Varuna, Sedna og (225088) 2007 OR 10. De kalles dvergplaneter siden de er store nok til å ha blitt runde som en følge av sin gravitasjon. I en avstand av 0,8–1,6 lysår fra solen antar man at det finnes en Oorts sky, som kan være opprinnelsen til de langperiodiske kometene.<br>Talløse mindre legemer som kometer, kentaurer, damokloider og interplanetariske støvpartikler følger sine egne baner gjennom solsystemet. Solvinden, en strøm av plasma fra solen, skaper en boble i den interplanetariske materien som også kalles heliosfæren. Den strekker seg ut til midten av det området som kalles den spredte skiven, et område i tilknytting til Kuiperbeltet.<br><br><br></code> |
836
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
837
+ ```json
838
+ {
839
+ "loss": "MultipleNegativesRankingLoss",
840
+ "matryoshka_dims": [
841
+ 768,
842
+ 512,
843
+ 256,
844
+ 128,
845
+ 64
846
+ ],
847
+ "matryoshka_weights": [
848
+ 1,
849
+ 1,
850
+ 1,
851
+ 1,
852
+ 1
853
+ ],
854
+ "n_dims_per_step": -1
855
+ }
856
+ ```
857
+
858
+ #### mnli_no_triplet
859
+
860
+ * Dataset: mnli_no_triplet
861
+ * Size: 128,084 training samples
862
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
863
+ * Approximate statistics based on the first 1000 samples:
864
+ | | anchor | positive | negative |
865
+ |:--------|:-----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:---------------------------------------------------------------------------------|
866
+ | type | string | string | string |
867
+ | details | <ul><li>min: 4 tokens</li><li>mean: 26.53 tokens</li><li>max: 187 tokens</li></ul> | <ul><li>min: 4 tokens</li><li>mean: 13.93 tokens</li><li>max: 47 tokens</li></ul> | <ul><li>min: 4 tokens</li><li>mean: 13.4 tokens</li><li>max: 46 tokens</li></ul> |
868
+ * Samples:
869
+ | anchor | positive | negative |
870
+ |:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|:------------------------------------------------------------------------|
871
+ | <code>Begrepsmessig kremskimming har to grunnleggende dimensjoner - produkt og geografi.</code> | <code>Cream skimming har to fokus - produkt og geografi.</code> | <code>Produkt og geografi har ingenting med kremskuming å gjøre.</code> |
872
+ | <code>du vet i løpet av sesongen, og jeg antar at på nivået ditt øh, mister du dem til neste nivå hvis hvis de bestemmer seg for å huske foreldrelaget, bestemmer Braves seg for å ringe for å huske en fyr fra trippel A, så går en dobbel A-fyr opp til erstatt ham og en singel En fyr går opp for å erstatte ham</code> | <code>Du mister tingene til følgende nivå hvis folket husker det.</code> | <code>De utfører aldri tilbakekallinger på noe.</code> |
873
+ | <code>Et av våre nummer vil utføre instruksjonene dine minutiøst.</code> | <code>Et medlem av teamet mitt vil utføre ordrene dine med enorm presisjon.</code> | <code>Vi har ingen ledige for øyeblikket, så du må ta grep selv.</code> |
874
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
875
+ ```json
876
+ {
877
+ "loss": "MultipleNegativesRankingLoss",
878
+ "matryoshka_dims": [
879
+ 768,
880
+ 512,
881
+ 256,
882
+ 128,
883
+ 64
884
+ ],
885
+ "matryoshka_weights": [
886
+ 1,
887
+ 1,
888
+ 1,
889
+ 1,
890
+ 1
891
+ ],
892
+ "n_dims_per_step": -1
893
+ }
894
+ ```
895
+
896
+ ### Evaluation Datasets
897
+
898
+ #### utdanning_pair_qa
899
+
900
+ * Dataset: utdanning_pair_qa
901
+ * Size: 555 evaluation samples
902
+ * Columns: <code>anchor</code> and <code>positive</code>
903
+ * Approximate statistics based on the first 1000 samples:
904
+ | | anchor | positive |
905
+ |:--------|:---------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
906
+ | type | string | string |
907
+ | details | <ul><li>min: 6 tokens</li><li>mean: 9.13 tokens</li><li>max: 16 tokens</li></ul> | <ul><li>min: 7 tokens</li><li>mean: 155.04 tokens</li><li>max: 367 tokens</li></ul> |
908
+ * Samples:
909
+ | anchor | positive |
910
+ |:----------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
911
+ | <code>Hva er sosialt arbeid oppgave?</code> | <code>Sosionomen forebygger løser og reduserer sosiale problemer for enkeltpersoner familier og grupper i samfunnet. Et viktig prinsipp i sosialt arbeid er at den hjelpen som gis skal være hjelp til selvhjelp. Hjelpen tar utgangspunkt i den enkeltes evner og situasjon. Den viktigste arbeidsoppgaven for en sosionom er å hjelpe mennesker med å finne løsninger som kan forbedre livskvaliteten. Sosionomen fungerer også som bindeledd mellom enkeltmennesker og ulike hjelpetilbud som samfunnet tilbyr. Som sosionom må du kartlegge ressurser og behov og bruke støtteordninger på best mulig måte for dem som har behov for det. Sosionomen opptrer som rådgiver og saksbehandler og jobber med å finne gode løsninger på politiske juridiske og sosiale problemer for grupper og enkeltmennesker. Sosionomer arbeider med individuelt arbeid med enkeltpersoner og deres familier nettverk og omgivelser gruppearbeid med mennesker med felles problemer og interesser samfunnsarbeid i form av naboskaps- grasrot- og reformarbeid sosial administrasjon og planlegging Samlebetegnelsen ”sosialarbeider” brukes om personer med ulik utdanning som jobber innen sosial hjelpevirksomhet i enten private eller offentlige virksomheter. Som oftest er disse utdannet sosionomer eller barnevernspedagoger. </code> |
912
+ | <code>Hva må til for å bli hundefører?</code> | <code>Som førerhundtrener trener du utvalgte hunder til å bli et hjelpemiddel for mennesker med svakt syn. Selve opptreningen av førerhunder foregår over lang tid og avsluttes ikke før brukeren og hunden samarbeider godt. Det er viktig å finne en førerhund som passer sammen med den svaksyntes behov og personlighet. Hunden må bestå eksamen før den kan brukes som førerhund. Vanlige arbeidsoppgaver for en førerhundtrener teste og trene hunder til ferdig tjenestehund delta på samtreningskurs med hund og bruker trene med hund og bruker på brukerens hjemsted (kan være over hele landet) følge opp hund og bruker på hjemstedet planlegge administrere og dokumentere arbeidet Jobben som førerhundtrener kan innebære mange reisedøgn i året og du tilbringer mesteparten av tiden utendørs. </code> |
913
+ | <code>Hva kan man gjøre som jurist?</code> | <code>Som jurist er du ekspert på å løse juridiske problemstillinger gjennom tolkning og analyse. Vanlige arbeidsoppgaver for en jurist gi råd og veiledning ha ansvar for å utforme og tolke dokumenter og kontrakter forhandle og mekle på vegne av sine klienter Arbeidsoppgavene som jurist varierer mye etter hvor du jobber. Juristene har innsikt i mange ulike rettsområder og kan arbeide innen de fleste fagområder og sektorer i samfunnet. Eksempler på rettsområder er kontraktsrett arbeidsrett familie- og arverett offentlig rett helse- og sosialrett forvaltningsrett og strafferett. Som jurist skal du formidle juss enkelt og forståelig til klienter brukere av offentlige velferdstilbud og personer som trenger rettshjelp. Noen jurister er advokater eller dommere. For å bli advokat må du først jobbe en viss tid som advokatfullmektig og oppfylle vilkårene for å få advokatbevilling. Du kan også jobbe som politijurist. Jurister er ofte samfunnsengasjerte og i dette yrket er det viktig å holde seg faglig oppdatert. </code> |
914
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
915
+ ```json
916
+ {
917
+ "loss": "MultipleNegativesRankingLoss",
918
+ "matryoshka_dims": [
919
+ 768,
920
+ 512,
921
+ 256,
922
+ 128,
923
+ 64
924
+ ],
925
+ "matryoshka_weights": [
926
+ 1,
927
+ 1,
928
+ 1,
929
+ 1,
930
+ 1
931
+ ],
932
+ "n_dims_per_step": -1
933
+ }
934
+ ```
935
+
936
+ #### norqa
937
+
938
+ * Dataset: norqa
939
+ * Size: 472 evaluation samples
940
+ * Columns: <code>anchor</code> and <code>positive</code>
941
+ * Approximate statistics based on the first 1000 samples:
942
+ | | anchor | positive |
943
+ |:--------|:----------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------|
944
+ | type | string | string |
945
+ | details | <ul><li>min: 6 tokens</li><li>mean: 12.57 tokens</li><li>max: 39 tokens</li></ul> | <ul><li>min: 249 tokens</li><li>mean: 475.62 tokens</li><li>max: 512 tokens</li></ul> |
946
+ * Samples:
947
+ | anchor | positive |
948
+ |:------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
949
+ | <code>Hvordan har det vært for Dan Coats å finne seg en god posisjon i Donald Trumps administrasjon?</code> | <code>USAs nasjonale etterretningssjef går av<br>President Donald Trump bekrefter at Dan Coats skal gå av som USAs nasjonale etterretningsdirektør. (Foto: Evan Vucci/AP/NTB Scanpix)<br>Coats har vært på kollisjonskurs med president Donald Trump i flere saker, deriblant Russland og presidentens kritikk av etterretningsvesenet. Den forestående avgangen ble varslet tidligere søndag av kilder som avisen New York Times hadde snakket med.<br>Nå bekrefter USAs president Donald Trump at Coats vil gå av 15. august. Presidenten vil nominere republikaneren John Ratcliffe til å overta stillingen.<br>Den tidligere republikanske senatoren Coats har siden mars 2017 vært øverste sjef for 17 etterretningsorganer. Han tok over stillingen fra James Clapper.<br>Uenigheter<br>Ifølge nyhetsbyrået AP har det blant toppolitikere i Washington i flere måneder gått rykter om at Coats kom til å trekke seg som etterretningsdirektør. Det var imidlertid ventet at han kom til å forlate sin stilling i forbindelse med slutten av presidentperioden neste høst.<br>Ifølge amerikanske medier har det vært vanskelig for Coats å finne fotfeste i Trump-administrasjonen. Etterforskningen rundt Russlands angivelige innblanding i 2016-valget er blant sakene som har vært grobunn til flere uenigheter mellom Coats og Trump.<br>Også Nord-Korea, IS og Iran har vært saker hvor de har vært på kollisjonskurs. Blant annet uttalte Coats i januar at etterretningstjenesten er av den oppfatning at Nord-Korea sannsynligvis ikke kommer til å gi slipp på alle sine atomvåpen og produksjonskapasiteter, i strid med Trumps egen oppfatning.<br>Lojal<br>Ratcliffe blir beskrevet som lojal overfor Trump og er i motsetning til Coats en kritiker av spesialetterforsker Robert Mueller, som var sjef for Russland-etterforskningen.<br>Republikaneren kritiserte Mueller for å si at Trump kan straffeforfølges når han går av som president fordi han forsøkte å hindre Russland-etterforskningen. Ratcliffe hevdet at premisset for hans etterforskning var at Trump var skyldig inntil det motsatte ble bevist.<br>Ratcliffe blir den sjette personen i stillingen siden den ble opprettet i kjølvannet av terrorangrepene 11. september 2001.</code> |
950
+ | <code>Når lover Boris Johnson å ta Strobritannia ut av EU?</code> | <code>Corbyn trapper opp kampen mot brexit uten avtale<br>Jeremy Corbyn skal i samtale med andre politikere tirsdag for å se hvordan han kan hindre at britene forlater EU uten en avtale. Foto: Frank Augstein / AP / NTB scanpix<br>På Corbyns gjesteliste står ikke bare andre opposisjonspolitikere, men også moderate, EU-vennlige medlemmer av Det konservative partiet.<br>– Jeg håper vi kan komme fram til en velfungerende løsning og få med oss andre fra hele spekteret i Parlamentet som ser farene ved en brexit uten avtale, skrev Corbyn i et innlegg i avisen The Independent mandag.<br>– Prisgitt Trump<br>– Jeg vil gjøre alt for å hindre en brexit uten avtale, skriver Labour-lederen, som blant annet er bekymret for statsminister Boris Johnsons tilnærming til USAs president Donald Trump. Corbyn mener «en hard brexit i virkeligheten er en Trump-avtale-brexit»<br>– Det vil ikke gi oss selvråderetten tilbake, men vi vil være prisgitt Trump og amerikanske storselskaper, skriver han, med henvisning til en mulig fremtidig frihandelsavtale mellom USA og Storbritannia.<br>Selv mener han et nyvalg er den beste muligheten for å hindre at britene forlater EU uten en sluttavtale. Andre parlamentarikere har luftet tanken om å lovfeste en utsettelse av brexit.<br>Samles neste uke<br>Parlamentet trer ikke sammen før til neste uke, men brexitmotstandere har diskutert hva de skal gjøre helt siden Johnson tok over etter Theresa May og gjentok løftet om å ta britene ut av unionen 31. oktober – med eller uten en avtale.<br>Johnson har sagt at han ønsker en ny og bedre avtale med EU, men at det viktigste er å unngå flere utsettelser.<br>Corbyn har sagt han vil stille mistillitsforslag mot Johnson så fort det lar seg gjøre og har tilbudt seg å lede en overgangsregjering dersom forslaget blir vedtatt. En av utfordringene med den løsningen er at flere av dem som vil stikke kjepper i hjulene for Johnsons brexitprosess, slett ikke vil ha Corbyn som statsminister.</code> |
951
+ | <code>Hva heter det meste solgte videospillet i 2007?</code> | <code>Call of Duty 4: Modern Warfare<br>Call of Duty 4: Modern Warfare (ofte forkortet til Call of Duty 4 eller COD4) er et førstepersonsskytespill utviklet av Infinity Ward og gitt ut av Activision i 2007. Spillet er det fjerde i Call of Duty-serien, og det første i underserien Modern Warfare. Spillets etterfølger er Call of Duty: Modern Warfare 2, hvor handlingen i Call of Duty 4: Modern Warfare fortsetter.<br>I motsetning til de tidligere Call of Duty-spillene, hvor handlingen er lagt til andre verdenskrig, er Call of Duty 4: Modern Warfare satt til 2011. I spillet har en radikal leder tatt kontroll over et uspesifisert land i Midtøsten og henrettet presidenten. Samtidig har en ultranasjonalistisk bevegelse startet en borgerkrig i Russland. Handlingen blir hovedsakelig vist fra perspektivet til en soldat i United States Marine Corps (USMC) og en britisk soldat i Special Air Service (SAS). Enspillerdelen knyttes til en rekke land og områder, blant annet Storbritannia, Aserbajdsjan, Midtøsten, Russland og Ukraina. Flerspillerdelen har flere spillmoduser og et nivåsystem som lar spillere få tilgang til nye våpen og evner mens de når høyere nivåer.<br>Spillet fikk god kritikk: 94 av 100 poeng fra både GameRankings og Metacritic. Det fikk ros for sin enspiller- og flerspillerdel, men ble kritisert for at det ikke gjorde mye nytt innenfor førstepersonsskytespill-sjangeren. Spillet fikk flere priser, blant annet IGNs «Best Xbox 360 Game», GameSpots «PlayStation 3 Game of the Year», GamePros «Game of the Year» og tre priser fra Academy of Interactive Arts & Sciences. Det var verdens bestselgende videospill i 2007, og hadde solgt syv millioner kopier per januar 2008 og nesten 16 millioner per november 2013.<br>Spillet ble først utviklet for Microsoft Windows, PlayStation 3 og Xbox 360 over en toårsperiode. OS X-versjonen ble senere utviklet av Aspyr, ett år etter de andre versjonene. Nintendo Wii-versjonen ble utviklet av Treyarch ennå ett år senere. Det ble også lagd en versjon for Nintendo DS. En ny og oppdatert remaster-versjon kalt Call of Duty: Modern Warfare Remastered ble gitt ut for PlayStation 4, Xbox One og PC sammen med visse utgaver av Call of Duty: Infinite Warfare 4. november 2016. Denne nyversjonen fikk en selvstenig utgivelse i juni 2017. Serien fikk en reboot med utgivelsen av Call of Duty: Modern Warfare i 2019.<br><br><br></code> |
952
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
953
+ ```json
954
+ {
955
+ "loss": "MultipleNegativesRankingLoss",
956
+ "matryoshka_dims": [
957
+ 768,
958
+ 512,
959
+ 256,
960
+ 128,
961
+ 64
962
+ ],
963
+ "matryoshka_weights": [
964
+ 1,
965
+ 1,
966
+ 1,
967
+ 1,
968
+ 1
969
+ ],
970
+ "n_dims_per_step": -1
971
+ }
972
+ ```
973
+
974
+ #### mnli_no_triplet
975
+
976
+ * Dataset: mnli_no_triplet
977
+ * Size: 1,670 evaluation samples
978
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
979
+ * Approximate statistics based on the first 1000 samples:
980
+ | | anchor | positive | negative |
981
+ |:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
982
+ | type | string | string | string |
983
+ | details | <ul><li>min: 6 tokens</li><li>mean: 24.36 tokens</li><li>max: 60 tokens</li></ul> | <ul><li>min: 6 tokens</li><li>mean: 12.12 tokens</li><li>max: 33 tokens</li></ul> | <ul><li>min: 6 tokens</li><li>mean: 12.47 tokens</li><li>max: 38 tokens</li></ul> |
984
+ * Samples:
985
+ | anchor | positive | negative |
986
+ |:------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------|
987
+ | <code>Jeg tenkte ikke engang på det, men jeg var så frustrert, og jeg endte opp med å snakke med ham igjen.</code> | <code>Jeg var så opprørt at jeg bare begynte å snakke med ham igjen.</code> | <code>Jeg har ikke snakket med ham igjen.</code> |
988
+ | <code>Og jeg trodde det var et privilegium, og det er fortsatt, det er fortsatt, jeg var den eneste ni to-to Ex-O som var mitt AFFC Air Force Career-felt.</code> | <code>Jeg var under inntrykk av at jeg var den eneste med det nummeret på AFFC Air Force Career-feltet.</code> | <code>Vi fikk alle det samme nøyaktige antallet, uansett hvilke privilegier vi ble lovet å bli gitt, det hele var løgn.</code> |
989
+ | <code>De fortalte meg at jeg ville bli kalt inn en fyr på slutten for at jeg skulle møtes.</code> | <code>Jeg ble fortalt at en fyr ville bli kalt inn for at jeg skulle møte.</code> | <code>Jeg ble aldri fortalt noe om å møte noen.</code> |
990
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
991
+ ```json
992
+ {
993
+ "loss": "MultipleNegativesRankingLoss",
994
+ "matryoshka_dims": [
995
+ 768,
996
+ 512,
997
+ 256,
998
+ 128,
999
+ 64
1000
+ ],
1001
+ "matryoshka_weights": [
1002
+ 1,
1003
+ 1,
1004
+ 1,
1005
+ 1,
1006
+ 1
1007
+ ],
1008
+ "n_dims_per_step": -1
1009
+ }
1010
+ ```
1011
+
1012
+ ### Training Hyperparameters
1013
+ #### Non-Default Hyperparameters
1014
+
1015
+ - `eval_strategy`: epoch
1016
+ - `per_device_train_batch_size`: 32
1017
+ - `per_device_eval_batch_size`: 16
1018
+ - `gradient_accumulation_steps`: 16
1019
+ - `learning_rate`: 2e-05
1020
+ - `lr_scheduler_type`: cosine
1021
+ - `warmup_ratio`: 0.1
1022
+ - `bf16`: True
1023
+ - `tf32`: True
1024
+ - `load_best_model_at_end`: True
1025
+ - `optim`: adamw_torch_fused
1026
+ - `batch_sampler`: no_duplicates
1027
+
1028
+ #### All Hyperparameters
1029
+ <details><summary>Click to expand</summary>
1030
+
1031
+ - `overwrite_output_dir`: False
1032
+ - `do_predict`: False
1033
+ - `eval_strategy`: epoch
1034
+ - `prediction_loss_only`: True
1035
+ - `per_device_train_batch_size`: 32
1036
+ - `per_device_eval_batch_size`: 16
1037
+ - `per_gpu_train_batch_size`: None
1038
+ - `per_gpu_eval_batch_size`: None
1039
+ - `gradient_accumulation_steps`: 16
1040
+ - `eval_accumulation_steps`: None
1041
+ - `learning_rate`: 2e-05
1042
+ - `weight_decay`: 0.0
1043
+ - `adam_beta1`: 0.9
1044
+ - `adam_beta2`: 0.999
1045
+ - `adam_epsilon`: 1e-08
1046
+ - `max_grad_norm`: 1.0
1047
+ - `num_train_epochs`: 3
1048
+ - `max_steps`: -1
1049
+ - `lr_scheduler_type`: cosine
1050
+ - `lr_scheduler_kwargs`: {}
1051
+ - `warmup_ratio`: 0.1
1052
+ - `warmup_steps`: 0
1053
+ - `log_level`: passive
1054
+ - `log_level_replica`: warning
1055
+ - `log_on_each_node`: True
1056
+ - `logging_nan_inf_filter`: True
1057
+ - `save_safetensors`: True
1058
+ - `save_on_each_node`: False
1059
+ - `save_only_model`: False
1060
+ - `restore_callback_states_from_checkpoint`: False
1061
+ - `no_cuda`: False
1062
+ - `use_cpu`: False
1063
+ - `use_mps_device`: False
1064
+ - `seed`: 42
1065
+ - `data_seed`: None
1066
+ - `jit_mode_eval`: False
1067
+ - `use_ipex`: False
1068
+ - `bf16`: True
1069
+ - `fp16`: False
1070
+ - `fp16_opt_level`: O1
1071
+ - `half_precision_backend`: auto
1072
+ - `bf16_full_eval`: False
1073
+ - `fp16_full_eval`: False
1074
+ - `tf32`: True
1075
+ - `local_rank`: 0
1076
+ - `ddp_backend`: None
1077
+ - `tpu_num_cores`: None
1078
+ - `tpu_metrics_debug`: False
1079
+ - `debug`: []
1080
+ - `dataloader_drop_last`: False
1081
+ - `dataloader_num_workers`: 0
1082
+ - `dataloader_prefetch_factor`: None
1083
+ - `past_index`: -1
1084
+ - `disable_tqdm`: False
1085
+ - `remove_unused_columns`: True
1086
+ - `label_names`: None
1087
+ - `load_best_model_at_end`: True
1088
+ - `ignore_data_skip`: False
1089
+ - `fsdp`: []
1090
+ - `fsdp_min_num_params`: 0
1091
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
1092
+ - `fsdp_transformer_layer_cls_to_wrap`: None
1093
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
1094
+ - `deepspeed`: None
1095
+ - `label_smoothing_factor`: 0.0
1096
+ - `optim`: adamw_torch_fused
1097
+ - `optim_args`: None
1098
+ - `adafactor`: False
1099
+ - `group_by_length`: False
1100
+ - `length_column_name`: length
1101
+ - `ddp_find_unused_parameters`: None
1102
+ - `ddp_bucket_cap_mb`: None
1103
+ - `ddp_broadcast_buffers`: False
1104
+ - `dataloader_pin_memory`: True
1105
+ - `dataloader_persistent_workers`: False
1106
+ - `skip_memory_metrics`: True
1107
+ - `use_legacy_prediction_loop`: False
1108
+ - `push_to_hub`: False
1109
+ - `resume_from_checkpoint`: None
1110
+ - `hub_model_id`: None
1111
+ - `hub_strategy`: every_save
1112
+ - `hub_private_repo`: False
1113
+ - `hub_always_push`: False
1114
+ - `gradient_checkpointing`: False
1115
+ - `gradient_checkpointing_kwargs`: None
1116
+ - `include_inputs_for_metrics`: False
1117
+ - `eval_do_concat_batches`: True
1118
+ - `fp16_backend`: auto
1119
+ - `push_to_hub_model_id`: None
1120
+ - `push_to_hub_organization`: None
1121
+ - `mp_parameters`:
1122
+ - `auto_find_batch_size`: False
1123
+ - `full_determinism`: False
1124
+ - `torchdynamo`: None
1125
+ - `ray_scope`: last
1126
+ - `ddp_timeout`: 1800
1127
+ - `torch_compile`: False
1128
+ - `torch_compile_backend`: None
1129
+ - `torch_compile_mode`: None
1130
+ - `dispatch_batches`: None
1131
+ - `split_batches`: None
1132
+ - `include_tokens_per_second`: False
1133
+ - `include_num_input_tokens_seen`: False
1134
+ - `neftune_noise_alpha`: None
1135
+ - `optim_target_modules`: None
1136
+ - `batch_eval_metrics`: False
1137
+ - `eval_on_start`: False
1138
+ - `batch_sampler`: no_duplicates
1139
+ - `multi_dataset_batch_sampler`: proportional
1140
+
1141
+ </details>
1142
+
1143
+ ### Training Logs
1144
+ | Epoch | Step | Training Loss | mnli no triplet loss | utdanning pair qa loss | norqa loss | dim_128_cosine_map@100 | dim_256_cosine_map@100 | dim_512_cosine_map@100 | dim_64_cosine_map@100 | dim_768_cosine_map@100 |
1145
+ |:----------:|:-------:|:-------------:|:--------------------:|:----------------------:|:----------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|:----------------------:|
1146
+ | 0.3739 | 100 | 7.5558 | - | - | - | - | - | - | - | - |
1147
+ | 0.7478 | 200 | 1.8637 | - | - | - | - | - | - | - | - |
1148
+ | 0.9984 | 267 | - | 2.1904 | 0.7226 | 2.0794 | 0.2898 | 0.3178 | 0.3317 | 0.2809 | 0.3481 |
1149
+ | 1.1218 | 300 | 1.5972 | - | - | - | - | - | - | - | - |
1150
+ | 1.4957 | 400 | 1.2965 | - | - | - | - | - | - | - | - |
1151
+ | 1.8696 | 500 | 1.1359 | - | - | - | - | - | - | - | - |
1152
+ | 1.9967 | 534 | - | 2.0289 | 0.6398 | 1.8099 | 0.2862 | 0.3332 | 0.3492 | 0.2776 | 0.3467 |
1153
+ | 2.2435 | 600 | 1.0991 | - | - | - | - | - | - | - | - |
1154
+ | 2.6174 | 700 | 0.9438 | - | - | - | - | - | - | - | - |
1155
+ | 2.9914 | 800 | 0.957 | - | - | - | - | - | - | - | - |
1156
+ | **2.9951** | **801** | **-** | **2.0308** | **0.6306** | **1.7636** | **0.3034** | **0.3371** | **0.3643** | **0.2902** | **0.3342** |
1157
+
1158
+ * The bold row denotes the saved checkpoint.
1159
+
1160
+ ### Framework Versions
1161
+ - Python: 3.11.9
1162
+ - Sentence Transformers: 3.0.1
1163
+ - Transformers: 4.42.3
1164
+ - PyTorch: 2.3.1+cu121
1165
+ - Accelerate: 0.32.1
1166
+ - Datasets: 2.20.0
1167
+ - Tokenizers: 0.19.1
1168
+
1169
+ ## Citation
1170
+
1171
+ ### BibTeX
1172
+
1173
+ #### Sentence Transformers
1174
+ ```bibtex
1175
+ @inproceedings{reimers-2019-sentence-bert,
1176
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
1177
+ author = "Reimers, Nils and Gurevych, Iryna",
1178
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
1179
+ month = "11",
1180
+ year = "2019",
1181
+ publisher = "Association for Computational Linguistics",
1182
+ url = "https://arxiv.org/abs/1908.10084",
1183
+ }
1184
+ ```
1185
+
1186
+ #### MatryoshkaLoss
1187
+ ```bibtex
1188
+ @misc{kusupati2024matryoshka,
1189
+ title={Matryoshka Representation Learning},
1190
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
1191
+ year={2024},
1192
+ eprint={2205.13147},
1193
+ archivePrefix={arXiv},
1194
+ primaryClass={cs.LG}
1195
+ }
1196
+ ```
1197
+
1198
+ #### MultipleNegativesRankingLoss
1199
+ ```bibtex
1200
+ @misc{henderson2017efficient,
1201
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
1202
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
1203
+ year={2017},
1204
+ eprint={1705.00652},
1205
+ archivePrefix={arXiv},
1206
+ primaryClass={cs.CL}
1207
+ }
1208
+ ```
1209
+
1210
+ <!--
1211
+ ## Glossary
1212
+
1213
+ *Clearly define terms in order to be accessible across audiences.*
1214
+ -->
1215
+
1216
+ <!--
1217
+ ## Model Card Authors
1218
+
1219
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
1220
+ -->
1221
+
1222
+ <!--
1223
+ ## Model Card Contact
1224
+
1225
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
1226
+ -->
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "ltg/norbert3-base",
3
+ "architectures": [
4
+ "NorbertModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "auto_map": {
8
+ "AutoConfig": "ltg/norbert3-base--configuration_norbert.NorbertConfig",
9
+ "AutoModel": "ltg/norbert3-base--modeling_norbert.NorbertModel",
10
+ "AutoModelForMaskedLM": "ltg/norbert3-base--modeling_norbert.NorbertForMaskedLM",
11
+ "AutoModelForMultipleChoice": "ltg/norbert3-base--modeling_norbert.NorbertForMultipleChoice",
12
+ "AutoModelForQuestionAnswering": "ltg/norbert3-base--modeling_norbert.NorbertForQuestionAnswering",
13
+ "AutoModelForSequenceClassification": "ltg/norbert3-base--modeling_norbert.NorbertForSequenceClassification",
14
+ "AutoModelForTokenClassification": "ltg/norbert3-base--modeling_norbert.NorbertForTokenClassification"
15
+ },
16
+ "hidden_dropout_prob": 0.1,
17
+ "hidden_size": 768,
18
+ "intermediate_size": 2048,
19
+ "layer_norm_eps": 1e-07,
20
+ "max_position_embeddings": 512,
21
+ "num_attention_heads": 12,
22
+ "num_hidden_layers": 12,
23
+ "output_all_encoded_layers": true,
24
+ "position_bucket_size": 32,
25
+ "torch_dtype": "float32",
26
+ "transformers_version": "4.42.3",
27
+ "vocab_size": 50000
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.0.1",
4
+ "transformers": "4.42.3",
5
+ "pytorch": "2.3.1+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e6bf97e4a8a4031122ece8afdfbc6a7fb59551b22d81ee266e3670514a8d2f14
3
+ size 518941336
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "[BOS]",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "[CLS]",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "[EOS]",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "[MASK]",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "[PAD]",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "[SEP]",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "[UNK]",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,870 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "[UNK]",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "[CLS]",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "[SEP]",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "[PAD]",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "4": {
36
+ "content": "[MASK]",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ },
43
+ "5": {
44
+ "content": "[BOS]",
45
+ "lstrip": false,
46
+ "normalized": false,
47
+ "rstrip": false,
48
+ "single_word": false,
49
+ "special": true
50
+ },
51
+ "6": {
52
+ "content": "[EOS]",
53
+ "lstrip": false,
54
+ "normalized": false,
55
+ "rstrip": false,
56
+ "single_word": false,
57
+ "special": true
58
+ },
59
+ "7": {
60
+ "content": "[MASK_0]",
61
+ "lstrip": false,
62
+ "normalized": false,
63
+ "rstrip": false,
64
+ "single_word": false,
65
+ "special": true
66
+ },
67
+ "8": {
68
+ "content": "[MASK_1]",
69
+ "lstrip": false,
70
+ "normalized": false,
71
+ "rstrip": false,
72
+ "single_word": false,
73
+ "special": true
74
+ },
75
+ "9": {
76
+ "content": "[MASK_2]",
77
+ "lstrip": false,
78
+ "normalized": false,
79
+ "rstrip": false,
80
+ "single_word": false,
81
+ "special": true
82
+ },
83
+ "10": {
84
+ "content": "[MASK_3]",
85
+ "lstrip": false,
86
+ "normalized": false,
87
+ "rstrip": false,
88
+ "single_word": false,
89
+ "special": true
90
+ },
91
+ "11": {
92
+ "content": "[MASK_4]",
93
+ "lstrip": false,
94
+ "normalized": false,
95
+ "rstrip": false,
96
+ "single_word": false,
97
+ "special": true
98
+ },
99
+ "12": {
100
+ "content": "[MASK_5]",
101
+ "lstrip": false,
102
+ "normalized": false,
103
+ "rstrip": false,
104
+ "single_word": false,
105
+ "special": true
106
+ },
107
+ "13": {
108
+ "content": "[MASK_6]",
109
+ "lstrip": false,
110
+ "normalized": false,
111
+ "rstrip": false,
112
+ "single_word": false,
113
+ "special": true
114
+ },
115
+ "14": {
116
+ "content": "[MASK_7]",
117
+ "lstrip": false,
118
+ "normalized": false,
119
+ "rstrip": false,
120
+ "single_word": false,
121
+ "special": true
122
+ },
123
+ "15": {
124
+ "content": "[MASK_8]",
125
+ "lstrip": false,
126
+ "normalized": false,
127
+ "rstrip": false,
128
+ "single_word": false,
129
+ "special": true
130
+ },
131
+ "16": {
132
+ "content": "[MASK_9]",
133
+ "lstrip": false,
134
+ "normalized": false,
135
+ "rstrip": false,
136
+ "single_word": false,
137
+ "special": true
138
+ },
139
+ "17": {
140
+ "content": "[MASK_10]",
141
+ "lstrip": false,
142
+ "normalized": false,
143
+ "rstrip": false,
144
+ "single_word": false,
145
+ "special": true
146
+ },
147
+ "18": {
148
+ "content": "[MASK_11]",
149
+ "lstrip": false,
150
+ "normalized": false,
151
+ "rstrip": false,
152
+ "single_word": false,
153
+ "special": true
154
+ },
155
+ "19": {
156
+ "content": "[MASK_12]",
157
+ "lstrip": false,
158
+ "normalized": false,
159
+ "rstrip": false,
160
+ "single_word": false,
161
+ "special": true
162
+ },
163
+ "20": {
164
+ "content": "[MASK_13]",
165
+ "lstrip": false,
166
+ "normalized": false,
167
+ "rstrip": false,
168
+ "single_word": false,
169
+ "special": true
170
+ },
171
+ "21": {
172
+ "content": "[MASK_14]",
173
+ "lstrip": false,
174
+ "normalized": false,
175
+ "rstrip": false,
176
+ "single_word": false,
177
+ "special": true
178
+ },
179
+ "22": {
180
+ "content": "[MASK_15]",
181
+ "lstrip": false,
182
+ "normalized": false,
183
+ "rstrip": false,
184
+ "single_word": false,
185
+ "special": true
186
+ },
187
+ "23": {
188
+ "content": "[MASK_16]",
189
+ "lstrip": false,
190
+ "normalized": false,
191
+ "rstrip": false,
192
+ "single_word": false,
193
+ "special": true
194
+ },
195
+ "24": {
196
+ "content": "[MASK_17]",
197
+ "lstrip": false,
198
+ "normalized": false,
199
+ "rstrip": false,
200
+ "single_word": false,
201
+ "special": true
202
+ },
203
+ "25": {
204
+ "content": "[MASK_18]",
205
+ "lstrip": false,
206
+ "normalized": false,
207
+ "rstrip": false,
208
+ "single_word": false,
209
+ "special": true
210
+ },
211
+ "26": {
212
+ "content": "[MASK_19]",
213
+ "lstrip": false,
214
+ "normalized": false,
215
+ "rstrip": false,
216
+ "single_word": false,
217
+ "special": true
218
+ },
219
+ "27": {
220
+ "content": "[MASK_20]",
221
+ "lstrip": false,
222
+ "normalized": false,
223
+ "rstrip": false,
224
+ "single_word": false,
225
+ "special": true
226
+ },
227
+ "28": {
228
+ "content": "[MASK_21]",
229
+ "lstrip": false,
230
+ "normalized": false,
231
+ "rstrip": false,
232
+ "single_word": false,
233
+ "special": true
234
+ },
235
+ "29": {
236
+ "content": "[MASK_22]",
237
+ "lstrip": false,
238
+ "normalized": false,
239
+ "rstrip": false,
240
+ "single_word": false,
241
+ "special": true
242
+ },
243
+ "30": {
244
+ "content": "[MASK_23]",
245
+ "lstrip": false,
246
+ "normalized": false,
247
+ "rstrip": false,
248
+ "single_word": false,
249
+ "special": true
250
+ },
251
+ "31": {
252
+ "content": "[MASK_24]",
253
+ "lstrip": false,
254
+ "normalized": false,
255
+ "rstrip": false,
256
+ "single_word": false,
257
+ "special": true
258
+ },
259
+ "32": {
260
+ "content": "[MASK_25]",
261
+ "lstrip": false,
262
+ "normalized": false,
263
+ "rstrip": false,
264
+ "single_word": false,
265
+ "special": true
266
+ },
267
+ "33": {
268
+ "content": "[MASK_26]",
269
+ "lstrip": false,
270
+ "normalized": false,
271
+ "rstrip": false,
272
+ "single_word": false,
273
+ "special": true
274
+ },
275
+ "34": {
276
+ "content": "[MASK_27]",
277
+ "lstrip": false,
278
+ "normalized": false,
279
+ "rstrip": false,
280
+ "single_word": false,
281
+ "special": true
282
+ },
283
+ "35": {
284
+ "content": "[MASK_28]",
285
+ "lstrip": false,
286
+ "normalized": false,
287
+ "rstrip": false,
288
+ "single_word": false,
289
+ "special": true
290
+ },
291
+ "36": {
292
+ "content": "[MASK_29]",
293
+ "lstrip": false,
294
+ "normalized": false,
295
+ "rstrip": false,
296
+ "single_word": false,
297
+ "special": true
298
+ },
299
+ "37": {
300
+ "content": "[MASK_30]",
301
+ "lstrip": false,
302
+ "normalized": false,
303
+ "rstrip": false,
304
+ "single_word": false,
305
+ "special": true
306
+ },
307
+ "38": {
308
+ "content": "[MASK_31]",
309
+ "lstrip": false,
310
+ "normalized": false,
311
+ "rstrip": false,
312
+ "single_word": false,
313
+ "special": true
314
+ },
315
+ "39": {
316
+ "content": "[MASK_32]",
317
+ "lstrip": false,
318
+ "normalized": false,
319
+ "rstrip": false,
320
+ "single_word": false,
321
+ "special": true
322
+ },
323
+ "40": {
324
+ "content": "[MASK_33]",
325
+ "lstrip": false,
326
+ "normalized": false,
327
+ "rstrip": false,
328
+ "single_word": false,
329
+ "special": true
330
+ },
331
+ "41": {
332
+ "content": "[MASK_34]",
333
+ "lstrip": false,
334
+ "normalized": false,
335
+ "rstrip": false,
336
+ "single_word": false,
337
+ "special": true
338
+ },
339
+ "42": {
340
+ "content": "[MASK_35]",
341
+ "lstrip": false,
342
+ "normalized": false,
343
+ "rstrip": false,
344
+ "single_word": false,
345
+ "special": true
346
+ },
347
+ "43": {
348
+ "content": "[MASK_36]",
349
+ "lstrip": false,
350
+ "normalized": false,
351
+ "rstrip": false,
352
+ "single_word": false,
353
+ "special": true
354
+ },
355
+ "44": {
356
+ "content": "[MASK_37]",
357
+ "lstrip": false,
358
+ "normalized": false,
359
+ "rstrip": false,
360
+ "single_word": false,
361
+ "special": true
362
+ },
363
+ "45": {
364
+ "content": "[MASK_38]",
365
+ "lstrip": false,
366
+ "normalized": false,
367
+ "rstrip": false,
368
+ "single_word": false,
369
+ "special": true
370
+ },
371
+ "46": {
372
+ "content": "[MASK_39]",
373
+ "lstrip": false,
374
+ "normalized": false,
375
+ "rstrip": false,
376
+ "single_word": false,
377
+ "special": true
378
+ },
379
+ "47": {
380
+ "content": "[MASK_40]",
381
+ "lstrip": false,
382
+ "normalized": false,
383
+ "rstrip": false,
384
+ "single_word": false,
385
+ "special": true
386
+ },
387
+ "48": {
388
+ "content": "[MASK_41]",
389
+ "lstrip": false,
390
+ "normalized": false,
391
+ "rstrip": false,
392
+ "single_word": false,
393
+ "special": true
394
+ },
395
+ "49": {
396
+ "content": "[MASK_42]",
397
+ "lstrip": false,
398
+ "normalized": false,
399
+ "rstrip": false,
400
+ "single_word": false,
401
+ "special": true
402
+ },
403
+ "50": {
404
+ "content": "[MASK_43]",
405
+ "lstrip": false,
406
+ "normalized": false,
407
+ "rstrip": false,
408
+ "single_word": false,
409
+ "special": true
410
+ },
411
+ "51": {
412
+ "content": "[MASK_44]",
413
+ "lstrip": false,
414
+ "normalized": false,
415
+ "rstrip": false,
416
+ "single_word": false,
417
+ "special": true
418
+ },
419
+ "52": {
420
+ "content": "[MASK_45]",
421
+ "lstrip": false,
422
+ "normalized": false,
423
+ "rstrip": false,
424
+ "single_word": false,
425
+ "special": true
426
+ },
427
+ "53": {
428
+ "content": "[MASK_46]",
429
+ "lstrip": false,
430
+ "normalized": false,
431
+ "rstrip": false,
432
+ "single_word": false,
433
+ "special": true
434
+ },
435
+ "54": {
436
+ "content": "[MASK_47]",
437
+ "lstrip": false,
438
+ "normalized": false,
439
+ "rstrip": false,
440
+ "single_word": false,
441
+ "special": true
442
+ },
443
+ "55": {
444
+ "content": "[MASK_48]",
445
+ "lstrip": false,
446
+ "normalized": false,
447
+ "rstrip": false,
448
+ "single_word": false,
449
+ "special": true
450
+ },
451
+ "56": {
452
+ "content": "[MASK_49]",
453
+ "lstrip": false,
454
+ "normalized": false,
455
+ "rstrip": false,
456
+ "single_word": false,
457
+ "special": true
458
+ },
459
+ "57": {
460
+ "content": "[MASK_50]",
461
+ "lstrip": false,
462
+ "normalized": false,
463
+ "rstrip": false,
464
+ "single_word": false,
465
+ "special": true
466
+ },
467
+ "58": {
468
+ "content": "[MASK_51]",
469
+ "lstrip": false,
470
+ "normalized": false,
471
+ "rstrip": false,
472
+ "single_word": false,
473
+ "special": true
474
+ },
475
+ "59": {
476
+ "content": "[MASK_52]",
477
+ "lstrip": false,
478
+ "normalized": false,
479
+ "rstrip": false,
480
+ "single_word": false,
481
+ "special": true
482
+ },
483
+ "60": {
484
+ "content": "[MASK_53]",
485
+ "lstrip": false,
486
+ "normalized": false,
487
+ "rstrip": false,
488
+ "single_word": false,
489
+ "special": true
490
+ },
491
+ "61": {
492
+ "content": "[MASK_54]",
493
+ "lstrip": false,
494
+ "normalized": false,
495
+ "rstrip": false,
496
+ "single_word": false,
497
+ "special": true
498
+ },
499
+ "62": {
500
+ "content": "[MASK_55]",
501
+ "lstrip": false,
502
+ "normalized": false,
503
+ "rstrip": false,
504
+ "single_word": false,
505
+ "special": true
506
+ },
507
+ "63": {
508
+ "content": "[MASK_56]",
509
+ "lstrip": false,
510
+ "normalized": false,
511
+ "rstrip": false,
512
+ "single_word": false,
513
+ "special": true
514
+ },
515
+ "64": {
516
+ "content": "[MASK_57]",
517
+ "lstrip": false,
518
+ "normalized": false,
519
+ "rstrip": false,
520
+ "single_word": false,
521
+ "special": true
522
+ },
523
+ "65": {
524
+ "content": "[MASK_58]",
525
+ "lstrip": false,
526
+ "normalized": false,
527
+ "rstrip": false,
528
+ "single_word": false,
529
+ "special": true
530
+ },
531
+ "66": {
532
+ "content": "[MASK_59]",
533
+ "lstrip": false,
534
+ "normalized": false,
535
+ "rstrip": false,
536
+ "single_word": false,
537
+ "special": true
538
+ },
539
+ "67": {
540
+ "content": "[MASK_60]",
541
+ "lstrip": false,
542
+ "normalized": false,
543
+ "rstrip": false,
544
+ "single_word": false,
545
+ "special": true
546
+ },
547
+ "68": {
548
+ "content": "[MASK_61]",
549
+ "lstrip": false,
550
+ "normalized": false,
551
+ "rstrip": false,
552
+ "single_word": false,
553
+ "special": true
554
+ },
555
+ "69": {
556
+ "content": "[MASK_62]",
557
+ "lstrip": false,
558
+ "normalized": false,
559
+ "rstrip": false,
560
+ "single_word": false,
561
+ "special": true
562
+ },
563
+ "70": {
564
+ "content": "[MASK_63]",
565
+ "lstrip": false,
566
+ "normalized": false,
567
+ "rstrip": false,
568
+ "single_word": false,
569
+ "special": true
570
+ },
571
+ "71": {
572
+ "content": "[MASK_64]",
573
+ "lstrip": false,
574
+ "normalized": false,
575
+ "rstrip": false,
576
+ "single_word": false,
577
+ "special": true
578
+ },
579
+ "72": {
580
+ "content": "[MASK_65]",
581
+ "lstrip": false,
582
+ "normalized": false,
583
+ "rstrip": false,
584
+ "single_word": false,
585
+ "special": true
586
+ },
587
+ "73": {
588
+ "content": "[MASK_66]",
589
+ "lstrip": false,
590
+ "normalized": false,
591
+ "rstrip": false,
592
+ "single_word": false,
593
+ "special": true
594
+ },
595
+ "74": {
596
+ "content": "[MASK_67]",
597
+ "lstrip": false,
598
+ "normalized": false,
599
+ "rstrip": false,
600
+ "single_word": false,
601
+ "special": true
602
+ },
603
+ "75": {
604
+ "content": "[MASK_68]",
605
+ "lstrip": false,
606
+ "normalized": false,
607
+ "rstrip": false,
608
+ "single_word": false,
609
+ "special": true
610
+ },
611
+ "76": {
612
+ "content": "[MASK_69]",
613
+ "lstrip": false,
614
+ "normalized": false,
615
+ "rstrip": false,
616
+ "single_word": false,
617
+ "special": true
618
+ },
619
+ "77": {
620
+ "content": "[MASK_70]",
621
+ "lstrip": false,
622
+ "normalized": false,
623
+ "rstrip": false,
624
+ "single_word": false,
625
+ "special": true
626
+ },
627
+ "78": {
628
+ "content": "[MASK_71]",
629
+ "lstrip": false,
630
+ "normalized": false,
631
+ "rstrip": false,
632
+ "single_word": false,
633
+ "special": true
634
+ },
635
+ "79": {
636
+ "content": "[MASK_72]",
637
+ "lstrip": false,
638
+ "normalized": false,
639
+ "rstrip": false,
640
+ "single_word": false,
641
+ "special": true
642
+ },
643
+ "80": {
644
+ "content": "[MASK_73]",
645
+ "lstrip": false,
646
+ "normalized": false,
647
+ "rstrip": false,
648
+ "single_word": false,
649
+ "special": true
650
+ },
651
+ "81": {
652
+ "content": "[MASK_74]",
653
+ "lstrip": false,
654
+ "normalized": false,
655
+ "rstrip": false,
656
+ "single_word": false,
657
+ "special": true
658
+ },
659
+ "82": {
660
+ "content": "[MASK_75]",
661
+ "lstrip": false,
662
+ "normalized": false,
663
+ "rstrip": false,
664
+ "single_word": false,
665
+ "special": true
666
+ },
667
+ "83": {
668
+ "content": "[MASK_76]",
669
+ "lstrip": false,
670
+ "normalized": false,
671
+ "rstrip": false,
672
+ "single_word": false,
673
+ "special": true
674
+ },
675
+ "84": {
676
+ "content": "[MASK_77]",
677
+ "lstrip": false,
678
+ "normalized": false,
679
+ "rstrip": false,
680
+ "single_word": false,
681
+ "special": true
682
+ },
683
+ "85": {
684
+ "content": "[MASK_78]",
685
+ "lstrip": false,
686
+ "normalized": false,
687
+ "rstrip": false,
688
+ "single_word": false,
689
+ "special": true
690
+ },
691
+ "86": {
692
+ "content": "[MASK_79]",
693
+ "lstrip": false,
694
+ "normalized": false,
695
+ "rstrip": false,
696
+ "single_word": false,
697
+ "special": true
698
+ },
699
+ "87": {
700
+ "content": "[MASK_80]",
701
+ "lstrip": false,
702
+ "normalized": false,
703
+ "rstrip": false,
704
+ "single_word": false,
705
+ "special": true
706
+ },
707
+ "88": {
708
+ "content": "[MASK_81]",
709
+ "lstrip": false,
710
+ "normalized": false,
711
+ "rstrip": false,
712
+ "single_word": false,
713
+ "special": true
714
+ },
715
+ "89": {
716
+ "content": "[MASK_82]",
717
+ "lstrip": false,
718
+ "normalized": false,
719
+ "rstrip": false,
720
+ "single_word": false,
721
+ "special": true
722
+ },
723
+ "90": {
724
+ "content": "[MASK_83]",
725
+ "lstrip": false,
726
+ "normalized": false,
727
+ "rstrip": false,
728
+ "single_word": false,
729
+ "special": true
730
+ },
731
+ "91": {
732
+ "content": "[MASK_84]",
733
+ "lstrip": false,
734
+ "normalized": false,
735
+ "rstrip": false,
736
+ "single_word": false,
737
+ "special": true
738
+ },
739
+ "92": {
740
+ "content": "[MASK_85]",
741
+ "lstrip": false,
742
+ "normalized": false,
743
+ "rstrip": false,
744
+ "single_word": false,
745
+ "special": true
746
+ },
747
+ "93": {
748
+ "content": "[MASK_86]",
749
+ "lstrip": false,
750
+ "normalized": false,
751
+ "rstrip": false,
752
+ "single_word": false,
753
+ "special": true
754
+ },
755
+ "94": {
756
+ "content": "[MASK_87]",
757
+ "lstrip": false,
758
+ "normalized": false,
759
+ "rstrip": false,
760
+ "single_word": false,
761
+ "special": true
762
+ },
763
+ "95": {
764
+ "content": "[MASK_88]",
765
+ "lstrip": false,
766
+ "normalized": false,
767
+ "rstrip": false,
768
+ "single_word": false,
769
+ "special": true
770
+ },
771
+ "96": {
772
+ "content": "[MASK_89]",
773
+ "lstrip": false,
774
+ "normalized": false,
775
+ "rstrip": false,
776
+ "single_word": false,
777
+ "special": true
778
+ },
779
+ "97": {
780
+ "content": "[MASK_90]",
781
+ "lstrip": false,
782
+ "normalized": false,
783
+ "rstrip": false,
784
+ "single_word": false,
785
+ "special": true
786
+ },
787
+ "98": {
788
+ "content": "[MASK_91]",
789
+ "lstrip": false,
790
+ "normalized": false,
791
+ "rstrip": false,
792
+ "single_word": false,
793
+ "special": true
794
+ },
795
+ "99": {
796
+ "content": "[MASK_92]",
797
+ "lstrip": false,
798
+ "normalized": false,
799
+ "rstrip": false,
800
+ "single_word": false,
801
+ "special": true
802
+ },
803
+ "100": {
804
+ "content": "[MASK_93]",
805
+ "lstrip": false,
806
+ "normalized": false,
807
+ "rstrip": false,
808
+ "single_word": false,
809
+ "special": true
810
+ },
811
+ "101": {
812
+ "content": "[MASK_94]",
813
+ "lstrip": false,
814
+ "normalized": false,
815
+ "rstrip": false,
816
+ "single_word": false,
817
+ "special": true
818
+ },
819
+ "102": {
820
+ "content": "[MASK_95]",
821
+ "lstrip": false,
822
+ "normalized": false,
823
+ "rstrip": false,
824
+ "single_word": false,
825
+ "special": true
826
+ },
827
+ "103": {
828
+ "content": "[MASK_96]",
829
+ "lstrip": false,
830
+ "normalized": false,
831
+ "rstrip": false,
832
+ "single_word": false,
833
+ "special": true
834
+ },
835
+ "104": {
836
+ "content": "[MASK_97]",
837
+ "lstrip": false,
838
+ "normalized": false,
839
+ "rstrip": false,
840
+ "single_word": false,
841
+ "special": true
842
+ },
843
+ "105": {
844
+ "content": "[MASK_98]",
845
+ "lstrip": false,
846
+ "normalized": false,
847
+ "rstrip": false,
848
+ "single_word": false,
849
+ "special": true
850
+ },
851
+ "106": {
852
+ "content": "[MASK_99]",
853
+ "lstrip": false,
854
+ "normalized": false,
855
+ "rstrip": false,
856
+ "single_word": false,
857
+ "special": true
858
+ }
859
+ },
860
+ "bos_token": "[BOS]",
861
+ "clean_up_tokenization_spaces": true,
862
+ "cls_token": "[CLS]",
863
+ "eos_token": "[EOS]",
864
+ "mask_token": "[MASK]",
865
+ "model_max_length": 1000000000000000019884624838656,
866
+ "pad_token": "[PAD]",
867
+ "sep_token": "[SEP]",
868
+ "tokenizer_class": "PreTrainedTokenizerFast",
869
+ "unk_token": "[UNK]"
870
+ }