File size: 2,566 Bytes
2851a6a
 
 
 
 
 
 
 
 
 
 
 
 
4af3420
 
 
 
 
 
2851a6a
7796937
2851a6a
7796937
934fa6f
 
 
 
 
 
 
 
 
7796937
 
4af3420
 
 
 
7796937
 
 
 
 
 
 
 
 
 
 
 
 
 
934fa6f
7796937
934fa6f
7796937
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2851a6a
7796937
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
---
license: apache-2.0
datasets:
- trollek/Danoia-v01
- trollek/ProbingPanoia-v01
- trollek/Panoia-v02
- smangrul/ultrachat-10k-chatml
- Gryphe/Sonnet3.5-SlimOrcaDedupCleaned-20k
language:
- da
- en
base_model:
- LumiOpen/Viking-7B
- mpasila/Viking-Magnum-v0.1-7B
- mpasila/Viking-SlimSonnet-v1-7B
library_name: transformers
tags:
- mergekit
- merge
---
<img src="https://huggingface.co/trollek/Holger-7B-v0.1/resolve/main/holger-viking.png" alt="Android Vikingen Holger">

# Du har fundet Holger!

Det er *forrykt* at danske open source sprogmodeller halter lidt; **æøå** be damned! Og nok også andre ting, men \[A-ZÆØÅa-zæøå\] giver kronisk mentaleksem. **Anyway!**

HOLGER! En fintunet åben Viking på åbne data under et åbent licens. Respekt for licenser er sådan kapitalismen er, og GUDS NÅDE fucking trøste dig hvis du ikke udgiver Llama modeller uden også at bøje knæet for Zuck. Redemption arc eller ej. 10% af 1 fantasiliard er stadig mere end jeg kan prostiturere mig selv for.

## Sprogmodellens beskrivelse

> Hva' lav' do nu? - Det vil jeg helst ikke snakke om. - Kom nu! - Jeg træner og snakker med sprogmodeller.. - Fra udlandet? - Jaaaa...

Viking modellen kan åbenbart finde ud af at overføre træning fra engelsk til dansk, og sandsynligvis de andre skandisprog. Maybe. 

## Kvanter

- [trollek/Holger-7B-v0.1-GGUF](https://huggingface.co/trollek/Holger-7B-v0.1-GGUF)

## Merge Detaljer
### Merge Metode

Denne model er merged med della_linear metoden og med [LumiOpen/Viking-7B](https://huggingface.co/LumiOpen/Viking-7B) som base.

### Modeller Merged

Følgende modeller er brugt i dette merge:
* viking/merges/holger5 
* viking/merges/holger3
* [mpasila/Viking-Magnum-v0.1-7B](https://huggingface.co/mpasila/Viking-Magnum-v0.1-7B)
* [mpasila/Viking-SlimSonnet-v1-7B](https://huggingface.co/mpasila/Viking-SlimSonnet-v1-7B)

### Konfiguration

Følgende YAML konfigurationsfil blev brugt til at skabe dette merge:

```yaml
models:
  - model: viking/merges/holger3
    parameters:
      weight: 0.53
      density: 0.55
      epsilon: 0.11
  - model: viking/merges/holger5
    parameters:
      weight: 0.78
      density: 0.81
      epsilon: 0.17
  - model: mpasila/Viking-Magnum-v0.1-7B
    parameters:
      weight: 0.88
      density: 0.91
      epsilon: 0.07
  - model: mpasila/Viking-SlimSonnet-v1-7B
    parameters:
      weight: 0.83
      density: 0.75
      epsilon: 0.11
merge_method: della_linear
base_model: LumiOpen/Viking-7B
parameters:
  normalize: true
  int8_mask: true
  lambda: 1.08
dtype: bfloat16

```