File size: 2,566 Bytes
2851a6a 4af3420 2851a6a 7796937 2851a6a 7796937 934fa6f 7796937 4af3420 7796937 934fa6f 7796937 934fa6f 7796937 2851a6a 7796937 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 |
---
license: apache-2.0
datasets:
- trollek/Danoia-v01
- trollek/ProbingPanoia-v01
- trollek/Panoia-v02
- smangrul/ultrachat-10k-chatml
- Gryphe/Sonnet3.5-SlimOrcaDedupCleaned-20k
language:
- da
- en
base_model:
- LumiOpen/Viking-7B
- mpasila/Viking-Magnum-v0.1-7B
- mpasila/Viking-SlimSonnet-v1-7B
library_name: transformers
tags:
- mergekit
- merge
---
<img src="https://huggingface.co/trollek/Holger-7B-v0.1/resolve/main/holger-viking.png" alt="Android Vikingen Holger">
# Du har fundet Holger!
Det er *forrykt* at danske open source sprogmodeller halter lidt; **æøå** be damned! Og nok også andre ting, men \[A-ZÆØÅa-zæøå\] giver kronisk mentaleksem. **Anyway!**
HOLGER! En fintunet åben Viking på åbne data under et åbent licens. Respekt for licenser er sådan kapitalismen er, og GUDS NÅDE fucking trøste dig hvis du ikke udgiver Llama modeller uden også at bøje knæet for Zuck. Redemption arc eller ej. 10% af 1 fantasiliard er stadig mere end jeg kan prostiturere mig selv for.
## Sprogmodellens beskrivelse
> Hva' lav' do nu? - Det vil jeg helst ikke snakke om. - Kom nu! - Jeg træner og snakker med sprogmodeller.. - Fra udlandet? - Jaaaa...
Viking modellen kan åbenbart finde ud af at overføre træning fra engelsk til dansk, og sandsynligvis de andre skandisprog. Maybe.
## Kvanter
- [trollek/Holger-7B-v0.1-GGUF](https://huggingface.co/trollek/Holger-7B-v0.1-GGUF)
## Merge Detaljer
### Merge Metode
Denne model er merged med della_linear metoden og med [LumiOpen/Viking-7B](https://huggingface.co/LumiOpen/Viking-7B) som base.
### Modeller Merged
Følgende modeller er brugt i dette merge:
* viking/merges/holger5
* viking/merges/holger3
* [mpasila/Viking-Magnum-v0.1-7B](https://huggingface.co/mpasila/Viking-Magnum-v0.1-7B)
* [mpasila/Viking-SlimSonnet-v1-7B](https://huggingface.co/mpasila/Viking-SlimSonnet-v1-7B)
### Konfiguration
Følgende YAML konfigurationsfil blev brugt til at skabe dette merge:
```yaml
models:
- model: viking/merges/holger3
parameters:
weight: 0.53
density: 0.55
epsilon: 0.11
- model: viking/merges/holger5
parameters:
weight: 0.78
density: 0.81
epsilon: 0.17
- model: mpasila/Viking-Magnum-v0.1-7B
parameters:
weight: 0.88
density: 0.91
epsilon: 0.07
- model: mpasila/Viking-SlimSonnet-v1-7B
parameters:
weight: 0.83
density: 0.75
epsilon: 0.11
merge_method: della_linear
base_model: LumiOpen/Viking-7B
parameters:
normalize: true
int8_mask: true
lambda: 1.08
dtype: bfloat16
``` |