Update README.md
Browse files
README.md
CHANGED
|
@@ -148,10 +148,20 @@ model-index:
|
|
| 148 |
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=recogna-nlp/gembode-7b-it
|
| 149 |
name: Open Portuguese LLM Leaderboard
|
| 150 |
---
|
| 151 |
-
|
| 152 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 153 |
|
| 154 |
-
The following `bitsandbytes` quantization config was used during training:
|
| 155 |
- quant_method: bitsandbytes
|
| 156 |
- _load_in_8bit: False
|
| 157 |
- _load_in_4bit: True
|
|
@@ -165,13 +175,19 @@ The following `bitsandbytes` quantization config was used during training:
|
|
| 165 |
- bnb_4bit_quant_storage: uint8
|
| 166 |
- load_in_4bit: True
|
| 167 |
- load_in_8bit: False
|
| 168 |
-
|
|
|
|
| 169 |
|
| 170 |
|
| 171 |
- PEFT 0.5.0
|
| 172 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 173 |
|
| 174 |
-
# Open Portuguese LLM Leaderboard
|
| 175 |
|
| 176 |
Detailed results can be found [here](https://huggingface.co/datasets/eduagarcia-temp/llm_pt_leaderboard_raw_results/tree/main/recogna-nlp/gembode-7b-it) and on the [🚀 Open Portuguese LLM Leaderboard](https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard)
|
| 177 |
|
|
|
|
| 148 |
url: https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard?query=recogna-nlp/gembode-7b-it
|
| 149 |
name: Open Portuguese LLM Leaderboard
|
| 150 |
---
|
| 151 |
+
# gembode-7b-it
|
| 152 |
|
| 153 |
+
<!--- PROJECT LOGO -->
|
| 154 |
+
<p align="center">
|
| 155 |
+
<img src="https://huggingface.co/recogna-nlp/GemBode-2b-it/resolve/main/gembode.jpg" alt="Phi-Bode Logo" width="400" style="margin-left:'auto' margin-right:'auto' display:'block'"/>
|
| 156 |
+
</p>
|
| 157 |
+
|
| 158 |
+
GemmBode é um modelo de linguagem ajustado para o idioma português, desenvolvido a partir do modelo Gemma-7b-it fornecido pela [Google](https://huggingface.co/google/gemma-7b-it).
|
| 159 |
+
|
| 160 |
+
|
| 161 |
+
# Treinamento
|
| 162 |
+
|
| 163 |
+
A seguinte configuração de quantização `bitsandbytes` foi usada durante o treinamento:
|
| 164 |
|
|
|
|
| 165 |
- quant_method: bitsandbytes
|
| 166 |
- _load_in_8bit: False
|
| 167 |
- _load_in_4bit: True
|
|
|
|
| 175 |
- bnb_4bit_quant_storage: uint8
|
| 176 |
- load_in_4bit: True
|
| 177 |
- load_in_8bit: False
|
| 178 |
+
-
|
| 179 |
+
### Versões da estrutura
|
| 180 |
|
| 181 |
|
| 182 |
- PEFT 0.5.0
|
| 183 |
|
| 184 |
+
## Características Principais
|
| 185 |
+
|
| 186 |
+
- **Modelo Base:** Gemma-7b-it, criado pela Google, com 7 bilhões de parâmetros.
|
| 187 |
+
- **Dataset para Fine-tuning:** [UltraAlpaca](https://huggingface.co/datasets/recogna-nlp/ultra-alpaca-ptbr)
|
| 188 |
+
- **Treinamento:** O treinamento foi realizado a partir do fine-tuning, com QLoRA do gemma-7b-it.
|
| 189 |
|
| 190 |
+
# Resultados da avaliação do Open Portuguese LLM Leaderboard
|
| 191 |
|
| 192 |
Detailed results can be found [here](https://huggingface.co/datasets/eduagarcia-temp/llm_pt_leaderboard_raw_results/tree/main/recogna-nlp/gembode-7b-it) and on the [🚀 Open Portuguese LLM Leaderboard](https://huggingface.co/spaces/eduagarcia/open_pt_llm_leaderboard)
|
| 193 |
|