Info hash | 208b101a0f51514ecf285885a8b0f6fb1a1e4d7d | ||||||||||
Last mirror activity | 3:37 ago | ||||||||||
Size | 14.48GB (14,484,008,451 bytes) | ||||||||||
Added | 2023-09-29 22:18:28 | ||||||||||
Views | 310 | ||||||||||
Hits | 1117 | ||||||||||
ID | 5087 | ||||||||||
Type | multi | ||||||||||
Downloaded | 4315 time(s) | ||||||||||
Uploaded by | joecohen | ||||||||||
Folder | mistral-7B-v0.1 | ||||||||||
Num files | 4 files | ||||||||||
File list [Hide list] |
| ||||||||||
Mirrors | 20 complete, 0 downloading = 20 mirror(s) total [Log in to see full list] |
mistral-7B-v0.1 (4 files)
params.json | 0.20kB |
RELEASE | 10.55kB |
tokenizer.model | 493.44kB |
consolidated.00.pth | 14.48GB |
Type: Dataset
Tags:
Bibtex:
Tags:
Bibtex:
@article{, title= {mistral-7B-v0.1}, journal= {}, author= {Mistral AI}, year= {}, url= {https://mistral.ai/news/announcing-mistral-7b/}, abstract= {Mistral 7B is a 7.3B parameter model that: - Outperforms Llama 2 13B on all benchmarks - Outperforms Llama 1 34B on many benchmarks - Approaches CodeLlama 7B performance on code, while remaining good at English tasks - Uses Grouped-query attention (GQA) for faster inference - Uses Sliding Window Attention (SWA) to handle longer sequences at smaller cost - We’re releasing Mistral 7B under the Apache 2.0 license, it can be used without restrictions. ``` ▄▄▄░░ ▄▄▄▄▄█████████░░░░ ▄▄▄▄▄▄████████████████████░░░░░ █████████████████████████████░░░░░ ▄▄▄▄▄▄█████░░░ █████████████████████████████░░░░░ ▄▄▄▄▄██████████████████░░░░░░ ██████████████████████████████░░░░░ ▄█████████████████████████████░░░░░░░░██████████████████████████████░░░░░ ███████████████████████████████░░░░░░░██████████████████████████████░░░░░ ███████████████████████████████░░░░░░░██████████████████████████████░░░░░ ███████████████████████████████░░░░░░███████████████████████████████░░░░░ ████████████████████████████████░░░░░███████████████████████████████░░░░░ ████████████████████████████████░░░░████████████████████████████████░░░░░ █████████████████████████████████░░░████████████████████████████████░░░░░ █████████████████████████████████░░░████████████░███████████████████░░░░░ ██████████████████████████████████░█████████████░███████████████████░░░░░ ███████████████████░██████████████▄█████████████░███████████████████░░░░░ ███████████████████░███████████████████████████░░███████████████████░░░░░ ███████████████████░░██████████████████████████░░███████████████████░░░░░ ███████████████████░░█████████████████████████░░░███████████████████░░░░░ ███████████████████░░░████████████████████████░░░███████████████████░░░░░ ███████████████████░░░████████████████████████░░░███████████████████░░░░░ ███████████████████░░░░██████████████████████░░░░███████████████████░░░░░ ███████████████████░░░░██████████████████████░░░░███████████████████░░░░░ ███████████████████░░░░░█████████████████████░░░░███████████████████░░░░░ ███████████████████░░░░░████████████████████░░░░░███████████████████░░░░░ ███████████████████░░░░░░███████████████████░░░░░███████████████████░░░░░ ███████████████████░░░░░░██████████████████░░░░░░███████████████████░░░░░ ███████████████████░░░░░░░█████████████████░░░░░░███████████████████░░░░░ ███████████████████░░░░░░░█████████████████░░░░░░███████████████████░░░░░ ███████████████████░░░░░░░░███████████████░░░░░░░██████████░░░░░░░░░░░░░░ ███████████████████░░░░░░░░███████████████░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░ ███████████████████░░░░░░░░███████████░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░ ███████████████████░░░░░░░░░██░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░ ███████████████░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░ ██████████░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░ ░░░░░░░ ░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░ ░░░ ░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░░ ░░░░░░░░░░░░░░░░░░ ░░░░░░░░░░░░░░░░░░░░░░░░░░░░ ░░░░░░░░░░░░░░░░░ ░░░░░ ╓────────────────────────────────────────────────────────────────────────────╖ ║ MISTRAL AI - 7B - v0.1 27/09/23 ║ ╙────────────────────────────────────────────────────────────────────────────╜ ╓────────────────────────────────────────────────────────────────────────────╖ ║ ║ ║ ·· md5sum ·· ║ ║ ║ ║ e2e37b12c741eb0782697362e40a262a consolidated.00.pth ║ ║ 37974873eb68a7ab30c4912fc36264ae tokenizer.model ║ ╙────────────────────────────────────────────────────────────────────────────╜ ╓────────────────────────────────────────────────────────────────────────────╖ ║ ║ ║ ·· Released by the Mistral AI team ·· ║ ║ ║ ║ Albert, Alexandre, Arthur, Bam4d, Devendra, Diego, Florian, ║ ║ Gianna, Guillaume, Lélio, Lucas, Lucile, Marie-Anne, Pierre, ║ ║ Raphaël, Teven, Thibaut, Thomas, Timothée, William ║ ║ ║ ╙────────────────────────────────────────────────────────────────────────────╜ ```}, keywords= {}, terms= {}, license= {https://www.apache.org/licenses/LICENSE-2.0}, superseded= {} }