Mistral AI hat mehrere Open-Source-Sprachmodelle entwickelt, die unter der Apache-2.0-Lizenz veröffentlicht wurden. Zu den bekanntesten Modellen gehören:
Mistral 7B: Ein Sprachmodell mit 7,3 Milliarden Parametern, das am 27. September 2023 veröffentlicht wurde. Es übertrifft in vielen Benchmarks das LLaMA 2 13B-Modell und ist mit LLaMA 34B vergleichbar.
Mixtral 8x7B: Ein Sparse-Mixture-of-Experts-Modell mit 8 Experten, das am 9. Dezember 2023 veröffentlicht wurde. Es verfügt über insgesamt 46,7 Milliarden Parameter, wobei pro Token 12,9 Milliarden Parameter genutzt werden. In Benchmarks übertrifft es sowohl LLaMA 70B als auch GPT-3.5.
Mixtral 8x22B: Ein weiteres Sparse-Mixture-of-Experts-Modell mit 8 Experten, veröffentlicht am 10. April 2024. Es enthält insgesamt 141 Milliarden Parameter, wobei einige Parameter zwischen den Experten geteilt werden.
Mistral Large 2: Angekündigt am 24. Juli 2024, ist dieses Modell mit 123 Milliarden Parametern ausgestattet und bietet eine Kontextlänge von 128.000 Tokens. Es ist unter der Mistral Research License für Forschungs- und Bildungszwecke sowie unter einer kommerziellen Lizenz für kommerzielle Anwendungen verfügbar.
Diese Modelle sind darauf ausgelegt, Entwicklern und Forschern leistungsstarke Werkzeuge für verschiedene Anwendungen zur Verfügung zu stellen.
- Link abrufen
- X
- Andere Apps
- Link abrufen
- X
- Andere Apps
Kommentare
Kommentar veröffentlichen