OpenAI vient de publier gpt-oss-120b et gpt-oss-20b en tant que modèles de raisonnement open-weight sous la licence Apache 2.0, utilisant des architectures Mixture-of-Experts avec 116,8 milliards et 20,9 milliards de paramètres au total, pouvant fonctionner sur des GPU uniques et offrant des niveaux d'effort de raisonnement variables avec un outil avancé.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
16 J'aime
Récompense
16
6
Partager
Commentaire
0/400
OfflineValidator
· Il y a 17m
C'est un bon travail de récompense.
Voir l'originalRépondre0
ChainWallflower
· Il y a 19h
Avancer par petites étapes pour voir des résultats rapidement
Voir l'originalRépondre0
liquidation_watcher
· 08-05 21:26
Trop bull, j'attends le test.
Voir l'originalRépondre0
wagmi_eventually
· 08-05 21:23
Enfin Open Source
Voir l'originalRépondre0
GasWaster
· 08-05 21:21
C'est un peu intéressant, ça.
Voir l'originalRépondre0
AirdropFatigue
· 08-05 21:07
C'est toujours bien d'avoir des choses gratuitement.
OpenAI vient de publier gpt-oss-120b et gpt-oss-20b en tant que modèles de raisonnement open-weight sous la licence Apache 2.0, utilisant des architectures Mixture-of-Experts avec 116,8 milliards et 20,9 milliards de paramètres au total, pouvant fonctionner sur des GPU uniques et offrant des niveaux d'effort de raisonnement variables avec un outil avancé.