Frandroid : Jeudi 23 avril, OpenAI déroule le tapis rouge pour GPT-5.5, son modèle le plus cher jamais commercialisé. Quelques heures plus tard, DeepSeek balance ses poids sur Hugging Face sous licence MIT, sans conférence, sans teaser, sans CEO. Juste un lien, un prix et 1,6 billion de paramètres à télécharger. Bref, la méthode chinoise dans toute sa splendeur, saboter la fête sans même s’inviter.
DeepSeek V4 arrive en deux versions, Pro et Flash, toutes deux en mixture-of-experts avec 1 million de tokens de contexte. Le principe, en gros, c’est un modèle géant découpé en « experts » spécialisés, dont seule une petite fraction s’active à chaque requête. On garde la puissance d’un mastodonte sans payer le coût de calcul à chaque fois.
La Pro aligne 1,6 billion de paramètres au total, dont 49 milliards seulement sont mobilisés par requête. Ce qui en fait, sur le papier, le plus gros modèle open source du marché, devant Kimi K2.6 de Moonshot (1,1 billion) et plus du double de la précédente V3.2 (671 milliards). La Flash, plus modeste, tourne à 284 milliards de paramètres, dont 13 milliards activés. Les deux sont téléchargeables librement sous licence MIT, et l’API est déjà ouverte.



