Google dévoile les modèles avancés de la série Gemini 1.5 et réduit le prix des API de 50 %
Aujourd’hui, Google a dévoilé deux modèles Gemini 1.5 améliorés et prêts à être mis en production : Gemini-1.5-Pro-002 et Gemini-1.5-Flash-002. Ces derniers modèles offrent des améliorations progressives par rapport aux modèles Gemini 1.5 originaux sortis en mai.
Les modèles révisés de la série Gemini 1.5 permettent une augmentation d’environ 7 % de MMLU-Pro, une amélioration d’environ 20 % des tests de performance MATH et HiddenMath, et des améliorations allant de 2 % à 7 % dans les scénarios de vision et de codage. De plus, Google a affiné l’utilité globale des réponses du modèle. Ces modèles génèrent désormais des réponses dans un format plus concis, avec une longueur de sortie par défaut d’environ 5 % à 20 % plus courte que celle de leurs prédécesseurs.
En plus des améliorations apportées aux fonctionnalités du modèle, Google met également en œuvre un changement notable dans les prix : ils réduisent le coût des API de modèle de la série Gemini 1.5.
- Une réduction de 64 % sur les jetons d’entrée.
- Une réduction de 52 % sur les jetons de sortie.
- Une diminution de 64 % des jetons mis en cache incrémentiels pour Gemini 1.5 Pro, en vigueur à compter du 1er octobre 2024, pour les invites inférieures à 128 000 jetons.
Google augmente également les limites de débit, ce qui permet aux développeurs de créer des applications d’IA sophistiquées. Les limites de débit du niveau payant pour le modèle Gemini 1.5 Flash sont désormais de 2 000 tr/min, tandis que pour le modèle Pro, elles sont passées à 1 000 tr/min, contre 1 000 et 360 respectivement. De plus, ces nouveaux modèles réduisent la latence, offrant aux développeurs un rendement attendu deux fois plus rapide et trois fois moins de latence.
Avec le lancement de la version mise à jour de Gemini 1.5 (modèles -002), Google a amélioré la capacité du modèle à respecter les instructions de l’utilisateur tout en maintenant les protocoles de sécurité. Par défaut, Google n’appliquera pas de filtres de sécurité du contenu IA sur ces derniers modèles. Au lieu de cela, les développeurs peuvent appliquer les filtres en fonction de leurs besoins spécifiques.
Enfin, Google a déployé une version améliorée du modèle Gemini 1.5 appelée « Gemini-1.5-Flash-8B-Exp-0924 ». Cette version expérimentale présente des améliorations significatives des performances des applications textuelles et multimodales. Tous ces modèles Gemini 1.5 mis à jour sont désormais accessibles aux développeurs via Google AI Studio et l’API Gemini. Pour les grandes entreprises et les clients Google Cloud, ces modèles Gemini 1.5 récemment mis à jour sont disponibles sur Vertex AI.
Laisser un commentaire