Ancrer les réponses Gemini avec la recherche Google : une nouvelle fonctionnalité coûteuse pour les développeurs
Les API de pointe de modèles de langage volumineux (LLM) d’OpenAI, d’Anthropic et de Google fournissent généralement des réponses satisfaisantes. Cependant, elles rencontrent de sérieuses difficultés avec les requêtes concernant l’actualité. Cette limitation est due à leur ensemble d’entraînement, qui a un seuil de connaissances spécifique. Pour résoudre ce problème, Google a récemment dévoilé une fonctionnalité innovante dans Google AI Studio et l’API Gemini qui permet aux utilisateurs d’intégrer les réponses aux données de recherche Google en temps réel.
La fonctionnalité innovante Grounding with Google Search permet aux développeurs de générer des réponses plus récentes et plus précises à partir des LLM Gemini. L’un des aspects remarquables de cette fonctionnalité est qu’elle inclut des références de base (liens en ligne vers des sources) ainsi que des suggestions de recherche pertinentes pour les réponses contextuelles.
Cette nouvelle fonctionnalité est compatible avec toutes les versions disponibles au public des modèles Gemini 1.5. Cependant, elle coûte 35 $ pour 1 000 requêtes Grounded. Les développeurs intéressés par l’utilisation de cette fonctionnalité peuvent accéder à la section « Outils » de Google AI Studio ou activer l’outil « google_search_retrieval » dans l’API. Comme toujours, les utilisateurs peuvent expérimenter gratuitement cette fonctionnalité Grounding via Google AI Studio.
Google conseille aux développeurs d’exploiter cette fonctionnalité dans plusieurs scénarios clés :
- Hallucinations minimisées : la mise à la terre contribue à la fourniture d’informations plus précises, améliorant ainsi la fiabilité des résultats de l’IA.
- Accès aux informations actuelles : Grounding permet aux modèles d’extraire des données en temps réel, garantissant ainsi que les réponses de l’IA restent pertinentes dans un éventail plus large de contextes.
- Fiabilité et trafic des éditeurs accrus : en incorporant des liens sources, la mise à la terre favorise la transparence dans les applications d’IA, encourageant les utilisateurs à étudier le contenu référencé pour plus d’informations.
- Des données plus complètes : en utilisant les informations de la recherche Google, la mise à la terre peut enrichir les réponses avec un contexte et des détails supplémentaires.
Lorsque cette fonctionnalité est activée, à la réception d’une requête utilisateur, l’API du modèle Gemini accède au moteur de recherche de Google pour récupérer les informations les plus récentes pertinentes à la requête, qui seront traitées par le modèle Gemini pour fournir une réponse plus précise et à jour.
Crédits photos : Neowin.net
Laisser un commentaire