Microsoft promet de donner bientôt aux clients l’accès à ChatGPT en tant que service sur Azure

Microsoft promet de donner bientôt aux clients l’accès à ChatGPT en tant que service sur Azure

ChatGPT a fait beaucoup de vagues dans les médias grand public ces derniers temps. Les capacités et les cas d’utilisation potentiels démontrés par le grand modèle de langage GPT-3 ont réussi à épater les consommateurs et les entreprises clientes. Naturellement, Microsoft, qui a investi 1 milliard de dollars dans la société fondatrice de ChatGPT, OpenAI – avec des rapports sur d’autres financements à suivre, veut capitaliser sur cet élan. En tant que tel, il s’est engagé à lancer bientôt ChatGPT sur Azure.

Microsoft a annoncé que son service Azure OpenAI est désormais généralement disponible, ce qui signifie que les clients peuvent accéder à des modèles d’IA complexes tels que GPT-3.5, Codex et DALL•E 2 sur le cloud. Pour ceux qui ne le savent pas, GPT est la famille de grands modèles de langage qui alimente ChatGPT, Codex est le modèle utilisé pour convertir le langage naturel en code de programmation dans GitHub Copilot, et DALL•E est un service qui peut générer des images après avoir reçu uniquement des entrées textuelles.

En tant que tel, Microsoft s’est vanté qu’Azure est le « meilleur endroit pour créer des charges de travail d’IA » pour les clients de toutes tailles dans divers secteurs qui cherchent à gagner du temps sur les activités opérationnelles et à offrir des services rationalisés alimentés par l’IA aux utilisateurs finaux. Il affirme que les clients peuvent créer des applications d’IA sur Azure en tirant parti d’une infrastructure optimisée pour l’IA spécialement conçue avec des fonctionnalités de niveau entreprise.

Cela dit, Microsoft a noté qu’il s’engage à innover de manière responsable dans le domaine de l’IA – beaucoup de gens pensent que ce n’est pas le cas en ce moment du moins. Il met l’accent :

Nous avons adopté une approche itérative des grands modèles, en étroite collaboration avec notre partenaire OpenAI et nos clients pour évaluer soigneusement les cas d’utilisation, apprendre et gérer les risques potentiels. De plus, nous avons mis en place nos propres barrières de sécurité pour le service Azure OpenAI qui s’alignent sur nos principes d’IA responsable. Dans le cadre de notre cadre d’accès limité, les développeurs sont tenus de demander un accès, en décrivant leur cas d’utilisation ou leur application prévue avant de pouvoir accéder au service. Les filtres de contenu spécialement conçus pour détecter les contenus abusifs, haineux et offensants surveillent en permanence les entrées fournies au service ainsi que le contenu généré. En cas de violation confirmée de la politique, nous pouvons demander au développeur de prendre des mesures immédiates pour empêcher de nouveaux abus.

Nous sommes confiants dans la qualité des modèles d’IA que nous utilisons et proposons à nos clients aujourd’hui, et nous croyons fermement qu’ils permettront aux entreprises et aux personnes d’innover de manière entièrement nouvelle et passionnante.

Bien que ChatGPT sera bientôt disponible en tant que service sur Azure pour que les clients puissent s’appuyer dessus, le géant de la technologie de Redmond n’a pas encore vraiment défini de date de sortie concrète.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *