Le GPT-4 Turbo d’OpenAI rapproche la singularité de l’IA de la réalité

Le GPT-4 Turbo d’OpenAI rapproche la singularité de l’IA de la réalité

Il ne s’agit pas d’un conseil en investissement. L’auteur n’a aucune position dans aucun des titres mentionnés.

La singularité de l’IA est définie comme un seuil historique où l’intelligence artificielle (IA) dépasse manifestement l’intelligence humaine, ouvrant ainsi le nirvana de la productivité. Aujourd’hui, avec la sortie du GPT-4 Turbo d’OpenAI, l’humanité a fait un pas de plus vers la réalisation de ce rêve utopique ultime.

OpenAI a dévoilé hier son modèle LLM (Large Language Model) basé sur l’IA le plus puissant, créant un buzz important dans la sphère technologique mondiale. Surnommée GPT-4 Turbo (Generative Pre-Trained Transformer-4 Turbo), la version prête pour la production devrait faire ses débuts officiels dans les prochaines semaines. Alors que le GPT-4 vanille a été entraîné sur des informations remontant jusqu’à septembre 2021, le GPT-4 Turbo est équipé de données bien plus récentes, ayant été entraîné sur des informations remontant jusqu’à avril 2023 .

En ce qui concerne les principales fonctionnalités de GPT-4 Turbo, OpenAI a noté hier lors de sa toute première conférence de développeurs :

  • Deux versions, l’une spécialisée dans l’analyse de texte, tandis que l’autre est capable de traiter et d’interpréter le contexte textuel et image. Le premier est désormais disponible via un aperçu API.
  • Le nouveau modèle d’IA serait considérablement moins cher à exploiter pour les développeurs, avec une entrée ne coûtant que 0,01 $ pour 1 000 jetons (une unité de base de texte ou de code qu’un LLM utilise pour générer sa réponse) contre 0,03 $ dans le cas du GPT-4 vanille. modèle. Dans les deux cas, la production coûterait environ 0,03 $ pour 1 000 jetons.
  • La dernière offre d’OpenAI continuera à prendre en charge les requêtes de synthèse vocale, les saisies basées sur des images et les requêtes de génération d’images via l’intégration DALL-E 3.
  • GPT-4 Turbo serait capable de gérer des tâches très complexes contenues dans une seule invite, grâce à sa formation beaucoup plus exhaustive.
  • Le changement le plus important, cependant, concerne la fenêtre contextuelle des jetons du LLM, une mesure de la richesse ou de la profondeur des entrées et des sorties d’un LLM particulier. GPT-4 Turbo propose une fenêtre contextuelle environ 4 fois supérieure à celle de GPT-4, capable de traiter 128 000 jetons . Pour le contexte, 1 000 jetons équivalent à peu près à 750 mots. Cela signifie que la dernière offre d’OpenAI est capable de traiter 96 000 mots. Claude 2 d’Anthropic ne peut traiter que 100 000 jetons pour le moment.

Cela nous amène au cœur du problème. Le co-fondateur de rug.ai et de Diffusion , Joseph Ayoub, estime que la sortie de GPT-4 Turbo est « le plus grand pas vers la singularité que nous ayons vu au cours de notre vie ».

Ayoub identifie à juste titre le contexte comme l’une des principales contraintes vis-à-vis de l’intelligence artificielle. L’une des raisons fondamentales pour lesquelles les humains sont beaucoup plus intelligents que les machines est, bien entendu, notre capacité à saisir et à comprendre des informations contextuelles bien plus vastes.

De plus, GPT-4 Turbo permet aux utilisateurs de créer des GPT personnalisés ! Cela signifie que vous pouvez optimiser le LLM en fonction de vos besoins et exigences uniques.

Pensez-vous que nous soyons au bord d’une singularité de l’IA ? Faites-nous part de vos réflexions dans la section commentaires ci-dessous.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *