Par l'équipe Fozzels
18-01-2023

Tarifs de ChatGPT (OpenAI)

Le système Fozzels.com obtient ses données des systèmes GPT-3 et GPT-4 d'OpenAI. Cela se fait via leur API (interface de programmation d'application). En tant que client de Fozzels, vous devrez lier votre propre compte OpenAI et payer OpenAI séparément pour les textes générés. Fozzels.com est la plateforme sur laquelle vous pouvez gérer vos générations de textes et automatiser la rédaction de contenu pour votre boutique en ligne.

Table des matières

OpenAI propose plusieurs modèles de langage, chacun avec des capacités et des prix différents. Ada est le modèle le plus rapide, tandis que Davinci est le plus puissant.

Les prix indiqués dans le tableau sont pour 1 000 jetons. Vous pouvez considérer les jetons comme des morceaux de mots, où 1 000 jetons correspondent à environ 750 mots.

Modèle Entraînement Usage
Ada $0.0004 / 1000 jetons $0.0016 / 1000 jetons
Babbage $0.0006 / 1000 jetons $0.0024 / 1000 jetons
Curie $0.0030 / 1000 jetons $0.0120 / 1000 jetons
Davinci $0.0300 / 1000 jetons $0.1200 / 1000 jetons
Tableau des tarifs d'OpenAI ChatGPT au 18 janvier 2023

Quels sont les coûts à prévoir pour l'utilisation de ChatGPT

Pour avoir une idée des coûts liés à la génération automatique de textes de description de produits pour votre boutique en ligne en utilisant Fozzels.com, voir le tableau ci-dessous.

À titre d’exemple : 1000 textes de description de produits, avec 100 mots chacun, généré par le moteur ChatGPT « Davinci », sera coûte environ $2,66.

Modèle Note Prix Jetons de relations publiques Est ~ mots Coûts par mot Coûts par texte de 100 mots 1000 textes de produits de 100 mots générés
Ada Le plus rapide $0.000400 1000 750 $0.000000533 $0.000053333 $0.053333333
Babbage   $0.000500 1000 750 $0.000000667 $0.000066667 $0.066666667
Curie   $0.002000 1000 750 $0.000002667 $0.000266667 $0.266666667
Davinci Le plus puissant $0.020000 1000 750 $0.000026667 $0.002666667 $2.666666667
Tableau avec prix estimés pour 1000 textes de description de produits

Qu'est-ce qu'un jeton ?

Vous pouvez considérer les tokens comme des fragments de mots utilisés pour le traitement du langage naturel. Pour un texte anglais, 1 token correspond à environ 4 caractères ou 0,75 mot. À titre de référence, les œuvres complètes de Shakespeare représentent environ 900 000 mots ou 1,2 million de tokens.

Pour en savoir plus sur le fonctionnement des jetons et estimer votre utilisation : a) Expérimentez avec l'outil interactif d'OpenAI Outil de tokenisation; ou b) connectez-vous à votre compte OpenAI et saisissez du texte dans le Playground. Le compteur dans le pied de page affichera le nombre de jetons présents dans votre texte.

Quel modèle dois-je utiliser ?

Bien que Davinci soit généralement le modèle le plus performant, les autres modèles peuvent effectuer certaines tâches extrêmement bien et, dans certains cas, beaucoup plus rapidement. Ils présentent également des avantages en termes de coût. Par exemple, Curie peut effectuer de nombreuses tâches identiques à Davinci, mais plus rapidement et pour un coût 1/10 fois inférieur. Nous encourageons nos clients à expérimenter pour trouver le modèle le plus efficace pour leur application. Consultez la documentation d'OpenAI pour une description plus détaillée comparaison de modèles.

Les modèles GPT-3 d'OpenAI peuvent comprendre et générer du langage naturel. OpenAI propose quatre modèles principaux avec différents niveaux de puissance adaptés à différentes tâches. Davinci est le modèle le plus performant et Ada est le plus rapide. Bien que Davinci soit généralement le plus performant, les autres modèles peuvent effectuer certaines tâches extrêmement bien avec des avantages significatifs en termes de vitesse ou de coût. Nous vous recommandons d'utiliser Davinci lors de vos expérimentations, car il donnera les meilleurs résultats. Une fois que tout fonctionne, nous vous encourageons à essayer les autres modèles pour voir si vous pouvez obtenir les mêmes résultats avec une latence plus faible.

Da Vinci

Le modèle GPT-3 le plus performant. Il peut effectuer toutes les tâches que les autres modèles peuvent effectuer, souvent avec une qualité supérieure, une sortie plus longue et un meilleur suivi des instructions. Il prend également en charge l'insertion de complétions dans le texte. Davinci est la famille de modèles la plus performante et peut effectuer toutes les tâches que les autres modèles peuvent effectuer et souvent avec moins d'instructions. Pour les applications nécessitant une grande compréhension du contenu, comme la synthèse pour un public spécifique et la génération de contenu créatif, Davinci va produire les meilleurs résultats. Ces capacités accrues nécessitent davantage de ressources de calcul, donc Davinci coûte plus cher par appel d'API et n'est pas aussi rapide que les autres modèles. Un autre domaine dans lequel Davinci brille est celui de comprendre l'intention du texte. Davinci est très doué pour résoudre de nombreux types de problèmes logiques et expliquer les motivations des personnages. Davinci a été capable de résoudre certains des problèmes d'IA les plus difficiles impliquant des relations de cause à effet. Bon dans les domaines suivants : intention complexe, cause à effet, résumé pour le public.

Curie

Curie est extrêmement puissant, mais très rapide. Alors que Davinci est plus fort lorsqu'il s'agit d'analyser des textes compliqués, Curie est tout à fait capable d'effectuer de nombreuses tâches nuancées comme la classification et la synthèse des sentiments. Curie est également assez doué pour répondre aux questions et effectuer des questions-réponses et en tant que chatbot de service général. Bon pour : la traduction linguistique, la classification complexe, les sentiments de texte, la synthèse

Babbage

Babbage peut effectuer des tâches simples comme une classification simple. Il est également très performant en matière de recherche sémantique, en évaluant la correspondance entre les documents et les requêtes de recherche. Bon pour : classification modérée, classification par recherche sémantique

Ada

Ada est généralement le modèle le plus rapide et peut effectuer des tâches telles que l'analyse de texte, la correction d'adresse et certains types de tâches de classification qui ne nécessitent pas trop de nuances. Les performances d'Ada peuvent souvent être améliorées en fournissant plus de contexte. Bon pour : l'analyse de texte, la classification simple, la correction d'adresse, les mots-clés. Remarque : toute tâche effectuée par un modèle plus rapide comme Ada peut être effectuée par un modèle plus puissant comme Curie ou Davinci.

Tarification OpenAI pour l'image d'en-tête
Image d'en-tête - Chatgpt OpenAI
Partagez cet article :
LinkedIn
Facebook
Gazouillement
WhatsApp
E-mail

Plus de messages