Le système Fozzels.com obtient ses données des systèmes GPT-3 et GPT-4 d'OpenAI. Cela se fait via leur API (interface de programmation d'application). En tant que client de Fozzels, vous devrez lier votre propre compte OpenAI et payer OpenAI séparément pour les textes générés. Fozzels.com est la plateforme sur laquelle vous pouvez gérer vos générations de textes et automatiser la rédaction de contenu pour votre boutique en ligne.
Table des matières
OpenAI propose plusieurs modèles de langage, chacun avec des capacités et des prix différents. Ada est le modèle le plus rapide, tandis que Davinci est le plus puissant.
Les prix indiqués dans le tableau sont pour 1 000 jetons. Vous pouvez considérer les jetons comme des morceaux de mots, où 1 000 jetons correspondent à environ 750 mots.
Modèle | Entraînement | Usage |
Ada | $0.0004 / 1000 jetons | $0.0016 / 1000 jetons |
Babbage | $0.0006 / 1000 jetons | $0.0024 / 1000 jetons |
Curie | $0.0030 / 1000 jetons | $0.0120 / 1000 jetons |
Davinci | $0.0300 / 1000 jetons | $0.1200 / 1000 jetons |
Quels sont les coûts à prévoir pour l'utilisation de ChatGPT
Pour avoir une idée des coûts liés à la génération automatique de textes de description de produits pour votre boutique en ligne en utilisant Fozzels.com, voir le tableau ci-dessous.
À titre d’exemple : 1000 textes de description de produits, avec 100 mots chacun, généré par le moteur ChatGPT « Davinci », sera coûte environ $2,66.
Modèle | Note | Prix | Jetons de relations publiques | Est ~ mots | Coûts par mot | Coûts par texte de 100 mots | 1000 textes de produits de 100 mots générés |
---|---|---|---|---|---|---|---|
Ada | Le plus rapide | $0.000400 | 1000 | 750 | $0.000000533 | $0.000053333 | $0.053333333 |
Babbage | $0.000500 | 1000 | 750 | $0.000000667 | $0.000066667 | $0.066666667 | |
Curie | $0.002000 | 1000 | 750 | $0.000002667 | $0.000266667 | $0.266666667 | |
Davinci | Le plus puissant | $0.020000 | 1000 | 750 | $0.000026667 | $0.002666667 | $2.666666667 |
Qu'est-ce qu'un jeton ?
Vous pouvez considérer les tokens comme des fragments de mots utilisés pour le traitement du langage naturel. Pour un texte anglais, 1 token correspond à environ 4 caractères ou 0,75 mot. À titre de référence, les œuvres complètes de Shakespeare représentent environ 900 000 mots ou 1,2 million de tokens.
Pour en savoir plus sur le fonctionnement des jetons et estimer votre utilisation : a) Expérimentez avec l'outil interactif d'OpenAI Outil de tokenisation; ou b) connectez-vous à votre compte OpenAI et saisissez du texte dans le Playground. Le compteur dans le pied de page affichera le nombre de jetons présents dans votre texte.
Quel modèle dois-je utiliser ?
Bien que Davinci soit généralement le modèle le plus performant, les autres modèles peuvent effectuer certaines tâches extrêmement bien et, dans certains cas, beaucoup plus rapidement. Ils présentent également des avantages en termes de coût. Par exemple, Curie peut effectuer de nombreuses tâches identiques à Davinci, mais plus rapidement et pour un coût 1/10 fois inférieur. Nous encourageons nos clients à expérimenter pour trouver le modèle le plus efficace pour leur application. Consultez la documentation d'OpenAI pour une description plus détaillée comparaison de modèles.
Les modèles GPT-3 d'OpenAI peuvent comprendre et générer du langage naturel. OpenAI propose quatre modèles principaux avec différents niveaux de puissance adaptés à différentes tâches. Davinci est le modèle le plus performant et Ada est le plus rapide. Bien que Davinci soit généralement le plus performant, les autres modèles peuvent effectuer certaines tâches extrêmement bien avec des avantages significatifs en termes de vitesse ou de coût. Nous vous recommandons d'utiliser Davinci lors de vos expérimentations, car il donnera les meilleurs résultats. Une fois que tout fonctionne, nous vous encourageons à essayer les autres modèles pour voir si vous pouvez obtenir les mêmes résultats avec une latence plus faible.
Da Vinci
Le modèle GPT-3 le plus performant. Il peut effectuer toutes les tâches que les autres modèles peuvent effectuer, souvent avec une qualité supérieure, une sortie plus longue et un meilleur suivi des instructions. Il prend également en charge l'insertion de complétions dans le texte. Davinci est la famille de modèles la plus performante et peut effectuer toutes les tâches que les autres modèles peuvent effectuer et souvent avec moins d'instructions. Pour les applications nécessitant une grande compréhension du contenu, comme la synthèse pour un public spécifique et la génération de contenu créatif, Davinci va produire les meilleurs résultats. Ces capacités accrues nécessitent davantage de ressources de calcul, donc Davinci coûte plus cher par appel d'API et n'est pas aussi rapide que les autres modèles. Un autre domaine dans lequel Davinci brille est celui de comprendre l'intention du texte. Davinci est très doué pour résoudre de nombreux types de problèmes logiques et expliquer les motivations des personnages. Davinci a été capable de résoudre certains des problèmes d'IA les plus difficiles impliquant des relations de cause à effet. Bon dans les domaines suivants : intention complexe, cause à effet, résumé pour le public.
Curie
Curie est extrêmement puissant, mais très rapide. Alors que Davinci est plus fort lorsqu'il s'agit d'analyser des textes compliqués, Curie est tout à fait capable d'effectuer de nombreuses tâches nuancées comme la classification et la synthèse des sentiments. Curie est également assez doué pour répondre aux questions et effectuer des questions-réponses et en tant que chatbot de service général. Bon pour : la traduction linguistique, la classification complexe, les sentiments de texte, la synthèse
Babbage
Babbage peut effectuer des tâches simples comme une classification simple. Il est également très performant en matière de recherche sémantique, en évaluant la correspondance entre les documents et les requêtes de recherche. Bon pour : classification modérée, classification par recherche sémantique
Ada
Ada est généralement le modèle le plus rapide et peut effectuer des tâches telles que l'analyse de texte, la correction d'adresse et certains types de tâches de classification qui ne nécessitent pas trop de nuances. Les performances d'Ada peuvent souvent être améliorées en fournissant plus de contexte. Bon pour : l'analyse de texte, la classification simple, la correction d'adresse, les mots-clés. Remarque : toute tâche effectuée par un modèle plus rapide comme Ada peut être effectuée par un modèle plus puissant comme Curie ou Davinci.