Przez zespół Fozzels
18-01-2023

Cennik ChatGPT (OpenAI)

System Fozzels.com pobiera dane z systemów GPT-3 i GPT-4 w OpenAI. Odbywa się to za pośrednictwem ich API (interfejsu programowania aplikacji). Jako klient Fozzels musisz połączyć swoje własne konto OpenAI i zapłacić OpenAI osobno za generowane teksty. Fozzels.com to platforma, na której możesz zarządzać generowaniem tekstów i automatyzować pisanie treści do swojego sklepu internetowego.

Spis treści

OpenAI oferuje wiele modeli językowych, każdy z różnymi możliwościami i ceną. Ada jest najszybszym modelem, podczas gdy Davinci jest najpotężniejszy.

Ceny podane w tabeli są za 1000 tokenów. Możesz myśleć o tokenach jako o fragmentach słów, gdzie 1000 tokenów to około 750 słów.

Model Szkolenie Stosowanie
Ada $0.0004 / 1000 tokenów $0.0016 / 1000 tokenów
Babbage $0.0006 / 1000 tokenów $0.0024 / 1000 tokenów
Curie $0.0030 / 1000 tokenów $0.0120 / 1000 tokenów
Davinci $0.0300 / 1000 tokenów $0.1200 / 1000 tokenów
Cennik OpenAI ChatGPT z dnia 18 stycznia 2023 r.

Jakich kosztów należy się spodziewać korzystając z ChatGPT

Aby uzyskać informacje o kosztach automatycznego generowania tekstów opisów produktów dla Twojego sklepu internetowego, pl.fozzels.comzobacz poniższą tabelę.

Na przykład: 1000 tekstów opisowych produktów, z 100 słów każde, wygenerowane przez silnik ChatGPT „Davinci”, będzie koszt około $2,66.

Model Notatka Cena Tokeny Pr Jest ~ słowa Koszty za słowo Koszty za tekst 100 słów Wygenerowano 1000 tekstów produktów składających się z 100 słów
Ada Najszybszy $0.000400 1000 750 $0.000000533 $0.000053333 $0.053333333
Babbage   $0.000500 1000 750 $0.000000667 $0.000066667 $0.066666667
Curie   $0.002000 1000 750 $0.000002667 $0.000266667 $0.266666667
Davinci Najpotężniejszy $0.020000 1000 750 $0.000026667 $0.002666667 $2.666666667
Tabela z szacunkową ceną za 1000 tekstów opisów produktów

Czym jest token?

Możesz myśleć o tokenach jako o fragmentach słów używanych do przetwarzania języka naturalnego. W przypadku tekstu angielskiego 1 token to około 4 znaki lub 0,75 słowa. Jako punkt odniesienia, zebrane dzieła Szekspira mają około 900 000 słów lub 1,2 mln tokenów.

Aby dowiedzieć się więcej o działaniu tokenów i oszacować ich wykorzystanie: a) Eksperymentuj z interaktywnym narzędziem OpenAI Narzędzie Tokenizer; lub b) zaloguj się na swoje konto OpenAI i wprowadź tekst do Playground. Licznik w stopce wyświetli liczbę tokenów w Twoim tekście.

Którego modelu powinienem użyć?

Podczas gdy Davinci jest ogólnie najbardziej wydajnym modelem, inne modele mogą wykonywać pewne zadania wyjątkowo dobrze, a w niektórych przypadkach znacznie szybciej. Mają też przewagę kosztową. Na przykład Curie może wykonywać wiele takich samych zadań jak Davinci, ale szybciej i za 1/10 ceny. Zachęcamy naszych klientów do eksperymentowania, aby znaleźć model, który jest najbardziej wydajny dla Twojej aplikacji. Odwiedź dokumentację OpenAI, aby uzyskać bardziej szczegółowe informacje porównanie modeli.

Modele GPT-3 OpenAI potrafią rozumieć i generować język naturalny. OpenAI oferuje cztery główne modele o różnych poziomach mocy, odpowiednie do różnych zadań. Davinci jest najbardziej wydajnym modelem, a Ada jest najszybsza. Podczas gdy Davinci jest ogólnie najbardziej wydajny, inne modele mogą wykonywać pewne zadania wyjątkowo dobrze, przy znacznych korzyściach w zakresie szybkości lub kosztów. Zalecamy korzystanie z Davinci podczas eksperymentów, ponieważ da najlepsze rezultaty. Gdy wszystko zacznie działać, zachęcamy do wypróbowania innych modeli, aby sprawdzić, czy można uzyskać takie same rezultaty przy niższym opóźnieniu.

DaVinci

Najbardziej wydajny model GPT-3. Może wykonywać dowolne zadanie, które mogą wykonywać inne modele, często z wyższą jakością, dłuższym wyjściem i lepszym przestrzeganiem instrukcji. Obsługuje również wstawianie uzupełnień w tekście. Davinci jest najbardziej wydajną rodziną modeli i może wykonywać dowolne zadanie, które mogą wykonywać inne modele, często z mniejszą liczbą instrukcji. W przypadku aplikacji wymagających dużego zrozumienia treści, takich jak podsumowanie dla określonej grupy odbiorców i generowanie kreatywnych treści, Davinci zapewni najlepsze wyniki. Te zwiększone możliwości wymagają więcej zasobów obliczeniowych, więc Davinci kosztuje więcej na wywołanie API i nie jest tak szybki jak inne modele. Innym obszarem, w którym Davinci się wyróżnia, jest zrozumienie intencji tekstu. Davinci jest całkiem dobry w rozwiązywaniu wielu rodzajów problemów logicznych i wyjaśnianiu motywów postaci. Davinci był w stanie rozwiązać niektóre z najtrudniejszych problemów AI związanych z przyczyną i skutkiem. Dobry w: złożonych intencjach, przyczynach i skutkach, podsumowaniu dla odbiorców.

Curie

Curie jest niezwykle potężny, a jednocześnie bardzo szybki. Podczas gdy Davinci jest silniejszy, jeśli chodzi o analizę skomplikowanego tekstu, Curie jest całkiem zdolny do wielu niuansowych zadań, takich jak klasyfikacja sentymentów i podsumowania. Curie jest również całkiem dobry w odpowiadaniu na pytania i przeprowadzaniu sesji pytań i odpowiedzi oraz jako ogólny chatbot usługowy. Dobry w: tłumaczeniu języków, złożonej klasyfikacji, sentymentach tekstu, podsumowaniach

Babbage

Babbage może wykonywać proste zadania, takie jak prosta klasyfikacja. Jest również całkiem zdolny, jeśli chodzi o ranking wyszukiwania semantycznego, jak dobrze dokumenty pasują do zapytań wyszukiwania. Dobry w: Umiarkowanej klasyfikacji, klasyfikacji wyszukiwania semantycznego

Ada

Ada jest zazwyczaj najszybszym modelem i może wykonywać zadania takie jak parsowanie tekstu, korekta adresów i pewne rodzaje zadań klasyfikacyjnych, które nie wymagają zbyt wielu niuansów. Wydajność Ady można często poprawić, zapewniając więcej kontekstu. Dobry w: parsowaniu tekstu, prostej klasyfikacji, korekcie adresów, słowach kluczowych. Uwaga: Każde zadanie wykonywane przez szybszy model, taki jak Ada, może zostać wykonane przez mocniejszy model, taki jak Curie lub Davinci.

Cennik OpenAI w nagłówku obrazu
Obraz nagłówka - Chatgpt OpenAI
Udostępnij ten artykuł:
LinkedIn
Facebook
Świergot
WhatsApp
E-mail

Więcej postów