Chat GPT의 입력 Token 수를 세보자(Jtokkit 소개)
"This model's maximum context length is 4097 tokens. However, you requested 4162 tokens (66 in the messages, 4096 in the completion). Please reduce the length of the messages or completion." GPT를 쓰다보면 이런 에러를 만나는 경우가 있을 것이다. 이 에러는 왜 나는 걸까? 모델에 입력할 수 있는 최대 토큰 수를 초과했기 때문에 나는 에러이다. 토큰 수는 일반적으로 텍스트의 길이를 비율을 정해서 본다면, 어느정도는 맞을 수 있다. 다만, 토큰 수 = 텍스트 길이는 참이 아니다. 그렇다면 토큰 수는 어떻게 세면 될까? OpenAI에서는 공식적으로 토큰 수를..
개발/chatGPT
2023. 5. 24. 22:48
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 스프링부트
- serverless
- OpenAI
- 티스토리챌린지
- JWT
- AWS EC2
- springboot
- openAI API
- cache
- AWS
- elasticsearch
- AOP
- OpenFeign
- CloudFront
- Log
- docker
- ChatGPT
- terraform
- EKS
- 후쿠오카
- Elastic cloud
- S3
- GIT
- 오블완
- java
- lambda
- MySQL
- 람다
- Kotlin
- Spring
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
글 보관함