GPT(3)
-
GPT-3 API 받았네??
굉장히 당황스럽다..! 작년 이맘때쯤 구글 닥스로 신청했던 것 같은데.. 1년 뒤에 API key를 주네ㅋㅋㅋㅋ 그래도 신기하다 베타 버전은 18달러어치까지만 무료로 이용 가능한 듯 정말 별 게 다 가능한 GPT-3... * 어린이를 위해 쉽게 요약해주기 * 일상적인 말을 프로그램 명령어처럼 바꾸기 * 상품 설명을 입력으로 주면 그에 맞는 광고 문구 쓰기..!!!! * 영화를 이모티콘으로 요약하기
2021.07.30 -
임베딩Embedding 정리
임베딩이란 자연어처리 분야에서 의미를 표현하는 표준적인 방식이다. ‘비슷한 맥락에 등장하는 단어들은 유사한 의미를 지닌다’는 distributional hypothesis에 따라, 임베딩에서 의미는 어떤 단어가 사용되는 문맥에 따라 정의된다. 단어의 의미를 벡터로 표현한 임베딩을 사용하면, 벡터 연산을 통해 유사도 계산 등 다양한 과제를 할 수 있다. 초기의 임베딩은 단순히 주변 단어의 빈도를 나타내는 것이었으나, 최근에는 transformer model을 활용한 임베딩으로까지 발전했다. 1. Static Word Embedding 1.1. Sparse Vector - TF-IDF, PMI 등이 있다 - 특정 단어의 빈도를 기반으로 한 임베딩이다 - 일반화 어렵다 - 0이 많아서 벡터 크기가 크다 * t..
2021.02.25 -
GPT 정리
1. GPT (Generative Pre-Training) • goal: learn a universal representation • generative pre-training (unlabeled text) + discriminative fine-tuning (labeled text) 1.1. Unsupervised pre-training 1.2. Supervised fine-tuning 2. GPT-2 • difference from BERT GPT-2 BERT Direction uni-directional auto-regression mask future tokens bi-directional Tokenizer BPE(Byte-pair Encoding) WordPiece Tokenizer Fine-..
2020.10.07