🤗 Huggingface Hosted Model & Tokenizer
[연세대(1)]
연민이라는 것은 양날의 검과 같다
세기의 악연일수도..
대가는 혹독할것이다 연기의 끝은 상처다
[연세대(2)]
연약한 마음으로 강한 척하지 말고 강한 마음을 먹자
세 마디 말보다 한마디 말이 더 진정성 있어 보인다.
대시 하지 마라.
[자탄풍]
자그마하게
탄식의 강을 건너고
풍경의 나무를 넘어가네
[너는 나의]
- 너는 나의 거짓말. 나는 너의 참말. 너를 잊었다는 나와 나를 잊었다는 너의 차이.
- 너는 나의 태양 네가 나눈 빛이면 나는 달빛에도 그을음이 피었다.
[그대 왜 내 꿈에]
- 그대 왜 내 꿈에 나오지 않는 걸까요, 내 꿈 속에서도 그대 사라지면 어쩌나요
- 그대 왜 내 꿈에 불시착했는가.
from transformers import AutoTokenizer, AutoModelWithLMHead
tokenizer = AutoTokenizer.from_pretrained("snoop2head/KoGPT-Joong-2")
model = AutoModelWithLMHead.from_pretrained("snoop2head/KoGPT-Joong-2")
For specific inference codes, please refer to inference_finetuned_35000-step.ipynb file
pip install -r requirements.txt
For the backbone model, Ko-GPT-Trinity 1.2B was used. Ko-GPT-Trinity 1.2B is a transformer model which is SK telecom's replication of the GPT-3 architecture.