Skip to content

✍️ Finetuning KoGPT-Trinity to write acrostic poem | 중2 감성 N행시 빌더

License

Notifications You must be signed in to change notification settings

snoop2head/KoGPT-Joong-2

Folders and files

NameName
Last commit message
Last commit date
Nov 18, 2021
Nov 20, 2021
Nov 20, 2021
Jan 29, 2022
Nov 18, 2021
Nov 17, 2021
Nov 17, 2021
Nov 15, 2021
Nov 14, 2021
Jan 29, 2022

Repository files navigation

KoGPT-Joong-2

🤗 Huggingface Hosted Model & Tokenizer

KoGPT-Joong-2's Acrostic Poem Generation Examples (N행시 예시)

[연세대(1)]
연민이라는 것은 양날의 검과 같다 
세기의 악연일수도..
대가는 혹독할것이다 연기의 끝은 상처다

[연세대(2)]
연약한 마음으로 강한 척하지 말고 강한 마음을 먹자
세 마디 말보다 한마디 말이 더 진정성 있어 보인다.
대시 하지 마라.
[자탄풍]
자그마하게 
탄식의 강을 건너고 
풍경의 나무를 넘어가네

KoGPT-Joong-2's Phrase Generation Examples

[너는 나의]
- 너는 나의 거짓말. 나는 너의 참말. 너를 잊었다는 나와 나를 잊었다는 너의 차이.
- 너는 나의 태양 네가 나눈 빛이면 나는 달빛에도 그을음이 피었다.
[그대 왜 내 꿈에]
- 그대 왜 내 꿈에 나오지 않는 걸까요, 내 꿈 속에서도 그대 사라지면 어쩌나요
- 그대 왜 내 꿈에 불시착했는가.

How to use KoGPT-Joong-2

from transformers import AutoTokenizer, AutoModelWithLMHead
  
tokenizer = AutoTokenizer.from_pretrained("snoop2head/KoGPT-Joong-2")
model = AutoModelWithLMHead.from_pretrained("snoop2head/KoGPT-Joong-2")

For specific inference codes, please refer to inference_finetuned_35000-step.ipynb file

Dependencies Installation

pip install -r requirements.txt

Dataset finetuned on

Pretrained Model

For the backbone model, Ko-GPT-Trinity 1.2B was used. Ko-GPT-Trinity 1.2B is a transformer model which is SK telecom's replication of the GPT-3 architecture.

References