Hi, there!
  안녕하세요, 인공지능 모델을 통해 창의적 가치를 실현하는 머신러닝 엔지니어 송문기입니다. 다양한 연구 주제를 직접 선정⋅ 구현⋅ 검증하는 과정을 즐깁니다. 총 12개의 주요 프로젝트를 주제 별로 정리해 그 과정과 결과를 본문에서 공유합니다. 저에 대한 더 많은 정보는 아래 링크에서 확인하실 수 있습니다 :)
  Model  Architecture
  머신러닝 엔지니어링에서 모델의 구조적 디자인은 성능에 결정적인 영향을 미치는 주요 요소입니다. 특히 인코더와 디코더를 모두 필요로 하는 Sequence to Sequence 구조에서, 모델 디자인은 더더욱 중요합니다. 아래의 프로젝트에서는 데이터 처리 및 학습 방식은 고정하고, 자연어 생성을 위한 모델의 디자인 변화에 따른 성능 변화를 파악하는데 집중합니다.
Transformer  Balance
-
트랜스포머의 균형잡힌 모델 디자인을 의도적으로 탈피해, 깊이 · 너비 · 다양성 측면의 디자인 불균형에서 기인한 성능 변화를 탐색하고, 과제 특성에 따른 균형 조정 기준 설립
  Training  Strategy
  모델 학습은 모델 디자인과 더불어, 머신러닝 엔지니어링의 주요 요소입니다. 동일한 모델이라도, 학습 방식에 따라 성능은 크게 달라질 수 있습니다. 특히 자연어 생성과 같은 고난이도 과제의 경우, 일반적인 학습법만으로 원하는 결과를 얻기 어렵습니다. 아래 프로젝트에서는 자연어 생성력 향상을 위한 고도화 된 학습 방법론을 제시하고, 그 효용성을 검증합니다.
Customized  Pre-Training
-
지나치게 크고 무거운 대규모 사전학습 모델을 사용하는대신, 목표로하는 Down Stream Task에 집중한 맞춤형 사전 학습 방법론의 효용성 검증
  Task  Specific
  위의 Model Architecture 및 Training Strategy에서는 자연어 생성이라는 전역적인 과제 해결을 위한 모델링 및 학습 방법론에 대해 살펴봤습니다. 이번 장에서는 기계 번역, 대화 생성, 문서 요약이라는 자연어 생성의 세부 과제를 효과적으로 해결하기 위한 과제 집중적 연구 프로젝트를 제시합니다.
 Multi-Lingual Translation
-
단일 언어 기계 번역에서 한 걸음 나아가, 다언어 기계 번역 성능 향상을 위한 트랜스포머 기반 Foundation Modeling 연구를 진행하고, 각 방법론 별 성능 변화를 검증
  LLM  Framework
  Large Language Model, LLM은 다양한 자연어 처리 분야에서 뛰어난 효용성을 보여주고 있습니다. LLM을 있는 그대로 사용하는 것도 충분히 좋은 성능을 보이지만, 사용자의 목적에 따라 더욱 효과적으로 사용할 수 있는 방법론이 존재합니다. 아래의 프로젝트에서는 특정 목적에 맞게 LLM을 효과적으로 사용하기 위한 프레임워크를 제시합니다.
Context  Framework
-
번역 과제에서 원문의 문맥을 파악하고, 문맥의 정보를 LLM에 전달함으로써 고품질의 번역을 가능토록 하는 프레임워크를 제시하고, 효용성 검증