Portfolio

Hi, there!

  안녕하세요, 인공지능 모델을 통해 창의적 가치를 실현하는 머신러닝 엔지니어 송문기입니다. 다양한 연구 주제를 직접 선정⋅ 구현⋅ 검증하는 과정을 즐깁니다. 총 12개의 주요 프로젝트를 주제 별로 정리해 그 과정과 결과를 본문에서 공유합니다. 저에 대한 더 많은 정보는 아래 링크에서 확인하실 수 있습니다 :)

  Model  Architecture

  머신러닝 엔지니어링에서 모델의 구조적 디자인은 성능에 결정적인 영향을 미치는 주요 요소입니다. 특히 인코더와 디코더를 모두 필요로 하는 Sequence to Sequence 구조에서, 모델 디자인은 더더욱 중요합니다. 아래의 프로젝트에서는 데이터 처리 및 학습 방식은 고정하고, 자연어 생성을 위한 모델의 디자인 변화에 따른 성능 변화를 파악하는데 집중합니다.

Transformer  Balance

  • 트랜스포머의 균형잡힌 모델 디자인을 의도적으로 탈피해, 깊이 · 너비 · 다양성 측면의 디자인 불균형에서 기인한 성능 변화를 탐색하고, 과제 특성에 따른 균형 조정 기준 설립

Transformer  Variants

  • 세 가지 트랜스포머 구조 (Standard, Recurrent, Evolved)를 직접 구현하고, 각 모델 구조가 자연어 생성 능력에서 갖는 특징 및 강점을 비교 검증

Transformer  Fusion

  • 사전 학습 인코더 모델을 트랜스포머 Seq2Seq 모델 구조에서 활용하기 위한 다양한 모델 설계 방법론을 직접 구현하고, 각 방법론에 따른 자연어 생성 능력 비교 검증

  Training  Strategy

  모델 학습은 모델 디자인과 더불어, 머신러닝 엔지니어링의 주요 요소입니다. 동일한 모델이라도, 학습 방식에 따라 성능은 크게 달라질 수 있습니다. 특히 자연어 생성과 같은 고난이도 과제의 경우, 일반적인 학습법만으로 원하는 결과를 얻기 어렵습니다. 아래 프로젝트에서는 자연어 생성력 향상을 위한 고도화 된 학습 방법론을 제시하고, 그 효용성을 검증합니다.

Customized  Pre-Training

  • 지나치게 크고 무거운 대규모 사전학습 모델을 사용하는대신, 목표로하는 Down Stream Task에 집중한 맞춤형 사전 학습 방법론의 효용성 검증

G  I  F  T

  • Generation Improving Fine-Tuning, GIFT 프로젝트에서는, 자연어 생성 능력 향상을 위한 네 가지 미세조정 방법론을 제시하고, 각 방법론의 효용성을 검증

IntelliGEN

  • 자연어 생성 능력 향상을 위해 Standard Training, Generative ⋅ SeqGAN Fine tuning, 총 세 단계에 걸친 똑똑한 생성적 학습 방법론을 제시하고, 그 효용성 검증

  Task  Specific

  위의 Model ArchitectureTraining Strategy에서는 자연어 생성이라는 전역적인 과제 해결을 위한 모델링 및 학습 방법론에 대해 살펴봤습니다. 이번 장에서는 기계 번역, 대화 생성, 문서 요약이라는 자연어 생성의 세부 과제를 효과적으로 해결하기 위한 과제 집중적 연구 프로젝트를 제시합니다.

 Multi-Lingual Translation

  •   단일 언어 기계 번역에서 한 걸음 나아가, 다언어 기계 번역 성능 향상을 위한 트랜스포머 기반 Foundation Modeling 연구를 진행하고, 각 방법론 별 성능 변화를 검증

Multi-Turn Dialogue

  •   단발성 대화 생성을 넘어 대화의 흐름을 이해하는 발전된 발화 모델 개발을 위해, 대화 기록을 활용할 수 있는 다양한 모델 설계 방법론을 구현하고, 그 효용성을 검증

Efficient  Summarization

  •   기존 어텐션 연산의 복잡도가 시퀀스 길이에 따라 Quadratic하게 증가하는 문제를 해결하기 위해 Low Rank Projection 적용 방법론을 다양하게 구상하고, 각 방법론별의 효용성을 검증

  LLM  Framework

Large Language Model, LLM은 다양한 자연어 처리 분야에서 뛰어난 효용성을 보여주고 있습니다. LLM을 있는 그대로 사용하는 것도 충분히 좋은 성능을 보이지만, 사용자의 목적에 따라 더욱 효과적으로 사용할 수 있는 방법론이 존재합니다. 아래의 프로젝트에서는 특정 목적에 맞게 LLM을 효과적으로 사용하기 위한 프레임워크를 제시합니다.

Context  Framework

  •   번역 과제에서 원문의 문맥을 파악하고, 문맥의 정보를 LLM에 전달함으로써 고품질의 번역을 가능토록 하는 프레임워크를 제시하고, 효용성 검증

Character  Framework

  •   LLM으로 하여금 사람처럼 개성있는 대화 스타일 학습시킴으로써, 흥미로운 대화 서비스를 제공하기 위한 프레임워크를 제시하고, 그 효용성을 검증

Trustworthy  Framework

  • 혐오 발언, 정치 사회적 민감 발언 등 서비스 사용자로 하여금 불편함을 자아낼수 있는 시퀀스의 반환으로부터 소비자를 보호할수 있는 프레임워크를 제시하고, 그 효용성을 검증