일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
- dreamgaussian
- 3d editting
- Python
- DP
- 코테
- 프로그래머스
- posterior distillation sampling
- visiontransformer
- transformer
- 3d generation
- instructany2pix
- Vit
- VirtualTryON
- insturctnerf2nerf
- dreamfusion
- 3d gaussian splatting
- magic clothing
- sonicdiffusion
- novel view synthesis
- text2room
- 3d editing
- Programmers
- 코딩테스트
- diffusion
- 네이버 부스트캠프 ai tech 6기
- 논문리뷰
- text-to-video diffusion
- sound-to-image generation
- syncnoise
- BOJ
- Today
- Total
목록2024/03 (5)
평범한 필기장
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/cw6LnN/btsF7Hr0osV/LHDvZZ6Kz13dbTs1i1fHX1/img.png)
이번 논문은 최종 프로젝트에서 메인으로 쓰일 ControlNet이다.프로젝트에 관한 포스팅은 여기에서 확인할 수 있다.Why ControlNet?본 논문에서 ControlNet을 왜 제시했을까? 일단 먼저 기존의 text-to-image generation diffusion모델을 생각해보자. Stable Diffusion을 통해 우리는 고퀄리티의 이미지를 텍스트를 통해 생성할 수 있었다. 하지만 본 논문에서는 이러한 text-to-image generation에는 두 가지 한계점이 존재한다고 말하고 있다.Text만으로는 이미지의 spatial composition을 제공하는 것에는 한계가 있다.특정 condition에 대한 데이터셋이 작기 때문에 직접 finetuning하거나 continued..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/dy8qyp/btsF1S8M5Wh/gbGa9wNuGA579sKIm38gr0/img.png)
다음주에 있을 멘토님 피드백을 대비해 어느 정도는 우리의 프로젝트가 틀이 잡혀야 했다. 그래서 나를 제외한 두 분은 product serving에 엄청 열중해 주셨다. 나는 ControlNet으로 옷 이미지 생성을 고도화 하는 것에 집중했다. Llava 이용 프로젝트에서 처음에 사용한 Multimodal VITON-HD 데이터셋은 https://arxiv.org/pdf/2304.02051.pdf에서 소개된 데이터 셋이다. 하지만 이 데이터셋을 보면 옷에 대한 설명인 text데이터가 만족스럽지 않다고 판단했다. 색에 대한 정보가 부족하다거나 여러 색을 지닌 옷이면 multicolor라는 단어로 퉁치는? 경우가 대부분으로 보여졌다. 그래서 나는 image captioning이나 vqa를 통해 옷 이미지에 대..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/3Owe3/btsFLVR12XJ/Sk1TzEaPuAmfK7XkfHJSx1/img.png)
1주차에는 데이터 수집하고 제작하고 클랜징을 주로하면서 ControlNet 논문을 읽고 공식 깃헙에 있는 튜토리얼을 진행하면서 ControlNet이 뭔지를 익혔었다. 이번 주에는 이제 우리의 데이터로 ControlNet을 학습시키기 시작했다. 이 부분은 내가 전담으로 맡아서 했다. 처음 계획은 아무것도 건들이지 않고 custom 데이터셋으로 학습시키고 결과를 지켜보면서 데이터를 수정하고 모델을 잘 학습시키기 위한 여러 기법(DreamBooth, LoRA 등)을 논문을 읽어보고 직접 적용해서 우리의 서비스에 맞게 finetuning을 해나가는 것이었다. 당연히 데이터셋만 바꾸면 될 줄 알았기에 금방 실험을 진행할 수 있을 줄 알았다... 튜토리얼 데이터로 진행된 학습 Diffusers를 이용해서 다들 di..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/daqdDt/btsFI42fOT5/ogzzcjdDBDaC9w7Be2RX80/img.png)
앞서 최종 프로젝트 준비 기간을 포스팅 했다. 준비 기간 동안 팀원 각자의 역할을 정하고 프로젝트 주제를 확정짓고 우리가 쓸 모델들을 리서치하고 데이터를 리서치했었다. 그러고 우리의 계획에 대해 멘토님께 설명해 드리고 피드백을 받았다. 멘토님의 피드백을 받고 주제를 어떻게 수정할지, 우리의 문제점을 어떻게 보완할지 고민을 했었다. 주제의 큰 틀을 변화시키지 않으면서 문제점을 수정하기 위해 나는 새로운 주제를 제안했다. 기존 쇼핑몰 사용자를 위한 서비스가 아닌 디자이너를 위한 서비스! 기존 주제는 문제점으로는 virtual try on 모델을 학습시키가 까다롭고 학습 시키기 위한 데이터를 찾고 제작하는게 쉽지 않다는 것이 있었고, 이 때문에 그냥 모델을 가져다 쓰는게 끝인 프로젝트였다. 그래서 내가 생각한..
이번 포스팅을 통해 네이버 부스트캠프 ai tech에서 최종 프로젝트를 진행하면서 내가 어떻게 진행했는지 정리하려고 한다. 이런 프로젝트가 처음이다 보니 프로젝트를 진행하면서 겪었던 것들과 배운 것들, ... 등등을 정리할 겸 포스팅을 해야겠다고 마음을 먹었다. 주제 우리 팀의 주제는 팀을 모을 때부터 virtual try-on이었다. 온라인에서 옷을 쇼핑할 때 옷을 직접 입어보지 않아도 나와 어울리는지를 볼 수 있게 돕는 서비스라고 보면 된다. 우리는 단순히 옷만 입히는 것이 아니라 모션도 생성해서 움직이는 것까지 보여줌으로써 우리만의 $+\alpha$를 보여주자라는 생각으로 프로젝트 주제를 선정했다. Vitual Try On Model + Pose Generation Model 팀 내 역할 팀 내에서..