본문 바로가기

분류 전체보기13

2018 고2의 꿈 2025. 7. 21.
[논문리뷰] Your ViT is Secretly an Image Segmentation Model (EoMT) CVPR 2025 highlight 2025. 7. 16.
[논문리뷰] PTQ4SAM - 양자화가 적용된 first SAM 수많은 파라미터를 가지고 있는 인공지능 모델에서 compression 압축하는 기법은 매우 중요하다. Model Compression 기법에는 Pruning 가지치기, Quantization 양자화, Knowledge Distillation 지식 증류 등이 있다. https://suhyeonlee.tistory.com/2 [ML] 모델 경량화 방법 3가지: Pruning, Weight Quantization, Low-Rank Matrix/Tensor Decompositionfrom "Deep neural networks compression: A comparative survey and choice recommendations" IntroDNN은 하드웨어와 대규모 데이터셋의 발전으로 image proce.. 2025. 5. 30.
[논문리뷰] EdgeSAM: Prompt-In-the-Loop Distillation for On-Device Deployment of SAM Abstract오리지널 SAM보다 MobileSAM, EfficientSAM 보다 나은 EdgeSAM 제시 key idea 1)새로운 knowledge distill 기법(prompts in the loop)을 적용해 ViT-based SAM image encoder를 CNN-based 구조로 distill.distill 과정에 prompt encoder와 mask decoder 포함.prompts in the loop - input에 따른 mask 생성을 더 잘 제공.key idea 2)encoder에 탈부착 가능한 lightweight module 제공point prompt distill의 dataset bias 문제를 완화하기 위함.Result오리지널 SAM보다 37배 더 빠르다.edge devic.. 2025. 2. 5.
Install wget, homebrew for Mac Wget은 HTTP, HTTPS 및 FTP 프로토콜을 사용하여 파일을 가져오기 위한 무료 소프트웨어 패키지다.Wget을 사용하려면 Mac에 Homebrew를 설치해야한다.https://brew.sh HomebrewThe Missing Package Manager for macOS (or Linux).brew.sh  여기에 있는 코드를 커맨드 창에 입력./bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" 주의)다음과 같이 실행되고 나서 제일 아래에 Next steps에 써있는대로 입력을 해주어야한다.echo 및 eval로 써 있는 부분을 복붙하면 homebrew는 성공적으로 설치된다. 다.. 2025. 2. 3.
Transformer(1) - Intro, Token Transformer를 제대로 알고 있는가? 를 답하고 싶어 쓰기 시작한 글이다.처음 논문 리딩을 시작할 때 Attention is All You Need 논문이 어려워 당황했던 경험을 생각하며 써본다. 대단한 숫자인 인용 수 148,074회의 "Attention is All You Need" 2017 논문을 중심으로 완전 파악해보자.  Transformer의 목적은?논문의 Abstract."Transformer는 sequence transduction model의 기존 토대가 되는 recurrent(RNN)이나 convolutional neural network(CNN)를 사용하지 않는 새로운 네트워크 구조이다." sequence transduction은 시퀀스를 input하고 시퀀스를 output한다.. 2025. 1. 23.