반응형

MONAI 5

[Segmentation, MONAI] CUDA out of memory 와의 전쟁 -2. Crop 을 통해 이미지 크기 줄이

2023.07.06 - [배움 기록/Deep Learning] - [Segmentation, MONAI] CUDA out of memory 와의 전쟁 -1. Spacingd를 통한 해상도 조정 [Segmentation, MONAI] CUDA out of memory 와의 전쟁 -1. Spacingd를 통한 해상도 조정 요즘 segmentaion을 하는 중 가장 열받는 오류.... cuda ,,,, out of memory.... batch size 도 줄였고, 네트워크에 사용되는 patch 개수도 줄인상황.. 물론 이미지의 사이즈도! 물론 모델 자체를 바꿔볼수도 있지 jedemanfangwohnteinzauberinne.tistory.com 이미지의 크기를 줄임으로써 메모리 문제를 해결해 보자. 그런데 ..

[Segmentation, MONAI] CUDA out of memory 와의 전쟁 -1. Spacingd를 통한 해상도 조정

요즘 segmentaion을 하는 중 가장 열받는 오류.... cuda ,,,, out of memory.... batch size 도 줄였고, 네트워크에 사용되는 patch 개수도 줄인상황.. 물론 이미지의 사이즈도! 물론 모델 자체를 바꿔볼수도 있지만, 다른 방법들이 무엇이 있나 고민 중. 그래서 이미지의 해상도를 건드려보기로 결정. transform를 monai 라이브러리를 이용해 사용하고 있다. from monai.transforms import ( CropForegroundd, Compose, EnsureTyped, EnsureChannelFirstd, LoadImaged, Orientationd, RandCropByPosNegLabeld, ScaleIntensityRanged, Spacingd..

[PyTorch, MONAI] UNETR 모델 생성 및 Forward

UNETR이 무엇인지는 2023.01.11 - [Programming] - [MONAI] UNETR 이란? (feat. Vision Transformers) [MONAI] UNETR 이란? (feat. Vision Transformers) 이 설명은 당장 UNETR를 써야하는데 빨리 뭔지 대충 알고 싶은 경우만 살짝 도움이 될뿐 자세한 내용은 아래의 논문에서 확인가능 https://arxiv.org/abs/2103.10504 Background 한 줄 정리 FCNN(Fully Convolutional N jedemanfangwohnteinzauberinne.tistory.com UNETR 모델에 쓰기위한 데이터의 전처리는 2023.01.11 - [Programming] - [MONAI, PyTorch] ..

[MONAI, PyTorch] MONAI를 이용해 데이터 전처리 하기

이번에 인턴십 중에 MONAI를 이용한 프로젝트를 하게 되었다. 내용을 공부할겸 여기에 정리를 해본다. MONAI MONAI(Medical Open Network for AI) 는 엔비디아가 만든 헬스케어용 오픈소스 프레임워크(파이토치 기반)다. UNETR 이란? 이전 글에서 간략하게 다룬적이 있다. 2023.01.11 - [Programming] - [MONAI] UNETR 이란? (feat. Vision Transformers) [MONAI] UNETR 이란? (feat. Vision Transformers) 이 설명은 당장 UNETR를 써야하는데 빨리 뭔지 대충 알고 싶은 경우만 살짝 도움이 될뿐 자세한 내용은 아래의 논문에서 확인가능 https://arxiv.org/abs/2103.10504 Ba..

[MONAI] UNETR 이란? (feat. Vision Transformers)

자세한 내용은 아래의 논문에서 확인가능 https://arxiv.org/abs/2103.10504 Background 한 줄 정리 FCNN(Fully Convolutional Neural Networks) 에서 인코더는 중요한 역할을 한다. global, local 의 Feature 를 배워서 contextual representation 을 함. 근데 FCNN의 locality 때문에 long-range 를 배우는데는 한계가 있다. -> NLP에서 큰 성공을 거둔 'transformer' 개념 도입 -> 그래서 만든게 UNEt TRansformers (UNETR) UNETR 인코더와 디코더를 사용하는 U-Net 구조를 따르지만, 인코더에 transformer를 사용함. -> 장점: input volum..

반응형