시계열데이터를 주로 다루다가 최근 Anomaly Detection분야 코드를 짜면서
이미지도 간혹 다루게되었는데요
시계열데이터에서는 몇만개씩 데이터를 다루어도 Feature수가 적을뿐 아니라 2D-CNN을 쓸일이 거의없기에
저에게는 다소 생소한 문제였습니다.
Google Colaboratory사용시 발생하는 문제로, Conv2D 혹은 Weighting, bias를 너무 많이 사용하는 모델을 사용시 발생하는 문제였습니다.
저는 Conv2D를 Filter Size를 32개씩 3개 Layer정도로 구성했고, 100X100X3 이미지를 학습하고자했는데요
이미지도 몇장 안됬는데 왜 RAM 최대치 초과가 뜰까.. 고민하다보니
MNIST데이터는 6만장임에도 이런문제가 발생하지 않는것을보고, 혹시 이미지 사이즈에 의해 램을 너무 많이잡아먹는건가?? 싶어서 32X32X3으로 줄이니 바로 문제가 해결되었습니다.
댓글