개인 프로젝트 하는 도중에 요걸 봤는데, 생각보다 신기한 결과가 나오더군요
1. CNN을 제외한 모든 경우에서 m1 맥의 cpu는 batch size에 관계없이 gpu보다 더 좋은 결과가 나옵니다. 보통 LSTM은 배치 사이즈가 커질수록 GPU의 학습 성능이 CPU보다 더 좋아지는데, m1에서만 예외네요.
2. M1의 GPU는 K80이나 T4에 비해 느립니다. 아주 많이.
3. MLP에서는 batch size에 관계없이 m1 cpu가 가장 좋은 옵션입니다. 그 외의 경우에도 m1은 cpu 한정 대체로 k80정도의 성능은 나옵니다.
보통 배치 사이즈가 클수록, 데이터셋이 더 커질수록 GPU의 학습 성능이 CPU의 학습 성능을 압도하는 경우가 많은데, m1은 cpu의 학습 성능이gpu보다 강력하다니 솔직히 조금 당황스럽네요. CPU에 텐서코어를 내장한 것도 아닐테고, 그렇다고 cpu 학습시 뉴럴 엔진을 사용하지도 않을텐데...
m1도 그게 붙은게 아닐까 의심되는군요