맥스엘리트에서 6900XT와 3070, 3080, 3090을 가지고 시험한 3차 결과가 나왔더라고요.
일단 눈에 확 보이는 건, 5900X와 10700K에서는 권장 파워 용량이 일치하는데 10900K에서는 달라진 점이겠네요.
흐음...그런데 뭔가 묘한 부분이 있네요.
표를 좀 바꿔봐야겠어요.
6900XT의 경우 5900X와 10700K, 10900K 순으로 약 60W씩 RMS가 증가했어요.
MAX와 PEAK의 경우 5900X에서 10900K로 가면서 180W 정도 증가했군요.
3070의 경우 RMS는 약 120W, 90W 증가했는데 TDP 증가분만큼 늘어났다는 느낌이지요?
그런데 MAX와 PEAK의 경우 CPU에 가리지 않고 비슷하다는 점에서 6900X보다 오히려 더 정돈된 느낌이고요.
3090의 경우는 6900XT와 비슷하네요. RMS가 약 60W, 120W 증가했고
PEAK와 MAX도 6900X와 비슷한 느낌으로 약 60W, 120W 증가했어요.
문제는 3080들이네요.
2핀 제품의 경우 RMS가 약 130W, 30W 증가했고 3핀 제품의 경우 약 170W, 50W 증가했어요.
MAX와 PEAK의 경우 각각 약 120W/20W, 140W/24W 증가했고요.
5900X과 10700K에서의 차이가 크고, 10700K와 10900K와의 차이가 적어요. (이건 3070도 그렇네요)
6900XT나 3090 같은 경우에는 5900X와 10700K와의 차이가 적고, 10700K와 10900K와의 차이가 컸거든요.
한 가지 더 이상한 점이 있다면, 10700K와 10900K에서 3080들의 전력소모량이 3090보다 높아요.
5900X와 조합했을 때는 안 그랬거든요.
정리 해보지요.
1. 3070/3080/3090의 경우, 인텔 CPU와의 조합에서 6900XT보다 전력소모량 증가폭이 크다.
- 이건 6900XT가 인텔 CPU를 제대로 사용하고 있지 못한 걸 수도 있고, 지포스가 기능 수행에 라데온과는 달리 CPU에 뭔가를 무겁게 할당하고 있는 걸수도 있어요. 이건 예전부터 그랬던 것이, 과거 벤치들을 보면 지포스와 라데온의 그래픽카드 전력소모 차이보다 시스템 전체 전력소모 차이가 더 컸거든요. 무언가 CPU 전력소모를 증가시키는 형태였어요.
옛날에는 라데온이 하드웨어스케줄러를 사용하고 있기 때문에 그랬다고 했지만 지금은 지포스도 하드웨어 스케쥴러 아닌가 싶은데요. 무엇이 원인일지..?
2. 3070/3080/3090의 경우 5900X와 10700K에서의 전력소모 차이가 10700K와 10900K에서보다 크다.
- 1번과 같이 생각하면, AMD CPU와는 다른 인텔 CPU 조합에서 무언가 무거운 작업이 있는 것 같지요?
3. 3080의 경우 인텔 CPU와의 조합에서 전력소모량이 3090보다 크다.
- 5900X와의 조합에서는 그렇지 않은데, 인텔 CPU와의 조합에서 3080의 전력소모가 3090보다 높게 나와요.
이게 참 문제인 것이, nVIDIA의 권장은 3080이 3090보다 낮거든요? 상식적으로도 그래야 될 테고요.
그런데 실제로는 3080이 더 높으니 3080 사용자들이 고통 받을 만하네요.
이 부분의 원인은 무엇이 있을까요? 몇 가지 추측해보자면,
1) 3080의 GA102의 품질이 3090보다 떨어져서 더 높은 전압을 필요로 한다.
1-1) 과거 3080 출시 초기의 MLSS 파동때 드라이버를 변경했는데, 이때 생긴 문제일지도 몰라요. 그때도 3090은 괜찮았다는 이야기를 들은 것 같거든요. 아니, 어쩌면 3090이 괜찮았던 이유가 애초에 이래서였을지도 모르지요.
2) 컷칩의 누설전류를 제대로 막고 있지를 못한다.
3) 3080 비레퍼 제조사들의 설계오류
(결론 : 3090 사라!)
어떻게 생각하시나요?