(출처; 엔비디아)
엔비디아가 코로나 19로 치뤄진 사상 첫 온라인 GTC인 GPU Technology Conference 2020에서 차세대 아키텍처인 암페어 (Ampere)와 데이터 센터를 위한 고성능 HPC/AI 프로세서인 A100을 공개했습니다. A100은 여러 모로 괴물이라고 할 수 있는데, TSMC의 N7 공정으로 무려 826㎟ 크기의 GPU를 제조해 트랜지스터 집적도가 542억개에 달합니다.
구조는 8개의 GPC가 있고 각 GPC당 8 TPC, 그리고 TPC 한 개당 2개의 SM(streaming multiprocessor)이 있는 방식입니다. 따라서 8x8x2=128개의 SM이 있습니다. 각 SM당 64개의 FP32 CUDA 코어와 64개의 INT32코어, 그리고 4개의 3세대 텐서코어 (Tensor Core)를 지니고 있으나 튜링과는 달리 RT 코어는 없습니다. 이는 이 GPU가 게이밍용이 아닌 HPC 및 AI 연산 전용으로 개발되었음을 의미합니다. 아마도 나중에 암페어 아키텍처를 적용한 7nm 공정의 게이밍 GPU들이 나올 것으로 예상됩니다.
A100은 GA100 풀칩이 아니라 컷칩이기 때문에 실제 CUDA코어의 숫자는 6912개이며 부스트 클럭은 1.41GHz까지입니다. 그럼에도 볼타보다 훨씬 많은 400W TDP를 요구하는 거대 칩이 되었습니다. 이렇게 전력 소모와 발열이 늘어난 이유는 40GB에 달하는 HBM2 메모리와 더불어 공정 미세화 대비 트랜지스터 집적도 증가가 급격하기 때문일 것입니다.
A100은 PCIe 4.0을 지원하기는 하나 통상적인 PCIe 규격 카드로는 이 발열량이 감당이 안되기 때문에 SXM4 규격을 통해 더 많은 전력과 서버 환경에 적합한 쿨링을 제공합니다. 다만 볼타처럼 나중에 PCIe 규격 카드 형태로도 나올 것으로 예상됩니다. 그러면 A100보다는 더 컷칩 형태로 나올 것으로 보입니다. 물론 풀칩도 나중에 데이터 센터 시장을 노리고 나올 수 있는데 400W보다 더 TDP를 높일지 궁금합니다.
A100
|
V100
|
P100
| |
FP32 CUDA Cores
|
6912
|
5120
|
3584
|
Boost Clock
|
~1.41GHz
|
1530MHz
|
1480MHz
|
Memory Clock
|
2.4Gbps HBM2
|
1.75Gbps HBM2
|
1.4Gbps HBM2
|
Memory Bus Width
|
5120-bit
|
4096-bit
|
4096-bit
|
Memory Bandwidth
|
1.6TB/sec
|
900GB/sec
|
720GB/sec
|
VRAM
|
40GB
|
16GB/32GB
|
16GB
|
Single Precision
|
19.5 TFLOPs
|
15.7 TFLOPs
|
10.6 TFLOPs
|
Double Precision
|
9.7 TFLOPs
(1/2 FP32 rate) |
7.8 TFLOPs
(1/2 FP32 rate) |
5.3 TFLOPs
(1/2 FP32 rate) |
INT8 Tensor
|
624 TOPs
|
N/A
|
N/A
|
FP16 Tensor
|
312 TFLOPs
|
125 TFLOPs
|
N/A
|
TF32 Tensor
|
156 TFLOPs
|
N/A
|
N/A
|
Interconnect
|
NVLink 3
12 Links (600GB/sec) |
NVLink 2
6 Links (300GB/sec) |
NVLink 1
4 Links (160GB/sec) |
GPU
|
A100
(826mm2) |
GV100
(815mm2) |
GP100
(610mm2) |
Transistor Count
|
54.2B
|
21.1B
|
15.3B
|
TDP
|
400W
|
300W/350W
|
300W
|
Manufacturing Process
|
TSMC 7N
|
TSMC 12nm FFN
|
TSMC 16nm FinFET
|
Interface
|
SXM4
|
SXM2/SXM3
|
SXM
|
Architecture
|
Ampere
|
Volta
|
Pascal
|
(암페어, 볼타, 파스칼의 비교. 출처: 아난드텍)
A100에서 주목할 점은 엔비디아가 AI 관련 연산에 심혈을 기울였다는 것입니다. 이미 엔비디아는 볼타에서 데이터 센터를 위한 AI 가속기로 방향성을 크게 틀었지만, 암페어에서는 더 적극적으로 지원해 성능을 대폭 향상시켰습니다. 당연히 그만큼 수요가 있기 때문입니다. 이제 고성능 GPU는 HPC를 위한 병렬 연산은 물론 인공지능 연산 처리를 위해 많이 사용되고 있습니다. 3년만에 등장한 A100 역시 이런 수요에 적극 대응하고 있습니다.
사실 A100의 배정밀도 연산 능력은 9.7 TFLOPs로 볼타의 7.8 TFLOPs고 비교해서 큰 차이가 없습니다. 트랜지스터 숫자가 대폭 늘어난 점을 생각하면 결국 일반적인 연산 유닛 대신 인공지능 관련 연산 유닛을 대폭 집어넣어 고성능 AI 가속기로 거듭났다고 생각할 수 있습니다. 실제 스펙도 이를 입증합니다.
A100에 새로 도입된 TensorFloat-32 (TF32) 텐서 코어는 FP32 데이터 연산을 10배 빨리처리할 수 있습니다. 이를 전용으로 처리할 수 있는 유닛이 탑재되었기 때문입니다. 볼타에서도 가속 가능한 FP16 텐서 연산은 2.5배 빨리처리할 수 있는데, 엔비디아는 새로 도입한 희소성 가속 (Sparsity Acceleration) 방법을 통해 다시 이를 두 배 빠르게 처리할 수 있습니다. 따라서 FP32 텐서 연산 같은 인공지능 관련 특수 연산에서 최대 20배 빠르다고 주장하는 것입니다. 다만 전체적인 인공지능 연산은 방식에 따라 3-7배 정도 빠르며 HPC 연산 능력은 1.5-2.1배 정도 빠른 정도입니다.
(출처: 엔비디아)
암페어의 또 다른 흥미로운 기능은 하나의 GPU를 7개의 작은 GPU로 나눠 쓸 수 있는 Multi-Instance GPU (MIG) 기능입니다. 사실 서버 CPU의 경우 여러 사용자가 CPU 자원을 나눠쓰는 게 일반적인 경우지만, 아직 GPU에서는 일반적인 경우라고 할 수 없습니다. 하지만 A100처럼 거대한 자원을 지닌 GPU의 경우 목적에 따라 여러 개로 쪼개 쓰거나 통으로 사용할 수 있어 여러 가지 연산 환경에서 유연하게 대처할 수 있을 것입니다.
엔비디아는 암페어의 공개와 함께 자사의 소형 슈퍼컴퓨터 시스템인 DGX 역시 업데이트 했습니다. DGX A100는 8개의 A100 프로세서와 AMD Rome 7742 CPU 2개 (각각 64코어), 15TB 스토리지, 1TB 메모리 등의 사양을 갖추고 19만9천 달러에 판매됩니다. 과거처럼 인텔 CPU가 아닌 AMD 칩을 사용했다는 점이 흥미롭지만, 현재 성능을 고려하면 당연한 조치로 생각됩니다. 첫 고객은 미 국립 연구소인 아르곤 국립 연구소 Argonne National Laboratory로 이미 설치가 시작되었습니다.
앞으로 암페어 기반으로 등장할 새로운 GPU (아마도 RTX 3000 시리즈가 될 듯)도 기대해 보겠습니다.
참고
댓글
댓글 쓰기