정보통신 IT/인공지능 AI

AI 반도체, 엔비디아, GPU(그래픽 반도체), 젠슨 황

Jobs 9 2024. 2. 24. 09:17
반응형

AI 반도체

 

인공지능(AI)은 우리 일상에 깊게 들어왔다. 가전, 스마트 기기, 인터넷, 의료, 자율주행 등 산업과 생활 전반에 AI가 쓰이지 않는 데가 없다.
AI 기술이 확대되면서 함께 변화하는 영역으로 대표되는 것이 ‘반도체’ 이 중에서도 ‘AI 반도체’다. 기존 반도체 분야의 강자들뿐만 아니라 글로벌 빅테크 기업들까지 앞다퉈 천문학적인 투자와 인수합병을 통해 AI 반도체 개발에 열을 올리고 있다. 

AI는 수많은 데이터를 학습하고 이를 통해 추론한 결과를 도출 한다. 학습 데이터를 단시간에 받아들이고 처리하기 위해서는 특별한 프로세서가 필요한데, 이 프로세서가 ‘AI 반도체’다. AI 반도체는 AI 서비스 구현에 필요한 대규모 연산을 초고속, 초전력으로 실행하는 효율성 측면에서 특화된 비메모리 반도체로, AI의 핵심 두뇌에 해당한다.
AI 반도체가 개발되기 전에는 이 핵심 두뇌 역할을 CPU(중앙처리장치)와 GPU(그래픽처리장치)가 담당했다. 다만, 이 둘은 AI를 처리할 수 있는 성능은 갖췄지만 애초에 AI용으로 개발된 것이 아니다 보니 AI연산 외의 부분에 성능이 낭비되고, 비용이나 전력 소모 등 비효율적인 부분이 발생했다. 인간의 뇌처럼 수많은 데이터를 처리하려면 높은 전력과 빠른 속도가 필수적이다. CPU, GPU 대비 범용성은 낮지만, AI 알고리즘에 최적화된 AI 전용 반도체가 등장하게 된 배경이다. AI의 딥러닝에 특화되었다는 의미에서 흔히 NPU, Neural Processing Unit(신경망 처리장치)라고 부르기도 한다.



AI 반도체는 어떻게 CPU · GPU보다 높은 성능을 낼까?

 


CPU는 컴퓨터의 입력, 출력, 명령어 처리 등을 모두 다루는 컴퓨터의 두뇌다. 데이터를 순차적으로 직렬 처리하는 CPU는 대규모 병렬 처리 연산을 필요로 하는 AI에 최적화되어 있지 않다. 이 한계를 극복하기 위해 GPU가 대안으로 등장했다. GPU는 3D 게임 같은 고사양의 그래픽 처리를 위해 개발됐으나 데이터를 병렬 처리한다는 특징이 있어 AI 반도체 중 하나로 자리 잡았다. 

GPU가 본래 AI 연산을 위해 만들어진 반도체가 아니기 때문에, GPU의 병렬 처리 특성은 유지하면서 AI만을 위한 전용 반도체가 등장하게 되었는데 FPGA나 ASIC* 형태의 NPU가 이에 해당한다. GPU가 병렬 연산에 최적화되어 있어서, AI의 대규모 학습 데이터 처리에 유용하지만, 이를 토대로 추론의 결과를 뽑아내는 데에는 AI 알고리즘을 고려한 최적화가 필요하다. 또한, 학습 및 추론 과정에서의 중간 데이터들을 저장하는 메모리와의 연결 구조도 성능과 에너지 소모에 큰 영향을 미치는데, AI 반도체 NPU는 이를 모두 고려했기에, 고성능과 에너지 고효율이 가능한 것이다. 스마트폰으로 촬영할 때, 인물 주변은 흐리게 날리기 위해서 인물을 인식하는 것은 NPU 역할, 사진에 뽀샤시한 필터를 적용하는 것은 GPU 역할이라고 생각하면 된다. 

FPGA(Field Programmable Gate Array)는 칩 내부의 하드웨어를 목적에 따라 재프로그래밍이 가능해 유연성이 높은 것이 특징이고, ASIC(Application Specific Integrated Circuit)은 특정 목적에 맞춰 제작된 주문형 반도체로 고효율이 특징이다. ASIC 형태로는 주로 글로벌 IT 기업에서 개발하고 있다. 뉴로모픽(Neuromorphic) 반도체는 사람의 뇌에 존재하는 신경세포와(뉴런)와 연결고리(시냅스) 구조를 모방했다. 성능과 효율성은 앞선 반도체보다 뛰어나지만 범용성이 낮고 아직은 개발 중인 차세대 AI 반도체다.  


* Application Specific Integrated Circuit, 애플리케이션 특성에 맞는 시스템을 구현하기 위해 제작된 주문형 반도체

 

 


 

AI 알고리즘은 이미 오래 전부터 다양한 산업과 응용 분야에서 점점 더 널리 보급돼 오고 있다. 하지만 그 성능은 전통적인 CPU의 처리 능력에 의해 제한되는 경우가 많았다. AI 처리에는 이를 넘어서는 성능이 요구되기 때문이다. 또한 AI 알고리듬의 훈련 및 추론 단계에서 서로 다른 HW 요구 사항을 가지며, 두 단계 모두에 특화된 HW를 필요로 한다.

이에 일부 회사들은 AI 알고리즘의 성능을 향상시키기 위해 GPU와 구글의 AI 가속기인 텐서처리장치(TPU) 같은 새로운 하드웨어(HW) 제품을 개발하는가 하면 성능 향상에 매진하고 있다.

 

이 새로운 AI 프로세서들의 특징은 AI 알고리즘에 상당한 속도 향상을 제공하면서 더 나은 계산(연산)결과를 가져올 수 있다. 즉, 표준 CPU에 비해 AI에 최적화되고, 다양한 AI 요구 사항에 맞출 수 있는데다 기존 그래픽 기능보다 AI 학습 알고리즘 가속화 기능을 우선시 한다.

 

 

표준 CPU보다 AI에 최적화···엔비디아가 AI칩 강자인 이유

엔비디아는 자사 젯슨 칩 제품군으로 여러 제품 중에서도 로봇에 특화된 AI 반도체를 제공한다. 이는 자율주행차 등에 사용된다. (사진=엔비디아)

 

컴퓨터의 CPU는 명령을 받아 실행하는 역할을 한다. 이는 컴퓨터의 심장이며, 이 칩의 클록 스피드는 컴퓨터의 계산 처리 속도를 결정한다.

AI 알고리즘과 같이 빈번하거나 강도 높은 연산이 필요한 작업의 경우 효율성을 향상시키기 위해 특수 HW가 사용된다. 이 HW는 일반적으로 서로 다른 알고리즘이나 입력을 사용하지 않지만, 많은 양의 데이터를 처리하고 향상된 컴퓨팅 성능을 제공하도록 특별하게 설계된다. 

AI 알고리즘들은 새로운 AI 모델을 더 빨리 만들기 위해 종종 병렬 연산을 수행할 수 있는 프로세서에 의존한다.

특히 GPU의 경우 원래 그래픽 처리를 위한 연산용으로 설계됐지만 이미지 처리와 신경망 사이에서 보여지는 연상 작업의 유사성으로 인해 많은 AI 작업에 효과적인 것으로 입증됐다. GPU 세계 최강자인 엔비디아가 동시에 AI반도체 강자인 이유랄 수 있다. 

이러한 프로세서들은 AI에 대한 성능을 최적화하기 위해 대량의 데이터를 효율적으로 처리하도록 조정될 수도 있다.

 

 

다양한 요구사항에 맞춘 AI HW···보드에서 GPU와 고속메모리 통합

AI 훈련용 TPU v3 칩이 탑재된 구글 클라우드 서버. (사진=구글)

 

AI 알고리즘을 훈련하고 사용하기 위한 HW 요구 사항은 크게 다를 수 있다. 대량의 데이터에서 패턴을 인식하는 훈련은 일반적으로 더 많은 처리 능력을 필요로 하며, 병렬화의 이점을 얻을 수 있다. 일단 AI 모델이 훈련되면 컴퓨팅(연산) 요구 사항이 감소할 수 있다.

이러한 다양한 요구를 충족하기 위해 일부 CPU 제조업체는 AI 모델 실행에 사용되는 특수한 AI 추론용 칩을 개발하고 있다. 물론 인텔같은 CPU 업체도 완전히 훈련된 AI 모델이 병렬 아키텍처로부터 이점을 얻는다는 것을 알고 있으며, 그런 가운데 AI칩 개발에 눈돌리고 있다. 

전통적으로 PC업체들은 레이아웃에서 메모리와 CPU를 분리해 왔다. 그러나 GPU 제조사들은 AI 알고리즘 성능을 향상시키기 위해 고속 메모리를 보드에 직접 통합하는 방법을 사용했다. 이를 통해 컴퓨팅 집약적 AI 모델을 GPU 메모리에 직접 실어 실행할 수 있게 됐다. 그 결과데이터 전송에 소요되는 시간을 절약하고 더 빠른 산술 연산을 할 수 있다.

기존의 CPU와 GPU 외에도 스마트폰과 자동화 시스템과 같은 장치에서 사용할 수 있도록 설계된 소형 AI 칩도 있다. 이 칩들은 음성 인식과 같은 작업을 할 때 더 적은 전력을 소비하면서도 더 효율적으로 작업을 수행할 수 있다.

또한 일부 연구자들은 더 작은 공간에서 더 빠르고, 더 정확하고, 더 전력 효율적인 컴퓨팅의 잠재력을 제공하는 AI 계산을 위한 아날로그 전기 회로의 사용을 탐구하고 있다. 

 

 

AI HW의 사례

세레브라의 슈퍼칩은 AI 성능을 크게 향상시키도록 설계됐다. (사진=세레브라)

 

 

GPU는 처리, 특히 기계 학습 작업에 사용되는 가장 일반적 AI HW로 남아있다. 앞서 언급된 광범위한 병렬화의 이점 때문에 GPU는 종종 CPU보다 수백 배 빠른 연산을 제공한다.

기계학습에 대한 수요가 지속적으로 증가함에 따라 IT 기업들은 기존 그래픽 기능보다 AI 학습 알고리즘 가속화를 우선시하는 특화된 HW 아키텍처를 개발하고 있다.

이 분야의 시장 선두 주자인 엔비디아는 전 세계 슈퍼컴퓨터(HPC)에 사용되는 A100과 H100 시스템과 같은 제품을 제공한다. 구글과 같은 다른 회사들도 특별히 AI에 활용하기 위해 자체적인 HW를 만들고 있는데, 그 결과물인 구글 텐서 처리 장치(TPU)는 현재 4세대에 이르고 있다.

이러한 일반화된 AI 칩 외에도 대용량 데이터를 처리하는 것 같은 기계학습 처리의 특정부분용으로 설계되거나, 스마트폰처럼 제한된 공간이나 배터리 수명을 가진 장치에서 사용되는 특화된 칩들도 있다.

여기에 더해 기존 CPU는 비록 정확도 저하를 의미하더라도 더 빠른 속도로 계산을 수행함으로써 기계학습 작업을 더 잘 처리할 수 있도록 적응하고 있다.

마지막으로, 많은 클라우드 서비스 공급자들도 컴퓨팅 집약적인 작업이 여러 컴퓨터와 프로세서에서 병렬로 실행되도록 허용하고 있다.

 

 

양대 AI 반도체 업체 vs 경쟁 IT기업들

4세대 텐서코어가 탑재된 엔비디아의 H100. (사진=엔비디아)

머신러닝을 위한 GPU는 대부분 엔비디아와 AMD가 생산한다.

예를 들어 엔비디아는 기계학습 모델을 훈련할 때 이른바 ‘텐서 코어’를 사용해 더 정밀한 컴퓨팅 작업을 가능케 한다.

또한 H100 그래픽 카드는 4세대 텐서 코어와 FP8 정밀도의 트랜스포머 엔진을 탑재해 전문가 혼합(MoE) 모델을 이전 세대보다 최대 9배 더 빠르게 훈련한다.

AMD는 올해 나올 연산에 특화된 CDNA-2,CDNA-3 아키텍처를 사용해 GPU를 기계 학습 요구 사항에 맞게 조정하는 자체 접근 방식을 제공한다.

구글은 구글 클라우드 플랫폼을 통해 대여하고, 툴 및 라이브러리 제품군을 함께 제공하는 TPU로 순수 기계학습 가속화를 계속 선도하고 있다.

구글은 픽셀 스마트폰 계열을 포함한 모든 기계학습 기반 서비스를 TPU에 의존한다. 이 칩들은 음성 인식, 실시간 번역, 이미지 처리 같은 작업을 직접(클라우드 도움없이) 처리한다.

한편, 아마존, 오라클, IBM, 마이크로소프트(MS)와 같은 다른 주요 클라우드 제공자들은 GPU나 다른 AI HW를 선택했다.

아마존은 정확성보다 속도를 우선시하는 그라비톤 칩을 자체 개발했다. 구글 콜랩, 마이크로소프트의 머신러닝 스튜디오, IBM의 왓슨 스튜디오, 아마존의 세이지메이커와 같은 프론트엔드 애플리케이션은 사용자들이 특별한 하드웨어를 인식하지 않고도 사용할 수 있게 해준다. (사진=아마존)

아마존은 정확성보다 속도를 우선시하는 그라비톤(중력양자) 칩을 자체 개발했다.

구글 콜랩(Colab), MS의 머신러닝 스튜디오, IBM의 왓슨 스튜디오, 아마존의 세이지 메이커와 같은 프론트엔드 애플리케이션은 사용자들이 특화된 HW를 인식하지 않고도 이를 사용할 수 있게 해준다.

이 분야 전문 스타트업들도 AI칩 경쟁에 가세했다. AI훈련 및 추론에서 CPU보다 더 성능에서 앞선다는 GPU만이 능사가 아니라는 듯 새로운 기술로 성과를 내고 있는 기업들이 속속 등장하고 있다.

미국 캘리포니아 소재 D-매트릭스 같은 회사들이 산술 연산들을 메모리에 저장된 데이터에 더 가깝게 두는 인메모리 컴퓨팅(IMC) 칩을 생산하고 있다.

또 스타트업 언테터(Untether)는 이른바 ‘앳 메모리 컴퓨팅(at memory computing)’이라는 방식을 사용해 스마트카드 한 장에 2페타 옵스(1페타=1000조)라는 높은 컴퓨팅 파워를 구현하고 있다. 이 접근법은 램 셀에서 직접 계산하는 것을 포함한다. 언테터는 자사의 획기적인 앳 메모리 아키텍처가 컴퓨팅 요소를 직접 메모리 셀 부근으로 이동시킴으로써 타의 추종을 불허하는 컴퓨팅 밀도를 제공하며, 이를 통해 비전, 자연어 처리, 추천 엔진 등 다양한 신경망에 대한 AI 추론을 가속화한다고 말한다. 이 회사는 이 기술이 현재 자사의 ‘런AI200(runAI200)’ 디바이스 및 ‘쓰나이미(tsunAImi)’ 가속기 카드에서 사용된다고 밝혔다.

언테터의 앳메모리 컴퓨팅 기술을 사용한 ‘런 AI200’ AI칩. (사진=언테터)

언테터의 가속기 카드 성능 비교. (사진=언테터)
 

그래프코어(Graphcore), 세레브라스(Cerebras), 셀레스티얼(Celestirial) 같은 다른 회사들도 더 빠른 AI 계산을 위해 각각 인메모리 컴퓨팅, 대체 칩 설계, 빛 기반 논리 시스템을 탐구하고 있다.

그래프 코어의 AI 칩인 BOW IPU 프로세서. (사진=그래프 코어)

그래프 코어는 자사의 보우(Bow) 지능형 처리 장치(IPU) 프로세서가 “세계최초로 WoW(Wafer on Wafer) 3D 적층 기술을 사용한 프로세서로서 IPU의 검증된 이점을 한 단계 끌어올렸다. 컴퓨팅 아키텍처와 실리콘 구현, 통신 및 메모리의 획기적인 발전을 특징으로 하는 각 보우 IPU는 최대 350테라플롭스(1테라플롭스=초당 1조회 연산)의 AI 컴퓨팅을 제공하며, 이전 세대 IPU에 비해 성능이 40% 향상되고 전력 효율성이 최대 16% 향상됐다”고 소개했다.

물론 기존 CPU의 최강자 인텔도 가만히 있는 것만은 아니다.

인텔은 지난해 5월 자사의 하바나 랩스(Habana Labs)를 통해 AI 딥러닝 프로세서 기술에 초점을 맞춘 2세대 AI 훈련용칩(하나바 가우디2) 및 추론용 칩(하바나 그레코)를 출시했다.

인텔의 하바나 가우디2 AI칩을 사용한 가우디 메자닌 AI 카드. (사진=인텔)
 

삼성전자 등 우리나라도 AI반도체 선점에 속도

삼성전자가 2021년 2월 개발해 공개한 세계 최초의 인공지능용 HBM-PIM. (사진=삼성전자)

삼성전자는 지난 2021년 세계 최초로 AI용 HBM-PIM칩을 발표했다. 이어 지난해 12월 열린 ‘2022 PIM인공지능반도체 전략기술 심포지엄’에서는 “2023년에 ‘HBM3-PIM’을 만나볼 수 있을 것”이라고 밝혔다.

HBM(High Bandwidth Memory)은 주로 슈퍼컴에 사용되는 메모리 반도체이며, HBM-PIM은 여기에 PIM(Processing-in-Memory) 기술을 적용한 칩이다.

PIM 기술은 차세대 AI반도체로 불린다. 데이터를 저장하는 메모리 반도체에 프로그램을 연산을 처리하는 프로세서를 합쳐 메모리 반도체가 데이터 저장은 물론 프로그램 연산까지 할 수 있도록 함으로써 AI훈련과 추론 효율을 높이도록 했다.

2021년 2월 삼성전자가 개발해 발표한 HBM-PIM은 2세대 고대역폭 메모리 반도체인 HBM2에 PIM을 적용시킨 것이다. 삼성전자에 따르면 이 칩은 HBM2 대비 성능은 2배 증가했고, 에너지 사용량은 70% 감소했다. HBM3는 6.4Gbps에 이르는 처리속도로, HBM2에 비해 속도가 1.8배나 빠르다.

SK하이닉스도 지난해 6월 ‘GDDR6-AiM’이라는 PIM 반도체를 선보였다.

과학기술정보통신부는 지난해 12월 “오는 2030년까지 PIM 연구·개발에 8000억원을 투입하기로 결정했다”고 발표했다.

전세계는 이처럼 점점더 인류에게 큰 영향을 미칠 AI 시대에 대비해 더 뛰어난 AI칩을 개발해 공급하기 위해 치열하게 경쟁중이다.

 

 

 

엔비디아

 

엔비디아는 AI 시대를 상징하는 기업이다. 1993년 젠슨 황이 동료들과 함께 공동 창업한 회사는 애초 비디오게임이 더 빠르게 실행되도록 하는 그래픽 처리 장치(GPU)라는 틈새시장의 강자였다. 수익과 대중성 면에서 구글, 애플 같은 빅테크에 밀리던 이 회사의 운명은 지난해 AI 열풍이 시작되며 반전을 맞았다. 엔비디아의 GPU가 AI를 학습시키고 운용하는 데 가장 적합한 반도체라는 점이 알려지면서 주류 시장의 강자로 우뚝 선 것이다. NYT는 “수십 년간의 선구적인 투자에 뿌리를 둔 엔비디아의 독보적인 AI 관련 지식재산은 엔비디아를 반도체 리그에서 차별화하고 있다”고 말했다. 엔비디아 주가는 1년 전보다 약 3배 폭등했고 올해 들어서만 47% 올랐다. 

파이낸셜타임스(FT)는 “엔비디아 매출의 약 30%를 빅테크가 차지하지만 이제는 자동차, 금융, 의료에 이르기까지 점점 더 많은 산업이 AI 컴퓨팅용 하드웨어에 투자를 서두르고 있다”며 “이제는 일본, 캐나다, 프랑스 같은 나라들이 자체 AI 모델을 만들면서 엔비디아 고객은 더 많아지고 있다”고 했다. 시장의 80% 이상을 차지하는 독점적인 영향력은 엔비디아의 수익성과 직결된다. 지난해 4분기 엔비디아의 영업이익률은 66.7%에 이른다. 100원어치 팔면 66원이 수익이다. 뚜렷한 경쟁자가 없으니 가격이 비싸도 불티나듯 팔려나간 덕분이다.

엔비디아와 협업 관계인 SK 하이닉스와 엔비디아의 칩을 생산하는 세계 최대 파운드리(위탁 생산) TSMC도 엔비디아와 함께 날아오르고 있다. SK하이닉스는 엔비디아의 AI 반도체 H100에 들어가는 HBM3를 독점 공급하고 있는 회사로, 이 같은 HBM에 힘입어 작년 4분기 1년 만에 흑자로 전환했다. H100의 생산과 패키징을 맡고 있는 TSMC 주가도 역대 최고 수준으로 치솟았다. 

 

AI 반도체 시장의 80% 이상을 장악한 엔비디아에 도전하는 기업은 많다. 인텔은 차세대 AI 가속기 가우디3를, AMD는 MI300X를 공식 출시하며 엔비디아의 H100에 도전장을 내밀었다. 샘 올트먼 오픈AI CEO는 7조달러에 달하는 거액의 투자금을 유치하며 자체 AI 반도체 제조에 나섰고 MS, 구글, 메타 등도 특화 반도체 개발에 뛰어들었다. 하지만 전문가들은 당분간 엔비디아의 아성이 굳건할 것으로 본다. 압도적인 성능부터 편리한 구동 소프트웨어 등 AI 반도체 전 사이클에 걸쳐 엔비디아가 수십 년간 구축한 기술력을 쉽게 따라잡기 어렵다는 것이다. 

엔비디아는 2분기에 신제품인 H200 출시를 앞두고 있고 올해 말 신제품 B100을 출하할 계획이다. 젠슨 황 CEO는 이날 “우리가 생성 AI를 시작한 지 1년이 됐다. 이 기술을 모든 산업에 확산시키는 10년 주기의 첫해에 접어든 것”이라며 “회사는 앞으로 훨씬 많은 성장을 이룰 것으로 본다”고 했다. 엔비디아는 올해 1분기에 전년 동기(71억9000만달러) 대비 3배 이상인 240억달러의 매출을 기대한다고 밝혔다. 시장조사 업체들은 AI 반도체 시장이 2030년이면 현재의 10~20배로 커질 것으로 본다. 엔비디아의 질주가 이제 시작에 불과하다는 것이다.

 

 

 

GPU(그래픽 반도체)

컴퓨터 영상 정보를 처리하거나 화면 출력을 담당하는 그래픽 처리용 반도체. 엔비디아가 1999년 지포스256을 내놓으며 처음 GPU라는 용어를 썼다. 중앙처리장치(CPU)는 명령어를 입력 순서대로 처리하는 방식이지만, GPU는 동시에 여러 작업을 처리하는 특징이 있다. 인공지능 시대가 열리며 대규모 연산이 필요한 AI 심층 학습(딥러닝)에서 GPU가 필수라는 점이 확인돼 엔비디아의 GPU H100 등이 품귀 현상을 빚고 있다.

 

 

 

젠슨 황
NVIDIA 공동창업자, 회장 겸 CEO. 중화식 이름으로는 황런쉰(황인훈)
대만계 미국인으로 대만 타이난시에서 출생했으며, 9살 때 가족들과 미국 켄터키로 이주했다. 그 후 오리건에서 고등학교를 마치고, 1984년에 오리건 주립대학교에서 전기공학 학사, 1992년에 스탠퍼드 대학교 전기공학 석사 학위를 취득했다.
대학을 졸업하고 LSI 로지틱스와 AMD에서 마이크로프로세서 설계를 담당했고, 1993년에 NVIDIA를 공동 설립했다.

엔지니어 출신이지만 경영 능력도 탁월하여 NVIDIA를 세계 수위권의 반도체 회사로 거듭나게 한 큰 공로를 가지고 있다. 여러 가지 이유로 NVIDIA 세계 팬들에게는 애증의 대상이기도 하다. 매 세대마다 그래픽카드 라인업을 단계적으로 극도로 세분화해서 팔기 때문에 일찍 그래픽카드를 구매한 사용자들 입장에서는 가격은 더 싼데 성능은 비슷한 하위 카드가 나온다거나 하는 상황이 불쾌하기 때문. 이 때문에 한국 인터넷 커뮤니티에서는 별명이 황통수인데 이러니저러니 해도 엔비디아의 그래픽카드는 매년 어마어마하게 팔리고 있고 시가총액과 주가도 고공행진 중인 걸 보면 탁월한 경영자임은 분명하다. 하지만 가끔씩 합리적이고 만족스러운 가격의 성능의 제품을 내놓을때는 황제라고 불리기도 한다. 
쇼맨십도 은근히 있는 편. 키노트를 비롯한 공개 행사 때 꼭 한 번은 입고 나오는 특유의 검은색 가죽 재킷 복장이 유명하다. 스티브 잡스가 특유의 '검은 터틀넥 티셔츠 + 청바지' 패션을 트레이드마크 이미지로 대중에게 각인시켰듯이, 자신은 검은색 가죽 재킷을 트레이드마크로 삼으려는 듯하다. 구글 검색에서도 젠슨 황을 검색하면 Leather Jacket 키워드가 자동 완성된다. 코로나 시국이 한창이던 2020년에 발매된 GeForce 30 소개 영상은 특이하게도 자택의 주방에서 촬영했는데 여기서도 자신의 트레이드마크인 가죽 재킷을 입고 나온다.
유명 어록으로는 "The more GPU you buy, the more money you save.(더 좋은 그래픽카드를 살수록 더 많은 돈을 아끼게 되십니다)"와 "It just works.(그냥 잘 됩니다)"가 있다. 그리고 "The Metaverse is coming.(메타버스가 오고 있다)"는 말도 있다. 이 말은 2020년 10월 5일 GTC 2020 기조연설 때 메타버스 시대의 도래를 이야기하면서 한 말인데, 세계 최대의 GPU 기업 회장이 공개 석상에서 짧고 굵은 한 마디로 메타버스의 잠재력과 중요성을 단번에 강조한 것이 강한 인상을 주면서 유명해졌다. 메타버스를 다룬 보도들을 살펴보다 보면 '젠슨 황이 이렇게 말했다'며 이걸 언급하는 신문기사들을 자주 볼 수 있다. 메타버스가 실패하고 AI 시대가 오자 황의 법칙을 발표하기도 했다. 

반응형