Jen-Hsun Huang의 20,000자 인터뷰 녹취록: Nvidia가 직원 50,000명과 AI 보조원 1억 명을 보유하게 되기를 바랍니다.

NVIDIA CEO Jen-Hsun Huang은 최근 격주로 진행되는 "오픈 소스" 대화에 참석하여 Brad Gerstner 및 Altimeter 파트너 Clark Tang과 함께 일반 인공 지능(AGI)을 향한 지능 개발 촉진 주제에 대해 논의했습니다.

수년간 AI 및 기계 학습 분야에 깊이 관여해 온 Huang Renxun의 AI 개발 현황과 전망에 대한 평가는 정확했습니다. 이는 완전한 혁명입니다.

추론은 폭발적인 성장을 경험하고 있으며, 오픈 소스 모델에 대한 수요는 급증하고 있으며, 완벽하게 호환되는 AI 인프라가 지속적으로 구현되고 있습니다… AI가 대중화되는 이 시대에 Huang Renxun은 대담한 아이디어를 가지고 있습니다. NVIDIA가 50,000명의 직원을 보유하고 미래에는 1억 명의 AI 비서가 필요합니다.

오늘날의 AI 세계에서 NVIDIA의 경쟁 장벽과 포지셔닝과 관련하여 Huang Jen-Hsun은 자신의 장점에 대해 매우 확신하고 상당한 야망을 가지고 있습니다. NVIDIA는 알고리즘 분야에서 최고이며 우리의 임무는 새로운 세계를 위한 유비쿼터스 AI를 구축하는 것입니다. 컴퓨팅 플랫폼.

물론, 시장점유율 경쟁과는 달리 이 야심은 단지 ' 착취 '에 관한 것이다.

약 1시간 30분 동안 진행된 인터뷰에서 Huang은 머신러닝이 어떻게 컴퓨팅 세계를 재편하고 있는지, AI가 어떻게 전례 없는 기술 혁명을 가져오고 궁극적으로 거대한 혁명의 물결을 일으키는지에 대해 예리한 분석을 했습니다. 이 밖에도 AI 보안, 오픈소스 논란 등의 주제도 다룬다.

겉보기에 차가워 보이는 가죽 재킷 밑에는 AI 분야에 대한 Huang Renxun의 열정적인 초심이 담겨 있습니다. 나는 내 일, 내 책임, 사회 공헌 및 우리가 살고 있는 시대를 진지하게 받아들이겠습니다.

이번 인터뷰는 정보 밀도가 상당히 높고, AI 산업에 대한 논의가 유례없이 심도 깊게 진행되는 것을 놓치지 마세요!

인터뷰 원본 영상 링크:

이번 인터뷰에서 Huang Jenxun의 주요 내용을 간략하게 요약하면 다음과 같습니다.

  • 개인 AI 비서가 곧 등장할 예정이며 시간이 지나면서 계속 발전할 것입니다.
  • 우리는 전체 기술 스택에서 혁신과 성장이 이루어지면서 인간 프로그래밍에서 기계 학습으로 전환했습니다.
  • AI의 가속화된 진화를 촉진하려면 "플라이휠"의 모든 부분을 가속화해야 합니다.
  • 컴퓨팅(애플리케이션 개발)의 미래는 기계 학습과 AI에 크게 의존하게 될 것이며 인간이 이러한 애플리케이션을 사용하도록 돕는 에이전트가 있을 것입니다.
  • AI는 직업을 대체하는 것이 아니라 변화시키고 사람들이 일에 대해 생각하는 방식에 큰 영향을 미칠 것입니다.
  • AI의 안전성은 기본이다. 반드시 중요 기술별로 별도의 입법을 요구할 필요도 없고 불필요한 영역에 규제를 과도하게 확대하는 것도 허용하지 않는다.
  • AI 창출을 촉진하려면 오픈소스 모델이 있어야 한다. 많은 산업이 활성화되기 위해서는 오픈소스가 필요하다.

다음은 APPSO가 편집한 인터뷰 전문입니다.

인간 프로그래밍에서 머신러닝으로 전환

Brad Gerstner: 10월 4일 금요일, 우리는 Altimeter 바로 아래에 있는 Nvidia 본사에 있습니다. 우리는 월요일에 연례 투자자 회의를 열어 AI의 모든 영향과 인텔리전스를 얼마나 빨리 확장할 ​​수 있는지에 대한 진행 상황을 논의할 것입니다.

저는 주주이자 우리의 지적 파트너로서 이 대화를 시작하기에 가장 적합한 사람을 찾을 수 없으며, 여러분과 아이디어를 나누는 것은 항상 우리를 더 똑똑하게 만듭니다. 우리는 이러한 우정에 감사하며, 들러주셔서 감사합니다.

Jen-Hsun Huang : 여기에 오게 되어 기쁩니다.

브래드 거스트너(Brad Gerstner): 올해 주제는 지능을 일반 인공지능(AGI)으로 확장하는 것입니다.

충격적인 건 2년 전 우리가 이 일을 했을 때는 주제가 AI 시대였는데, 그게 ChatGPT가 출시되기 두 달 전이었다는 겁니다. 이 모든 변화를 생각하면 정말 놀랍습니다. 그래서 저는 사고 실험부터 시작하여 예측을 할 수 있을 것이라고 생각했습니다.

일반 인공지능(AGI)을 단순히 주머니 속의 개인 비서로 이해한다면, 그것은 나에 대한 모든 것을 알고, 나에 대한 완벽한 기억을 가지고 있으며, 나와 소통할 수 있고, 호텔을 예약해 줄 수 있으며, 심지어는 나를 위해 의사 약속을 잡았어요. 요즘 세상이 너무 빨리 변하고 있다고 생각하는데, 언제쯤 이런 개인 비서를 주머니에 넣을 수 있을 것 같나요?

Jensen Huang: 곧 어떤 형태로든 나올 것입니다. 그 비서는 시간이 지남에 따라 점점 더 좋아지고 있습니다. 이것이 바로 우리가 알고 있는 기술의 아름다움입니다. 그래서 시작할 때 매우 유용할 것이라고 생각하지만 완벽하지는 않습니다. 그리고 시간이 지나면서 점점 좋아지더라구요. 모든 기술이 그렇듯.

Brad Gerstner: 변화율을 볼 때 중요한 것은 변화율뿐이라고 Elon이 말한 것이 기억납니다. 우리는 변화의 속도가 상당히 빨라졌다고 느낍니다. 이는 우리가 이러한 문제에 대해 본 것 중 가장 빠른 변화 속도입니다. 왜냐하면 우리는 약 10년 동안 AI 분야에서 일해 왔고 여러분은 훨씬 더 길기 때문입니다. 이것이 당신의 경력에서 본 변화의 가장 빠른 속도입니까?

Jensen Huang: 네, 왜냐하면 우리가 컴퓨팅을 재창조했기 때문입니다. 이러한 변화는 주로 우리가 지난 10년 동안 컴퓨팅의 한계 비용을 100,000배 줄였다는 사실에 기인합니다. 무어의 법칙에 따라 계산하면 이 프로세스는 약 100배 향상되지만 우리는 이보다 훨씬 더 많은 것을 달성했습니다. 우리는 여러 가지 방법으로 이를 달성합니다.

먼저, CPU에서 효율적이지 않은 작업을 GPU로 전송하기 위해 가속 컴퓨팅을 도입했습니다.

둘째, 새로운 수치 정밀도를 개발하고, 새로운 아키텍처를 개발하고, 통합 코어를 설계하고, 시스템 구축 방식을 개선하고, MVLink에 초고속 메모리(HBM)를 추가하고, MVLink 및 InfiniBand를 통해 풀 스택 확장을 구현했습니다. 기본적으로 Nvidia가 작업을 수행하는 방식에 대해 제가 설명한 모든 세부 사항은 무어의 법칙을 초과하는 혁신 속도에 기여합니다.

정말 놀라운 점은 이로 인해 우리가 인간 프로그래밍에서 기계 학습으로 전환했다는 것입니다.

그리고 머신러닝의 가장 놀라운 점은 학습 속도가 매우 빠르다는 점입니다. 따라서 계산이 분산되는 방식을 재정의함에 따라 텐서 병렬 처리, 파이프라인 병렬 처리 및 모든 종류의 병렬 컴퓨팅 방법 등 다양한 형태의 병렬 처리가 가능해졌습니다. 우리는 이를 기반으로 새로운 알고리즘을 개발하고 새로운 훈련 방법을 개발했습니다. 이 모든 발명품은 서로에게 복합적인 영향을 미쳤습니다.

그 당시 무어의 법칙이 어떻게 작동했는지 살펴보면 소프트웨어는 정적이었습니다. 하드웨어는 무어의 법칙에 따라 발전하는 반면, 패키지 제품처럼 정적으로 존재하도록 설계되었습니다. 이제 우리의 전체 기술 스택이 성장하고 있으며 전체 스택이 혁신되고 있다고 생각합니다.

이제 갑자기 우리는 놀라운 확장을 목격하고 있습니다. 물론 이는 놀라운 변화입니다. 하지만 이전에 우리가 이야기한 것은 사전 훈련된 모델과 해당 수준의 확장, 모델 크기를 두 배로 늘리는 방법, 적절하게 데이터 양을 두 배로 늘리는 것이었습니다.

따라서 필요한 컴퓨팅 성능은 매년 4배씩 증가합니다. 당시에는 이것이 큰 일이었습니다. 하지만 이제 우리는 훈련 후 단계에서 확장을 보고 있고 추론 단계에서도 확장을 보고 있습니다. 그렇죠? 사람들은 사전 훈련은 어렵고 추론은 상대적으로 쉽다고 생각했습니다.

지금 모든 것이 더 어렵다는 생각은 실제로 합리적입니다. 결국 인간의 모든 사고를 일회성 프로세스로 축소하는 것은 터무니없는 일입니다. 따라서 사고에는 빠른 사고와 느린 사고, 추론, 반성, 반복, 시뮬레이션 등의 개념이 반드시 존재해야 하며, 이제는 이러한 개념이 점차 통합되고 있습니다.

Clark Tang: 현재 Nvidia에 대해 가장 오해받는 것 중 하나는 Nvidia가 실제로 얼마나 많은 기술적 이점을 갖고 있는지입니다. 그렇죠? 누군가가 새로운 칩이나 더 나은 칩을 발명하면 승리한다는 인식이 있다고 생각합니다.

하지만 사실 여러분은 지난 10년 동안 GPU부터 CPU, 네트워킹, 특히 애플리케이션이 NVIDIA 플랫폼에서 실행될 수 있도록 하는 소프트웨어와 라이브러리에 이르기까지 전체 기술 스택을 구축해 왔습니다. 현재 Nvidia의 기술적 우위가 3~4년 전보다 더 커졌다고 생각하시나요, 아니면 작아졌다고 생각하시나요?

Jensen Huang: 컴퓨팅이 변화했다는 점을 인식해 주셔서 감사합니다. 사실 사람들이 더 나은 칩을 설계하는 데 충분할 것이라고 생각한 이유는 더 많은 부동 소수점, 더 많은 플립, 바이트 및 비트가 있었기 때문입니다. 무슨 말인지 아십니까? 기조연설 슬라이드를 보면 뒤집기, 부동소수점 연산은 물론 다양한 막대형 차트, 차트 등으로 가득 차 있습니다.

그것들은 모두 훌륭합니다. 물론 성능이 중요하므로 기본적으로 중요합니다. 그러나 불행하게도 이것은 낡은 사고방식이다. 당시의 소프트웨어는 Windows에서 실행되는 응용 프로그램에 불과했기 때문에 소프트웨어는 정적이었습니다. 즉, 시스템을 개선할 수 있는 최선의 방법은 점점 더 빠른 칩을 만드는 것이었습니다.

그러나 우리는 기계 학습이 인간 프로그래밍이 아니라는 것을 알고 있습니다. 머신러닝은 단지 소프트웨어에 관한 것이 아니라 전체 데이터 경로에 관한 것입니다. 사실 머신러닝의 핵심인 플라이휠이 가장 중요합니다. 그렇다면 데이터 과학자와 연구자가 이 플라이휠 내에서 효율적으로 작업하면서 이를 추진할 수 있도록 하는 방법에 대해 어떻게 생각하시나요? 그리고 이 플라이휠은 가장 초기 단계부터 시작됩니다.

많은 사람들은 다른 AI를 가르치기 위해 데이터를 정리하는 데 실제로 AI가 필요하다는 사실조차 깨닫지 못합니다. 그리고 AI 자체는 이미 상당히 복잡합니다.

▲개인용 ​​AI 비서가 어떤 식으로든 곧 등장할 것이다(출처:NITCO)

플라이휠의 모든 단계를 가속화하세요.

Brad Gerstner: 그럼 저절로 개선되고 있나요? 그것도 가속하고 있는 걸까? 경쟁 우위에 대해 다시 생각해 보면 알죠? 이는 실제로 이러한 모든 요소가 결합된 효과입니다.

Jen-Hsun Huang: 물론 맞습니다. 데이터를 구성하는 더 스마트한 AI 덕분에 이제 우리는 합성 데이터 생성과 데이터를 구성하고 표시하는 다양한 방법까지 보유하게 되었습니다. 따라서 훈련을 수행하기 전에 이미 많은 데이터 처리가 관련되어 있습니다. 그리고 사람들은 항상 PyTorch를 세상의 시작과 끝으로 생각합니다.

정말 중요한데, PyTorch를 사용하기 전에 할 일이 많고, PyTorch를 사용한 후에 할 일이 많다는 사실을 잊지 마세요. 그리고 플라이휠에 대한 아이디어는 실제로 당신이 그것에 대해 생각해야 할 방식입니다. 이 플라이휠 전체에 대해 어떻게 생각해야 할까요? 이 플라이휠을 최대한 효율적으로 실행하는 데 도움이 되는 컴퓨팅 시스템, 즉 컴퓨팅 아키텍처를 어떻게 설계합니까? 이것은 훈련을 적용하는 단일 단계가 아니죠? 이것은 단지 한 단계일 뿐입니다, 그렇죠?

플라이휠의 모든 단계가 어렵기 때문에 가장 먼저 생각해야 할 것은 Excel을 더 빠르게 실행하는 방법이나 Doom을 더 빠르게 실행하는 방법이 아니라 오래된 작업 방식입니다.

이제 당신이 생각해야 할 것은 이 플라이휠을 더 빠르게 만드는 방법입니다. 그리고 이 플라이휠에는 다양한 단계가 있으며, 아시다시피 기계 학습의 어떤 것도 간단하지 않으며 OpenAI가 수행하는 작업이나 X가 수행하는 작업 또는 Gemini 팀과 DeepMind가 수행하는 작업에 대해 간단한 것도 없습니다.

그래서 우리는 이것이 여러분이 정말로 생각해야 할 것이라고 결정했습니다. 이것이 전체 프로세스이므로 모든 부분의 속도를 높여야 합니다. 암달의 법칙을 존중해야 합니다. 암달의 법칙에 따르면 이 부분이 30%의 시간을 차지하고 속도를 3배로 높이면 전체 프로세스의 속도가 크게 빨라지지 않습니다.

모든 단계의 속도를 높이는 시스템을 만들어야 하며 전체 프로세스의 속도를 높여야 주기 시간을 크게 향상시킬 수 있으며 학습 속도 플라이휠은 궁극적으로 기하급수적인 성장으로 이어집니다.

그래서 제가 말하고자 하는 것은 기업의 관점이 실제로 그 제품에 반영된다는 것입니다. 제가 이 플라이휠에 대해 계속해서 이야기하고 있다는 점에 주목하세요.

Clark Tang: 전체 사이클을 말씀하시는 거죠.

Jensen Huang: 맞습니다. 우리는 지금 모든 것을 가속화하고 있습니다. 이제 주요 초점은 비디오입니다. 많은 사람들이 물리 AI와 영상 처리에 집중하고 있습니다. 프런트엔드를 생각해 보십시오. 매초마다 테라바이트 규모의 데이터가 시스템으로 들어옵니다. 데이터 수집부터 교육 준비까지 이 데이터를 처리하는 파이프라인이 어떻게 실행되는지 예를 들어 보세요. 이 모든 것이 CUDA 가속화됩니다.

Clark Tang: 지금 사람들은 텍스트 모델만 생각하고 있지만 앞으로는 비디오 모델도 포함하고 o1과 같은 일부 텍스트 모델을 사용하여 처리를 시작하기 전에 대량의 데이터를 처리할 것입니다.

Jen-Hsun Huang: 언어 모델은 모든 분야를 포함합니다. 업계에서는 이러한 대규모 언어 모델을 훈련하기 위해 언어 모델을 훈련하는 데 많은 기술과 노력을 쏟고 있습니다. 이제 우리는 모든 단계에서 더 낮은 계산 비용을 사용합니다. 이것은 정말 놀라운 일입니다.

브래드 거스트너: 지나치게 단순화하고 싶지는 않지만 투자자들로부터 많이 듣는 질문이겠죠? 예, 하지만 맞춤형 칩은 어떻습니까? 그렇습니다. 하지만 결과적으로 경쟁 장벽이 허물어질까요?

제가 듣기로는 이 결합된 시스템에서는 시간이 지남에 따라 장점이 커진다는 것입니다. 따라서 우리는 모든 구성 요소를 개선하고 있기 때문에 3~4년 전보다 오늘날 더 큰 이점을 누리고 있다고 말씀하시는 것을 들었습니다. 그리고 그 결합 효과는 비즈니스 사례 연구로서 Intel이 기술 스택에서 지배적이었음을 의미합니다. 그리고 오늘날 Intel은 그들과 비교하여 어디에 있습니까?

아마도 간단한 요약을 통해 현재의 경쟁 우위와 최고 수준의 경쟁 우위를 비교해 보세요.

Jensen Huang: 인텔은 특별합니다. 인텔은 아마도 제조 공정 엔지니어링 및 생산에 매우 능숙한 최초의 회사이고, 제조 공정 이후의 다음 단계는 칩 설계이기 때문에 특별합니다. 그렇죠? 그들은 칩을 설계하고 x86 아키텍처를 구축했으며 계속해서 더 빠른 x86 칩을 만들고 있습니다. 이것이 그들의 영리함이다. 그들은 이를 제조 공정과 결합합니다.

우리 회사는 병렬 처리가 실제로 모든 트랜지스터가 완벽해야 하는 것은 아니라는 점을 인식하고 있기 때문에 약간 다릅니다. 직렬 처리에서는 모든 트랜지스터가 완벽해야 하지만, 병렬 처리에서는 더 큰 비용 효율성을 달성하기 위해 많은 수의 트랜지스터가 필요합니다.

나는 10배 더 적은 트랜지스터를 갖고 20% 더 빠른 것보다 10배 더 많은 트랜지스터를 갖고 20% 더 느린 것을 선호합니다. 이해했나요? 그들은 그 반대를 선호하므로 단일 스레드 성능과 단일 스레드 처리는 병렬 처리와 매우 다릅니다. 그래서 우리는 세상이 실제로 더 나은 일을 하기 위한 것이 아니라는 것을 깨닫습니다. 우리는 가능한 한 좋은 사람이 되기를 원하지만 세상이 정말로 관심을 갖는 것은 점점 더 좋아지는 것입니다.

병렬 컴퓨팅, 병렬 처리는 각 알고리즘을 아키텍처에 따라 다른 방식으로 리팩터링하고 재설계해야 하기 때문에 어렵습니다. 사람들이 깨닫지 못하는 것은 각각 자체 C 컴파일러가 있는 세 가지 다른 CPU를 가질 수 있고 소프트웨어를 해당 ISA(명령어 세트 아키텍처)로 컴파일할 수 있다는 것입니다. 이는 가속 컴퓨팅에서는 불가능하며 병렬 컴퓨팅에서도 불가능합니다.

아키텍처를 개발한 회사는 자체 OpenGL을 개발해야 했습니다. 그래서 우리는 CUDNN이라는 도메인별 라이브러리를 보유했기 때문에 딥 러닝에 혁명을 일으켰습니다 . CUDNN이 없었다면 오늘날 딥러닝도 없을 것입니다.

CUDNN은 PyTorch와 TensorFlow 아래에 있는 레이어이기 때문에 아무도 CUDNN에 대해 이야기하지 않습니다. 초기에는 Caffe와 Theano가 있었고 지금은 Triton이 있고 다양한 프레임워크가 있습니다. CUDNN 및 Optics와 같은 도메인별 라이브러리, CuQuantum, Rapids 등의 도메인별 라이브러리입니다.

Brad Gerstner: 산업별 알고리즘은 모두가 집중하고 있는 PyTorch 계층 아래에 ​​있습니다. 예를 들어, 사람들이 이러한 기본 라이브러리가 없었다면…

Jensen Huang: 우리가 발명하지 않았다면 최상위 애플리케이션 중 어느 것도 실행될 수 없었을 것입니다. 내가 말하는 것을 이해합니까? 수학적으로 말하면, NVIDIA가 정말 잘하는 것은 상위 수준 과학과 하위 수준 아키텍처를 결합하는 알고리즘입니다.

▲인터뷰 중인 황런순

추론의 시대에 들어섰다

Clark Tang: 이제 모든 관심이 마침내 추론에 집중되었습니다. 하지만 2년 전, 브래드와 저는 당신과 함께 저녁 식사를 하면서 질문을 했습니다. 엔비디아의 기술적 이점이 훈련만큼 추론에서도 강력할 것이라고 생각하시나요?

Jensen Huang: 확실히 더 강해질 거라고 말했어요.

Clark Tang: 방금 우리가 완전히 이해하지 못하는 모듈 조합 및 다양한 어셈블리 조합과 같은 많은 요소를 언급하셨습니다. 고객이 이들 간에 전환할 수 있는 유연성을 갖는 것이 중요합니다. 하지만 이제 추론의 시대에 접어들었으니 이에 대해 좀 더 이야기해 주실 수 있나요?

Jen-Hsun Huang: 추론은 대규모 추론 훈련입니다. 그렇죠? 따라서 훈련을 잘하면 추론도 좋아질 가능성이 높습니다. 조정 없이 이 아키텍처를 학습하면 이 아키텍처에서 실행할 수 있습니다.

물론 다른 아키텍처에 맞게 최적화할 수도 있지만 적어도 이미 NVIDIA의 아키텍처를 기반으로 구축되었기 때문에 NVIDIA의 아키텍처에서 실행될 것입니다.

물론 다른 측면은 자본 투자 측면입니다. 새로운 모델을 훈련할 때 이전에 사용했던 장비는 남겨두고 최신의 최고의 장비를 훈련에 사용하고 싶을 것입니다. 그리고 이러한 장치는 추론에 적합합니다. 따라서 사용 가능한 장치 경로가 있게 됩니다.

새로운 인프라 뒤에는 CUDA와 호환되는 무료 인프라 장치 체인이 있습니다. 그래서 우리는 우리가 남긴 장비가 여전히 우수한 성능을 유지할 수 있도록 전체 프로세스에 걸쳐 호환성을 보장하기 위해 매우 엄격합니다.

동시에 우리는 때가 되면 Hopper 아키텍처의 성능이 처음 구입했을 때보다 2~4배 더 높아질 수 있도록 끊임없이 새로운 알고리즘을 재발명하는 데 많은 에너지를 투자했습니다. 계속해서 효율성을 유지할 수 있습니다.

따라서 새로운 알고리즘, 새로운 프레임워크 개선 측면에서 우리가 수행하는 모든 작업은 설치된 모든 인프라에 도움이 될 뿐만 아니라 Hopper가 더 좋고 Ampere가 더 좋으며 Volt도 더 좋습니다.

Sam이 최근 OpenAI에서 Volt 인프라를 폐기했다고 말한 것을 기억합니다. 그래서 이렇게 설치된 인프라의 흔적을 남기는 것 같아요. 모든 컴퓨팅 인프라와 마찬가지로 인프라를 설치하는 것이 중요합니다.

NVIDIA의 제품은 모든 클라우드, 온프레미스, 엣지 장치에 이르기까지 다양합니다. 따라서 클라우드에서 생성된 Vela의 시각적 언어 모델은 수정 없이 엣지 로봇에서 완벽하게 실행될 수 있습니다. 그 바탕에는 CUDA가 있습니다. 그래서 대규모 프로젝트에서는 아키텍처 호환성이라는 개념이 매우 중요하다고 생각합니다. 이는 아이폰이나 다른 기기와의 호환성 개념과 다르지 않습니다.

추론을 위해서는 인프라를 설치하는 것이 매우 중요하다고 생각합니다. 하지만 우리가 실제로 얻을 수 있는 이점은 새로운 아키텍처에서 이러한 대규모 언어 모델을 훈련하기 때문에 미래에 아주 좋은 추론 아키텍처를 만드는 방법에 대해 생각할 수 있다는 것입니다.

그래서 우리는 반복 모델과 추론 모델, 개인 에이전트를 위한 매우 대화형 추론 경험을 만드는 방법, 잠시 멈추고 생각해야 할 때 신속하게 상호 작용하는 방법에 대해 생각해 왔습니다.

그렇다면 이를 어떻게 달성할 수 있을까요? 답은 NVLink입니다. 아시다시피 NVLink를 사용하면 훈련에 적합한 이러한 시스템을 사용할 수 있지만 훈련이 완료되면 추론 성능도 매우 좋습니다. 최적화하려는 것은 첫 번째 토큰에 대한 응답 시간이며, 많은 대역폭이 필요하기 때문에 첫 번째 토큰에 대한 응답 시간을 달성하는 것은 매우 어렵습니다.

컨텍스트가 매우 풍부하다면 컴퓨팅 성능도 많이 필요합니다. 따라서 몇 밀리초의 응답 시간을 달성하려면 무제한 대역폭과 컴퓨팅 성능이 동시에 필요합니다. 그리고 이런 종류의 아키텍처는 구현하기가 매우 어렵습니다. 이러한 이유로 우리는 Grace Blackwell NVLink를 개발했습니다.

▲NVIDIA Blackwell 아키텍처 (출처: NVIDIA)

NVIDIA는 완벽하고 규정을 준수하는 AI 인프라를 구축하고 있습니다.

Brad Gerstner: 아시다시피 이번 주 초에 Andy Jassy와 저녁 식사를 했는데 Andy가 "우리는 Tranium이 있고 Inferencia도 곧 나올 예정입니다."라고 말했습니다. 나는 대부분의 사람들이 이것이 Nvidia에 대한 도전이라고 생각한다고 생각합니다.

하지만 그는 "엔비디아는 우리에게 매우 중요한 파트너이고, 적어도 내가 예측할 수 있는 미래에는 앞으로도 우리에게 매우 중요한 파트너가 될 것"이라고 말했다.

세상은 NVIDIA로 돌아가죠? 따라서 Meta의 추론 가속기, Amazon의 Tranium 또는 Google의 TPU와 같은 특정 애플리케이션을 위해 개발되고 있는 이러한 맞춤형 ASIC과 현재 직면하고 있는 공급 부족을 생각해 보면 이러한 요소가 귀하 사이의 역학을 변화시키는 것일까요? 귀하의 시스템을 보완합니까?

Jensen Huang: 우리는 서로 다른 일을 하고 있고, 서로 다른 목표를 달성하려고 노력하고 있습니다. NVIDIA는 이 새로운 세계, 머신 러닝의 세계, 생성 AI의 세계, 에이전트 AI의 세계를 위한 컴퓨팅 플랫폼을 구축하려고 노력하고 있습니다 .

우리가 만들고 싶은 것은 60년 간의 컴퓨팅을 거쳐 프로그래밍 방식부터 기계 학습까지, 소프트웨어가 CPU에서 GPU까지 처리되는 방식부터, 소프트웨어가 인공 지능에 적용되는 방식까지, 컴퓨팅 스택 전체를 재창조했다는 것입니다. 오른쪽? 소프트웨어 도구, 인공 지능 등 컴퓨팅 스택의 모든 측면, 기술 스택의 모든 측면이 변경되었습니다.

우리가 원하는 것은 유비쿼터스 컴퓨팅 플랫폼을 만드는 것이며, 실제로 우리 작업의 복잡성은 바로 여기에 있습니다. 우리가 하고 있는 일을 생각해 보면 우리는 완전한 AI 인프라를 구축하고 있는데, 우리는 그것을 컴퓨터라고 생각합니다.

나는 이전에 데이터 센터가 이제 컴퓨팅의 기본 단위라고 말했습니다. 저는 컴퓨터에 대해 생각할 때 칩에 대해 생각하는 것이 아니라 개념에 대해 생각합니다. 그것은 모든 소프트웨어, 모든 프로그래밍, 모든 기계 부품을 포함하는 컴퓨터에 대한 나의 정신적 모델입니다. 이것이 나의 임무이고 이것이 나의 컴퓨터입니다. 우리는 매년 새로운 컴퓨터를 만들려고 노력합니다.

그래, 이건 미친 짓이야. 이전에 아무도 이런 짓을 한 적이 없어. 매년 우리는 완전히 새로운 컴퓨터를 만들기 위해 노력하고 있으며 매년 2~3배의 성능 향상을 제공합니다. 매년 우리는 비용을 2~3배 절감하고, 매년 에너지 효율성을 2~3배 향상시킵니다.

그래서 우리는 고객에게 모든 장비를 한꺼번에 구입하지 말고 매년 조금씩 구입하라고 말합니다. 그 이유는 모든 아키텍처가 호환되는 미래로 단계적으로 나아갈 수 있기를 원하기 때문입니다.

이제 이 속도로 이 플랫폼을 구축하는 것은 매우 어렵고 두 배로 어려운 것은 우리가 인프라나 서비스를 단순히 판매하는 것이 아니라 이를 분해하여 GCP에 통합하고 AWS에 통합하고 있다는 것입니다. , 다른 플랫폼에 통합되는 거 아시죠?

통합은 플랫폼마다 다릅니다. 우리는 모든 아키텍처 라이브러리, 모든 알고리즘, 모든 프레임워크를 시스템에 통합해야 합니다. 우리는 보안 시스템을 그들의 시스템에 통합하고 네트워크를 그들의 시스템에 통합합니다. 그렇죠? 그리고 우리는 1년에 약 10번의 통합을 수행합니다. 그리고 바로 여기에 마법이 있습니다.

브래드 거스트너(Brad Gerstner): 그것이 바로 마법입니다. 왜죠? 내 말은, 그건 미친 짓이야. 매년 이런 일을 한다는 게 정말 말도 안 되는 일이에요. 생각해 보십시오. 매년 이 일을 하게 된 이유는 무엇입니까?

그리고 다시 돌아와서 Clark이 대만, 한국, 일본에서 방금 돌아와서 10년 넘게 관계를 유지해 온 모든 공급 파트너를 만났습니다. 경쟁 장벽을 구축하는 데 있어 이러한 파트너십이 얼마나 중요한가요?

Jen-Hsun Huang: 네, 체계적으로 분해하고 더 많이 분해하면 전체 전자 산업 생태계가 오늘날 우리와 협력하여 궁극적으로 컴퓨터 큐브를 구축하고 이를 통합하는 데 어떻게 전념하고 있는지 놀랍습니다. 모두 다른 생태계인가요? 그리고 조화가 너무 매끄럽네요. 분명히 우리는 API, 방법론, 비즈니스 프로세스 및 디자인 규칙을 뒤로 전달하고 방법론, 아키텍처 및 API를 전달했습니다.

브래드 거스트너: 이것들은 수십 년 동안 강화되었습니다.

Jen-Hsun Huang : 수십 년 동안 강화되었으며, 또한 끊임없이 진화하고 있습니다. 그러나 이러한 API는 필요할 때 통합되어야 합니다. 대만과 전 세계에서 제조되는 이러한 모든 것들은 결국 Azure 데이터 센터에 들어갑니다. 그들은 서로 맞을 것입니다.

Clark Tang: 누군가가 OpenAI API를 호출하면 작동합니다.

Jen -Hsun Huang: 네, 정말 미친 느낌이에요. 이것이 우리가 발명한 것입니다. 우리는 이 거대한 컴퓨팅 인프라를 발명했으며 전 세계가 우리와 함께 그것을 구축하고 있습니다.

모든 것에 통합되어 있고, Dell을 통해 판매할 수 있고, HPE를 통해 판매할 수 있으며, 클라우드에서 호스팅되고 엣지 장치로 확장됩니다. 사람들은 이제 그것을 로봇 시스템에 사용하고 있고, 휴머노이드 로봇에도 사용하고, 자율주행 자동차에도 사용하고 있습니다. 모두 구조적으로 호환 가능합니다. 정말 말도 안되는 일이죠.

클락, 내가 당신의 질문에 대답하지 않았다고 생각하지 않았으면 좋겠어요. 사실 대답했어요. 내가 말하는 것은 ASIC에 관한 것입니다.

우리는 회사로서 단지 다른 일을 하고 있을 뿐입니다. 회사로서 우리는 환경에 대해 명확하게 이해하고 싶습니다. 나는 우리 회사와 생태계를 둘러싼 모든 것을 잘 알고 있습니다.

나는 다양한 일을 하고 있는 사람들과 그들이 무엇을 하고 있는지 모두 알고 있습니다. 때때로 그것은 우리에게 대립적이지만 때로는 그렇지 않습니다. 나는 이것을 아주 잘 알고 있습니다. 하지만 이것이 우리 회사의 목표를 바꾸지는 않습니다. 회사의 유일한 목표는 어디에서나 사용할 수 있는 건축 플랫폼을 구축하는 것이고, 그것이 우리의 목표입니다.

우리는 누구에게서든 시장 점유율을 빼앗으려고 하지 않습니다. NVIDIA는 시장 경쟁자가 아니라 시장 개척자입니다. 우리 회사 보고서를 보면 우리가 회사 내에서 시장 점유율에 관해 이야기하는 날이 단 한 번도 없다는 것을 알 수 있습니다.

우리의 모든 토론은 다음 것을 어떻게 만들 것인가에 관한 것이었습니다. 플라이휠의 다음 문제를 어떻게 해결합니까? 우리는 어떻게 사람들을 위해 더 나은 일을 할 수 있습니까? 1년이 걸리던 플라이휠 사이클을 어떻게 단 한 달로 줄일 수 있을까요? 아시다시피, 그것은 플라이휠의 빛의 속도입니다. 그렇죠? 우리는 이 모든 다양한 질문에 대해 생각하고 있지만 한 가지 확실한 것은 우리는 우리 주변의 모든 것을 알고 있지만 우리의 사명에 대해서는 매우 명확하다는 것입니다.

유일한 질문은 이 임무가 필요하고 의미가 있는지 여부입니다. 모든 위대한 기업은 이 사명을 가지고 있어야 합니다.

근본적으로 질문은 당신이 무엇을 하고 있는가입니다. 유일한 질문은 이것이 필요한지, 가치가 있는지, 영향력이 있는지, 다른 사람들에게 도움이 될 수 있는지입니다. 여러분이 개발자이자 생성 AI 스타트업인 경우 회사가 되는 방법을 결정하는 경우 고려할 필요가 없는 유일한 선택은 어떤 ASIC을 지원할 것인가 하는 것입니다.

CUDA만 지원하면 어디에서나 사용할 수 있고, 나중에 언제든지 마음이 바뀔 수 있지만, 우리는 AI 세계로의 진입점이지 않습니까? 우리 플랫폼에 참여하기로 결정하면 다른 결정은 연기될 수 있으며 나중에 언제든지 자신만의 ASIC을 개발할 수 있습니다. 우리는 개의치 않습니다.

GCP, Azure와 같은 회사와 협력할 때 우리는 로드맵을 몇 년 전에 미리 보여줍니다. 그들은 우리에게 ASIC 로드맵을 보여주지 않을 것이고 그것은 우리를 화나게 하지 않을 것입니다. 목표가 명확하고 의미가 있으며 사명이 자신과 다른 사람에게 중요하다면 투명하게 공개할 수 있습니다.

내 로드맵은 GTC에 공개되어 있으며, 내 로드맵은 Azure, AWS 등과 같은 파트너와 더욱 심층적으로 진행될 것입니다. 그들이 자체 ASIC을 개발하고 있음에도 불구하고 우리는 이에 대해 어떤 어려움도 느끼지 않습니다.

▲NVIDIA의 사명은 완벽하고 호환 가능한 AI 인프라를 구축하는 것입니다(출처: The Brand Hopper)

AI가 산업의 미래를 바꾸고 있다

Brad Gerstner: 사람들이 업계를 볼 때 최근 Blackwell에 대한 수요가 "미친 수준"이라고 말씀하셨던 것 같습니다. 당신은 또한 컴퓨팅 자원이 부족한 세상에서 사람들에게 "아니오"라고 말하는 감정적 부담을 견디는 것이 직업에서 가장 어려운 부분이라고 말합니다.

그러나 비평가들은 이것이 단지 한 시점일 뿐이며 2000년 시스코가 광섬유를 과도하게 구축한 것처럼 호황과 불황의 경험이 될 것이라고 믿고 있습니다. 2023년 초에 우리가 함께 저녁을 먹었을 때, 2023년 Nvidia의 수익이 260억 달러에 이를 것이라는 예측이 있었는데 실제로는 600억 달러를 달성하셨죠?

Jensen Huang: 인정하세요. 이것은 세계 역사상 가장 큰 예측 실패입니다.

브래드 거스트너: 2022년 11월 그 당시 Inflection의 Mustafa, Character의 Noam과 ​​같은 사람들이 회사 투자에 대해 논의하기 위해 우리 사무실을 찾았기 때문에 우리는 특히 흥분했습니다. 그들은 우리 회사에 직접 투자할 수 없다면 Nvidia를 구입하라고 말했습니다. 세상은 세상을 바꿀 애플리케이션을 구축하기 위해 Nvidia의 칩을 얻기 위해 안간힘을 쓰고 있기 때문입니다.

물론 ChatGPT의 등장으로 이러한 "캄브리아기의 순간"이 도래했습니다. 하지만 그럼에도 불구하고 이들 25명의 분석가들은 여전히 ​​'암호화폐의 겨울'에 사로잡혀 세상에 무슨 일이 일어나고 있는지 상상할 수 없겠죠? 그래서 최종 결과는 기대치를 훨씬 뛰어 넘었습니다.

Blackwell에 대한 수요는 미친 수준이며 앞으로도 그럴 것이라는 점을 분명히 했습니다. 물론 미래는 알 수 없고 알 수 없는 일이지만, 비평가들은 왜 그렇게 틀렸는가? 이는 2000년의 Cisco처럼 과도하게 구축된 상황은 아닐 것입니다.

Jensen Huang: 미래에 대해 생각하는 가장 좋은 방법은 첫 번째 원칙에 따라 추론하는 것입니다. 그렇죠? 그렇다면 질문은, 우리가 지금 하고 있는 일의 근거가 무엇인가 하는 것입니다. 첫째, 우리는 무엇을 하고 있나요? 우리는 무엇을하고 있습니까? 우리는 컴퓨팅을 재창조하고 있는 거죠, 그렇죠?

방금 우리는 컴퓨팅의 미래가 머신러닝에 크게 좌우될 것이라고 말했습니다. 그렇죠? Word, Excel, PowerPoint, Photoshop, Premiere, AutoCAD 등 거의 모든 응용 프로그램은 모두 손으로 디자인되었습니다. 장담하는데, 이것들은 미래에 머신러닝에 크게 의존하게 될 것입니다. 그렇죠?

그리고 이러한 도구 외에도 도구 사용을 도와줄 상담원이 있습니다.

이제 그것은 사실이 되었습니다. 그렇죠? 우리는 컴퓨팅을 재창조했으며 뒤돌아보지 않습니다. 전체 컴퓨팅 기술 스택이 재정의되고 있습니다.

자, 이제 이 지점에 이르렀으니 소프트웨어가 달라지고, 소프트웨어가 작성되는 방식이 달라지고, 소프트웨어가 사용되는 방식이 달라질 것이라고 말하고 있습니다. 그러니 이것이 나의 기본적인 사실임을 인정합시다. 예, 그렇다면 질문은 다음에는 어떻게 될까요?

그럼 과거에는 어떻게 계산이 이루어졌는지 살펴보겠습니다. 우리는 1조 달러 규모의 컴퓨터 장비를 보유하고 있습니다. 과거의 데이터센터를 보고 문을 열고 바라본다면 그것이 미래를 맞이하기 위해 사용하고 싶은 컴퓨터라고 말하시겠습니까? 대답은 '아니요'입니다.

CPU를 보면 CPU가 무엇을 할 수 있고 무엇을 할 수 없는지 알 수 있습니다. 또한 우리는 현재 현대화가 필요한 1조 달러 규모의 데이터 센터가 있다는 사실도 알고 있습니다. 따라서 지금으로서는 향후 4~5년에 걸쳐 현대화를 추진한다면 이는 완전히 합리적이고 현명한 일입니다.

Brad Gerstner: 우리는 현대화가 필요한 사람들과 이야기를 나누었는데, 그들은 GPU를 통해 현대화하고 있습니다. 그렇습니다.

Jensen Huang: 가설을 세워보겠습니다. 귀하는 500억 달러의 자본 지출을 보유하고 있습니다. 옵션 A(미래를 위한 자본 지출 구축)를 선택하시겠습니까, 아니면 옵션 B(과거 패턴에 따라 자본 지출 구축)를 선택하시겠습니까? 당신은 과거의 자본 지출을 가지고 있고 그냥 거기에 앉아 있고 어쨌든 나아지지 않을 것입니다.

무어의 법칙은 본질적으로 끝났는데 왜 다시 만들어야 할까요? 생성 AI에 500억 달러를 투자하면 됩니다. 그렇죠? 그렇게 하면 회사가 더 좋아질 것입니다. 그럼 500억 중 얼마를 투자하실 건가요? 4년 된 인프라가 있기 때문에 500억 달러 중 100%를 투자하겠습니다.

이제 첫 번째 원칙을 보면 그 관점에서 추론하는 것뿐입니다. 그게 바로 그들이 하는 일입니다. 똑똑한 사람들은 똑똑한 일을 합니다.

이제 두 번째 부분은 이렇습니다. 우리는 구축할 수 있는 역량이 1조 달러에 달합니다. 그렇죠? 1조 달러 규모의 인프라, 어쩌면 1,500억 달러가 투자될 수도 있습니다. 그렇죠? 그래서 우리는 향후 4~5년 안에 1조 달러 규모의 인프라를 구축할 것입니다.

두 번째로 우리가 관찰한 것은 소프트웨어가 작성되는 방식이 다르며, 미래에 소프트웨어가 사용되는 방식도 달라질 것이라는 것입니다. 우리는 지능형 에이전트를 갖게 될 것입니다, 그렇죠?

우리 회사에는 디지털 직원이 있을 것이고 그들은 여러분의 편지함에 보관될 것입니다. 그리고 미래에는 이 작은 점들, 이 작은 아바타들이 AI의 아이콘이 될 것입니다. 그렇죠? 나는 그들에게 작업을 보낼 것이다. 저는 더 이상 C++로 프로그래밍하지 않고 AI를 "프로그래밍"하기 위해 프롬프트 단어를 사용합니다. 그렇죠? 이것은 제가 오늘 아침에 수많은 이메일을 썼을 때와 다르지 않습니다.

내가 팀에게 지시를 내렸죠? 나는 배경을 설명하고, 내가 아는 것의 기본 한계를 설명하고, 그들의 사명을 설명했습니다. 나는 그들에게 내가 필요한 것이 무엇인지 이해할 수 있도록 충분한 지침을 제공하고 예상되는 결과에 대해 최대한 명확하게 설명하고 싶습니다. 하지만 창의력을 발휘할 여지도 충분히 남겨서 그들이 나를 놀라게 할 수 있겠죠?

이것은 오늘 내가 AI에게 프롬프트하는 방식과 다르지 않으며, 이것이 바로 내가 AI에게 프롬프트하는 방식입니다. 따라서 현대화된 인프라 위에 완전히 새로운 인프라가 있게 될 것입니다. 이 새로운 인프라는 이러한 디지털 휴먼을 운영할 AI 공장이며, 이들은 24시간 내내 가동될 것입니다.

우리는 전 세계의 모든 회사에서 그것들을 갖게 될 것이고, 우리 공장에서도 그것들을 가질 것이고, 우리의 자동화 시스템에도 그것들을 갖게 될 것입니다. 그렇죠? 그래서 세상은 제가 AI 공장 인프라라고 부르는 컴퓨팅 구조의 전체 계층을 구축해야 하지만 아직 존재하지 않습니다.

그래서 질문은 이것이 얼마나 큽니까? 아직은 모르지만 수조 달러에 달할 수도 있지만, 현대화된 데이터센터 아키텍처가 AI 팩토리 아키텍처와 동일하다는 점이 장점이다.

브래드 거스트너(Brad Gerstner): 그게 바로 아름다움이에요. 귀하는 현대화해야 할 레거시 인프라가 1조 달러에 달하고, 새로운 AI 워크로드가 최소한 1조 달러에 달할 것임을 분명히 밝혔습니다. 이는 올해 매출이 약 1,250억 달러에 달합니다.

아시다시피, 이 회사의 가치는 결코 10억 달러를 넘지 않을 것이라고 들었습니다. 그리고 지금 당신이 여기 앉아 있는데, 만약 당신이 수조의 전체 시장(TAM)에서 1,250억의 수익만을 차지하고 있다면, 당신의 미래 수익이 지금의 2배, 3배가 되지 않을 것이라고 생각하게 만드는 이유는 무엇입니까? 귀하의 소득이 계속 증가하지 않는 이유가 있습니까?

젠슨 황: 아니요, 맞습니다. 알다시피, 그것은 현재에 관한 것이 아닙니다. 회사는 "연못"의 크기에 의해서만 제한됩니다. 금붕어는 연못의 크기에 맞춰서만 자랄 수 있습니다.

그래서 문제는 우리 연못이 얼마나 큽니까? 이를 위해서는 많은 상상력이 필요하기 때문에 시장 개척자들은 단순히 기존 연못에서 경쟁하기보다는 미래를 생각합니다.

단지 과거만 보고 시장 점유율을 확보하려고 한다면 미래를 명확하게 보기는 어렵습니다. 시장 점유율 경쟁자는 너무 커질 수 있지만 시장 개척자는 매우 커질 수 있습니다. 그래서 우리 회사의 다행스러운 점은 처음부터 우리 스스로 시장 공간을 만들어야 했다는 점이라고 생각합니다.

당시 사람들은 이를 깨닫지 못했지만 우리는 거의 처음부터 3D 게이밍 PC 시장을 만들어냈습니다. 우리는 기본적으로 이 시장과 그래픽 카드 생태계를 포함한 모든 관련 생태계를 발명했습니다. 우리는 모든 것을 발명했습니다. 따라서 서비스를 제공하기 위해 완전히 새로운 시장을 창출하는 것은 우리에게 매우 친숙한 것입니다.

▲인터뷰 중인 브래드 거스트너(왼쪽)와 클라크 탕(오른쪽)

놀라운 OpenAI와 X.AI

브래드 거스트너: 네, 새로운 시장을 개척한 사람에게 맞는 말입니다. 이제 기어를 조금 바꿔서 모델과 OpenAI에 대해 이야기해 보겠습니다. OpenAI는 이번 주에 65억 달러를 모금했으며 그 가치는 약 1,500억 달러로 평가됩니다. 우리 모두는 이 자금조달에 참여했습니다.

Jen -Hsun Huang: 이 모든 일이 순조롭게 진행되어 정말 기쁩니다. 네, 그들은 훌륭한 일을 해냈고 팀도 훌륭한 일을 해냈습니다.

Brad Gerstner: 올해 수익 또는 수익 실행률이 약 50억 달러이고 내년에는 100억 달러가 될 수 있다는 보고가 있습니다. 오늘날 기업의 규모를 살펴보면 수익은 Google이 IPO 당시에 가졌던 수익의 약 두 배입니다.

주간 활성 사용자 수는 2억 5천만 명에 달하며 이는 Google IPO 사용자 수의 두 배에 달하는 것으로 추정됩니다. 그리고 사업 배수를 살펴보면, 내년에 매출 100억 달러를 달성할 수 있다고 믿는다면 시가총액은 내년 매출의 약 15배가 됩니다. 이는 Google과 Meta가 IPO에서 가졌던 배수와 거의 같습니다. ? 22개월 전에 이 회사에 수익이 없었고 주간 활성 사용자도 없었다는 점을 고려하면 이는 매우 놀라운 일입니다.

Jensen Huang: 브래드는 역사에 대한 놀라운 이해력을 갖고 있습니다.

Brad Gerstner: 이에 대해 생각해 보면 OpenAI가 파트너로서 AI에 대한 대중의 인식과 사용을 촉진하는 데 얼마나 중요한지 이야기해 주십시오.

Jensen Huang: 음, 이 회사는 우리 시대의 가장 영향력 있는 회사 중 하나입니다. 인공일반지능(AGI) 비전을 추구하는 순수 AI 기업입니다.

AGI의 정의가 무엇이든 나는 그 정의가 전적으로 중요하다고는 생각하지 않으며 타이밍의 중요성도 믿지 않습니다. 내가 아는 한 가지 사실은 AI가 시간이 지나면서 계속해서 다양한 능력을 발휘할 것이라는 점이다. 이러한 기능 개발을 위한 로드맵은 놀라울 것입니다. AGI에 대한 누군가의 정의를 알아보기 전에 먼저 AGI를 광범위하게 적용해 보겠습니다.

지금 당신이 해야 할 일은 디지털 생물학자, 기후 기술 연구원, 재료 연구원, 물리과학자, 천체 물리학자, 양자 화학자와 대화를 나누는 것입니다. 비디오 게임 디자이너, 제조 엔지니어, 로봇 공학 전문가에게 가서 원하는 산업을 선택하고 깊이 들어가 중요한 사람들과 이야기를 나누고 AI가 작업 방식에 혁명을 일으키고 있는지 물어볼 수 있습니다. 그런 다음 해당 데이터 포인트를 다시 가져와 스스로에게 물어보십시오. 얼마나 회의적입니까?

미래 언젠가 AI의 개념적 이점에 대해 이야기하는 것이 아니라 지금 AI를 사용하는 것에 대해 이야기하고 있기 때문입니다. 농업 기술, 재료 기술, 기후 기술 등 기술이나 과학 분야를 선택하든 그들은 발전하고 있으며 AI는 그들의 작업을 발전시키는 데 도움을 줍니다.

우리가 말하는 이 순간에도 모든 산업, 모든 회사, 모든 대학이 AI를 사용하고 있습니다. 정말 놀랍지 않나요? 확실히 어떤 식으로든 비즈니스를 변화시킬 것입니다. 우리도 알고 있죠, 그렇죠? 내 말은, 이 변화는 매우 현실적이고 일어나고 있다는 것입니다. 그래서 ChatGPT가 촉발한 AI 각성 효과는 정말 대단하다고 생각합니다. 나는 그들의 속도와 필드를 밀어붙이는 그들의 유일한 목표를 좋아하므로 정말 영향력이 있습니다.

Brad Gerstner: 그들은 차세대 모델에 자금을 조달할 수 있는 엔진을 구축했습니다. 실리콘밸리에서는 전체 모델 계층이 상품화되고 있으며 Llama를 사용하면 많은 사람들이 매우 저렴한 비용으로 모델을 구축할 수 있다는 공감대가 커지고 있다고 생각합니다.

그래서 초기에는 캐릭터, 인플렉션, 코히어, 미스트랄 등 모델 회사가 많았어요. 많은 사람들은 이들 회사가 경제 엔진의 "탈출 속도"에 도달하고 계속해서 차세대 모델에 자금을 지원할 수 있는지 의문을 제기합니다. 제 생각에는 이것이 바로 우리가 시장에서 통합을 보고 있는 이유입니다. 그렇죠?

분명히 OpenAI는 미래에 자금을 조달할 수 있는 "탈출 속도"에 도달했습니다. 그러나 다른 많은 회사들이 이것을 할 수 있는지는 확실하지 않습니다. 이것이 모델 레이어의 현재 상태에 대한 공정한 개요입니까? 다른 많은 시장에서 보았듯이 시장 리더들은 계속해서 투자할 수 있는 경제 엔진과 애플리케이션을 갖게 될 것입니다.

Jensen Huang: 우선, 모델과 인공지능 사이에는 근본적인 차이가 있습니다. 그렇죠? 모델은 인공지능에 꼭 필요하지만 부족한 구성요소 죠? 인공지능은 하나의 능력이지만 무엇을 위한 것인가? 응용 프로그램은 무엇입니까?

자율주행차의 인공지능은 휴머노이드 로봇의 인공지능과 관련은 있지만 동일하지는 않다. 챗봇 인공지능과 관련은 있지만 똑같지는 않죠? 따라서 이 스택의 분류를 이해해야 합니다. 스택의 모든 수준에는 기회가 있지만 모든 수준에 무한한 기회가 있는 것은 아닙니다.

방금 한 말을 했는데, 여러분이 해야 할 일은 "모델"이라는 단어를 "GPU"로 바꾸는 것뿐입니다. 사실 이것은 32년 전 우리 회사가 GPU 그래픽 칩과 가속 컴퓨팅 사이에 근본적인 차이가 있다는 주요 발견이었습니다. 가속 컴퓨팅은 AI 인프라에서 수행하는 작업과 다르며, 관련되어 있지만 완전히 동일하지는 않습니다. 그것들은 서로를 기반으로 만들어졌지만 동일하지는 않습니다. 각 추상화 수준에는 완전히 다른 기술이 필요합니다.

GPU 구축에 매우 능숙한 사람은 가속 컴퓨팅 회사가 되는 방법을 모를 수도 있습니다. GPU를 만드는 사람들이 많고 우리가 GPU를 발명했지만 오늘날 GPU를 만드는 사람은 우리뿐만이 아니죠? 세상에는 많은 GPU가 있지만, 모두가 가속 컴퓨팅 회사인 것은 아닙니다. 그리고 가속기 응용 프로그램이 많이 있지만 그것은 가속 컴퓨팅 회사와 동일하지 않습니다. 예를 들어, 매우 전문화된 AI 애플리케이션은 매우 성공적일 수 있습니다.

브래드 거스트너: MTIA입니다.

Jensen Huang: 맞습니다. 하지만 광범위한 범위와 역량을 갖춘 회사가 아닐 수도 있습니다. 그래서 당신은 당신이 원하는 곳을 결정해야합니다. 이러한 다양한 영역에 기회가 있을 수 있지만 회사를 세우는 것과 마찬가지로 생태계의 변화와 시간이 지남에 따라 상품화되는 것이 무엇인지, 기능이 무엇인지, 제품이 무엇인지, 회사가 무엇인지, 이것이 무엇인지 주목해야 합니다. 확실한. 글쎄, 나는 방금 다양한 주제를 다루었습니다.

Brad Gerstner: 물론 돈과 똑똑함, 야망을 갖춘 새로운 진입자가 있는데 바로 X.AI죠? 래리, 엘론과 함께 저녁을 먹었다는 외부 보도가 있습니다. 그들은 100,000개의 H100에 대해 이야기하고 Memphis로 가서 몇 달 만에 대규모 슈퍼컴퓨팅 클러스터를 구축했습니다.

Jen-Hsun Huang: 우선, 세 가지 점이 같은 선상에 있지 않습니다. 저는 그들과 저녁 식사를 했습니다. 인과 관계는 이렇습니다.

Brad Gerstner: 슈퍼컴퓨팅 클러스터 구축 능력에 대해 어떻게 생각하시나요? 이 슈퍼 클러스터의 크기를 확장하기 위해 H200을 100,000개 더 추가하려는 논의가 여전히 진행 중입니다.

먼저, X회사의 야망과 그들이 달성한 성과에 대해 말씀해 주십시오. 동시에 GPU 클러스터 20만개, 30만개 시대에 진입한 걸까요?

Jen-Hsun Huang: 대답은 '그렇다'입니다. 그들의 성취가 가치가 있다는 것을 인정하는 것부터 시작하십시오. 개념 단계부터 데이터 센터 구축 및 NVIDIA 장비 도입 준비, 전원 공급, 장비 연결 및 첫 번째 교육 수행까지.

우선, 이렇게 거대한 공장을 짓고, 액체 냉각 기술을 이용해 에너지 공급을 완료하고, 허가를 받고, 이렇게 짧은 시간에 완공을 했다는 것입니다. 내 말은, 그것은 단지 초인적인 성취일 뿐이라는 것입니다. 내가 아는 한, 이 일을 할 수 있는 사람은 전 세계에 단 한 명뿐입니다. 엔지니어링, 건축, 대규모 시스템 및 자원 동원에 대한 Elon Musk의 이해는 독특하고 놀랍습니다.

물론 그의 엔지니어링 팀도 매우 훌륭하고 소프트웨어 팀, 네트워크 팀, 인프라 팀도 모두 훌륭합니다. Elon은 이것을 깊이 이해하고 있습니다. 프로젝트를 시작하기로 결정한 순간부터 엔지니어링 팀, 네트워크 팀, 인프라 컴퓨팅 팀, 소프트웨어 팀이 완벽하게 준비되었습니다.

그러다가 그날 들어온 모든 인프라와 물류, 데이터와 장비의 양, 엔비디아의 인프라와 컴퓨팅 기술까지 모두 19일 만에 훈련됐다.

이것이 무엇을 의미하는지 아십니까? 자고 있는 사람 있나요? 24시간 일하는데, 잠을 자는 사람은 아무도 없습니다. 우선 19일이 믿기지 않는 시간이지만, 한발 물러서서 생각해보면 몇 주밖에 안 되는 시간이다. 당신이 볼 수 있는 기술 장비의 양은 정말 놀랍습니다.

모든 케이블링 및 네트워킹, Nvidia 장비와의 네트워킹은 하이퍼스케일 데이터 센터의 네트워킹과 완전히 다릅니다. 노드, 컴퓨터 뒷면의 전선 수는 모두 전선입니다. 이 최고 수준의 기술과 모든 소프트웨어를 합친 것만으로도 놀라운 일입니다.

그래서 저는 Elon과 그의 팀이 이룬 일이 놀랍다고 생각합니다. 그리고 그가 엔지니어링 및 기획 측면에서 그들과 함께 한 우리의 작업을 인정해 준 것에 감사드립니다. 그러나 그들이 성취한 것은 독특하고 전례가 없는 것이었다.

더 나은 아이디어를 제공하자면, 100,000개의 GPU를 갖춘 이 슈퍼컴퓨터는 의심할 여지 없이 지구상에서 가장 빠른 슈퍼컴퓨터입니다. 이것은 단지 클러스터일 뿐입니다. 보통 슈퍼컴퓨터를 만들면 계획을 세우는 데 3년이 걸리죠? 그런 다음 장비를 배송하고 1년 동안 모든 장비를 작동시키세요. 그리고 우리는 19일에 대해 이야기하고 있습니다.

▲ChatGPT로 인한 AI 각성 효과는 대단하다 (출처: artnet)

추론이 폭발할 것 같다

Clark Tang: NVIDIA 플랫폼의 장점은 무엇입니까? 모든 과정이 단단해졌죠?

Jensen Huang: 예, 모든 것이 이미 실행 중입니다. 물론 X 알고리즘, X 프레임워크, X 스택이 많이 있지만 여전히 많은 통합을 수행해야 합니다. 그런데 사전 기획이 너무 좋아서 사전 기획 자체가 인상적이었습니다.

Brad Gerstner: Elon은 독특하지만 방금 대답했을 때 200,000~300,000개의 GPU 클러스터가 이미 존재한다고 언급하셨죠? 500,000까지 확장할 수 있나요? 100만개까지 확장할 수 있나요? 귀하의 제품에 대한 수요는 이러한 클러스터가 수백만 개로 확장될 수 있는지 여부에 따라 결정됩니까?

Jensen Huang: 마지막 질문에 대한 대답은 '아니요'입니다. 내 생각에는 분산 훈련이 작동해야 하며 분산 컴퓨팅이 발명되고 일종의 연합 학습과 분산 비동기 컴퓨팅이 발견될 것이라고 생각합니다. 나는 이것에 대해 매우 자신감이 있고 매우 낙관적입니다.

물론 과거의 확장 법칙은 주로 사전 훈련에 관한 것이라는 점을 인식하는 것이 중요합니다. 이제 다중 모드에 진입했으므로 합성 데이터 생성을 시작합니다. 훈련 후 단계는 합성 데이터 생성, 보상 시스템 및 강화 학습 기반 훈련이 모두 빠르게 발전하면서 매우 빠르게 확장됩니다. 이제 추론 단계의 확장도 한계에 도달했습니다.

모델이 질문에 답하기 전에 내부 추론을 10,000번 수행했다는 아이디어가 있는데, 이는 아마도 과장이 아닐 것입니다. 트리 검색을 했을 수도 있고, 문제를 기반으로 강화 학습을 했을 수도 있고, 일종의 시뮬레이션을 했을 수도 있고, 많은 반성을 했을 수도 있고, 일부 데이터와 정보를 살펴봤을 수도 있겠죠? 따라서 그 맥락은 꽤 클 수 있습니다.

내 생각엔 지능이 우리가 하는 일인 것 같아요, 그렇죠? 이것이 우리가 하고 있는 일입니다. 따라서 확장에 대해 수학적으로 계산하면 모델 크기와 계산 규모를 연간 4배로 확장하고 사용량 수요도 증가합니다.

수백만 개의 GPU가 필요하다고 생각하시나요? 의심할 여지없이 그렇습니다. 이것은 현재 결정론적인 질문입니다. 따라서 문제는 데이터 센터 관점에서 이를 어떻게 설계할 것인가 하는 것입니다. 데이터 센터가 한꺼번에 기가와트에 도달할 것인지, 아니면 한 번에 250메가와트에 도달할 것인지에 따라 많은 것이 달라집니다. 제 생각에는 두 가지 시나리오가 모두 발생한다는 것입니다.

Clark Tang: 분석가들은 항상 현재의 아키텍처 선택에 초점을 맞추고 있다고 생각합니다. 하지만 이 대화에서 가장 큰 교훈 중 하나는 전체 생태계와 앞으로 수년 동안 일어날 일에 대해 생각하고 있다는 것입니다.

따라서 Nvidia는 500,000개 또는 100만 개의 GPU 클러스터에 의존하는 것이 아니라 수직적이든 수평적이든 미래를 준비하기 위해 확장합니다. 분산 교육이 시작될 때쯤에는 이를 지원하는 소프트웨어가 이미 작성되었습니다.

Jen -Hsun Huang: 네, 우리와 파트너가 약 7년 전에 개발한 Megatron을 기억하세요. 이것이 없었다면 이러한 대규모 훈련 작업의 확장은 불가능했을 것입니다. 우리는 Megatron을 발명했고, Nickel, GPU Direct 및 RDMA로 수행한 모든 작업을 발명하여 파이프라인 병렬 처리를 훨씬 쉽게 만들었습니다.

모든 모델 병렬 처리, 모든 분산 학습 분해, 일괄 처리, 이 모든 기술은 초기 작업을 수행했기 때문에 가능하며 이제 미래의 차세대 기술도 준비하고 있습니다.

Brad Gerstner: 이제 Strawberry와 o1에 대해 이야기해 보겠습니다.

일단 O1비자라는 이름이 붙은게 멋있는 것 같죠? O1 비자는 전 세계에서 가장 훌륭하고 뛰어난 인재를 미국으로 유치하는 것입니다. 저는 우리 모두가 이에 대해 깊은 열정을 가지고 있다는 것을 알고 있습니다.

저는 우리를 지능형 확장의 새로운 차원으로 생각하고 추진하는 모델을 구축하고 이민을 통해 미국에 와서 오늘날의 우리를 만든 천재들에게 경의를 표하는 아이디어를 정말 좋아합니다.

Jen -Hsun Huang: 외계 지능이 틀림없어요.

Brad Gerstner: 물론 이 프로젝트는 Meta 프로젝트인 Pluribus와 Cicero에 참여한 우리 친구 Noah Brown이 주도하고 있습니다. 단순히 더 큰 모델을 구축하는 것이 아니라 추론 시간 추론이 지능의 완전히 새로운 확장 차원이라는 것이 얼마나 중요합니까?

Jen-Hsun Huang: 이것은 매우 중요하고 매우 중요합니다. 많은 지능은 미리 이루어질 수 없습니다. 아시죠? 많은 계산이라도 미리 재정렬할 수는 없습니다. 비순차적 실행은 미리 수행할 수 있지만 많은 작업은 런타임에만 수행할 수 있습니다.

따라서 컴퓨터 과학의 관점이든 지능의 관점이든 많은 것에는 맥락과 맥락이 필요하며, 찾고 있는 답변 유형은 때때로 간단하고 빠른 답변으로 충분하며, 그 답변의 결과는 다음에 따라 달라집니다. 이 답변의 성격을 사용하는 것.

따라서 어떤 답변은 생각하는 데 저녁이 걸릴 수도 있고, 어떤 답변은 일주일이 걸릴 수도 있습니다. 그렇죠? 내 AI에 프롬프트 단어를 보내고 말하고, 밤새 생각하고, 바로 말하지 않는 것을 완전히 상상할 수 있습니다. 그렇죠? 나는 당신이 밤새도록 그것에 대해 생각한 다음 내일 아침에 나에게 가장 좋은 답을 말하고 그것을 추론해 주기를 바랍니다.

그래서 저는 제품 관점에서 볼 때 스마트 레이어링이 일회성 버전이 있을 것이고 일부는 5분 정도 걸리는 버전이 있을 것이라고 생각합니다.

Brad Gerstner: 이 인텔리전스 계층은 이러한 문제를 적절한 모델 및 사용 시나리오와 일치시킬 수 있습니다. 어젯밤 우리는 고급 음성 모드와 o1 미리 보기를 사용하고 있었고, 저는 아들의 AP 역사 시험을 위해 개인교습을 하고 있었는데, 세계 최고의 AP 역사 선생님이 여러분 바로 옆에 앉아 이러한 질문에 대해 함께 생각하고 있는 것 같은 느낌이 들었습니다. 정말 특별한 경험이었습니다.

Jen-Hsun Huang: 나의 멘토는 이제 AI입니다.

Brad Gerstner: 물론 오늘날에도 존재합니다. 이것은 또한 오늘날 수익의 40% 이상이 추론에서 나온다는 주제로 돌아갑니다. 하지만 "추론의 사슬" 때문에 추론이 폭발할 텐데요, 그렇죠?

Jen-Hsun Huang: 추론의 성장은 10억 배로 늘어날 것입니다.

브래드 거스트너: 두 배로, 수십억 배로 두 배로 늘리세요.

Jen-Hsun 황: 그렇습니다. 아직 대부분의 사람들이 완전히 이해하지 못하는 부분이다. 이것이 바로 앞서 이야기했던 산업 변화, 즉 산업 혁명입니다.

브래드 거스트너(Brad Gerstner): 이게 스마트한 생산이군요, 그렇죠?

Jensen Huang: 10억 배 성장할 것입니다.

Brad Gerstner: 모두가 NVIDIA가 더 큰 모델을 훈련하는 데 사용된다고 생각하면서 세심한 주의를 기울이고 있습니다. 그렇지 않습니까? 현재 수익의 50%가 훈련에서 나온다면 추론의 규모는 미래에 훈련을 훨씬 능가할 것입니다. 훈련은 중요하지만 추론의 성장은 훈련의 성장을 훨씬 능가할 것이며 그렇지 않은 경우는 거의 불가능합니다.

Jensen Huang: 그렇습니다. 학교에 가는 것은 좋은 일이지만, 궁극적인 목표는 사회에 기여할 수 있다는 것입니다. 따라서 이러한 모델을 훈련하는 것은 좋지만 궁극적인 목표는 모델을 영향력 있게 만드는 것입니다.

Brad Gerstner: 이미 Inference Chain과 o1과 같은 도구를 사용하여 비즈니스를 개선하고 있습니까?

Jen-Hsun Huang: 오늘날 우리의 네트워크 보안 시스템은 우리의 인텔리전스와 분리될 수 없습니다. 우리는 칩 설계를 돕는 에이전트를 보유하고 있으며, 이러한 에이전트가 없었다면 Hopper 칩은 불가능했을 것입니다. Blackwell도 마찬가지입니다. Rubin은 말할 것도 없습니다.

우리는 AI 칩 설계자, AI 소프트웨어 엔지니어, AI 검증 엔지니어를 모두 사내에서 개발하고 있으며, 이러한 역량을 갖추고 있기 때문에 이 기회를 통해 직접 기술을 탐색하는 것을 선호합니다.

▲추론의 성장은 10억배가 될 것이다. (출처: NVIDIA)

더 효율적이고 안전한 AI가 필요합니다

Brad Gerstner: 제가 오늘 건물에 들어섰을 때 누군가가 제게 다가와서 이렇게 말했습니다. Jensen에게 문화에 대해 물어보세요. 그것은 모두 문화에 관한 것입니다. 저는 귀하의 비즈니스를 보면서 적응성과 효율성, 신속한 실행을 가능하게 하는 수평적 조직 구조, 소규모 팀 운영에 대해 많이 이야기합니다.

아시다시피 NVIDIA는 직원당 약 400만 달러의 매출과 직원당 약 200만 달러의 이익 또는 무료 현금 흐름을 창출하는 이 분야에서 독보적인 기업입니다. 귀하는 창의성, 혁신, 책임 및 주인의식을 진정으로 불러일으키는 효율성 문화를 확립했으며 전통적인 기능적 관리 모델을 깨뜨렸습니다. 모두가 직속 부하 직원 수에 대해 이야기하는 것을 좋아합니다.

AI를 사용하면 효율성을 유지하면서 높은 창의성을 유지할 수 있습니까?

Jen-Hsun Huang: 의심의 여지가 없습니다. 언젠가는 Nvidia의 직원이 32,000명에 달하고 이스라엘에는 4,000가구가 있게 되기를 바랍니다. 그들이 잘 지내기를 바랍니다. 언젠가 엔비디아가 직원 5만 명, AI 비서 1억 명을 갖춘 회사가 되기를 바랍니다.

각 팀에는 다양한 일을 잘하는 AI 그룹이 포함된 AI 디렉터리가 있습니다. 우리는 또한 우리가 함께 작업했고 우리의 기술 영역에 능숙하다는 것을 알고 있는 AI 카탈로그로 가득 찬 받은 편지함을 갖게 될 것입니다. 따라서 AI는 문제를 해결하기 위해 다른 AI를 모집합니다. AI는 Slack 채널에서도 서로 통신합니다.

브래드 거스트너: 인간과 함께 일하는 것도요.

Jen-Hsun Huang: 인간과 함께 일합니다. 그래서 우리는 일부는 디지털과 AI, 일부는 생물학적 인간 직원으로 구성된 대규모 직원 그룹이 될 것이며 미래에는 일부 메카트로닉스 직원이 있기를 바랍니다.

Brad Gerstner: 비즈니스 관점에서 보면 이것이 종종 오해를 받는 것 같습니다. 방금 직원이 150,000명인 회사의 생산량을 갖춘 회사를 설명했지만 실제로는 직원이 50,000명만 사용했습니다. 직원을 모두 해고하겠다는 말은 아니고 계속 인원을 늘리고 있지만 이 회사의 생산량은 크게 늘어날 것입니다. 그렇죠?

Jen-Hsun Huang: 이것은 종종 오해되는 부분입니다. AI는 직업을 대체하는 것이 아니라 모든 직업을 변화시킬 것입니다. AI는 사람들이 일에 대해 생각하는 방식에 큰 영향을 미칠 것입니다. 우리는 그것을 인정해야 합니다. 그렇죠?

AI는 큰 이익과 해악을 모두 일으킬 수 있는 잠재력을 갖고 있으며 , 우리는 안전한 AI를 구축해야 합니다 . 그렇습니다. 그것이 기반이 되어야 합니다. 그러나 간과되는 부분은 기업이 AI를 사용하여 생산성을 높이면 더 나은 수익이나 더 나은 성장, 또는 두 가지 모두로 이어질 가능성이 높다는 것입니다. 그리고 그런 일이 발생하면 CEO의 다음 이메일이 해고 통지가 될 가능성은 거의 없습니다.

Brad Gerstner: 물론이죠. 회사가 성장하고 있으니까요.

Jensen Huang: 네, 그 이유는 우리가 탐색할 수 있는 것보다 더 많은 아이디어를 갖고 있고, 그것에 대해 생각하고 그 아이디어를 자동화하도록 도와줄 사람들이 필요하기 때문입니다. 자동화 부분에서는 AI가 이를 달성하는 데 도움을 줄 수 있습니다.

분명히 그것은 우리가 생각하는 데에도 도움이 될 것입니다. 하지만 우리는 여전히 우리가 해결하고 싶은 문제가 무엇인지 알아내야 합니다. 우리가 해결할 수 있는 문제는 셀 수 없이 많지만 기업은 가장 해결이 필요한 문제를 선택한 다음 이를 자동화하고 확장할 수 있는 방법을 찾아야 합니다.

따라서 효율성이 높아지면 더 많은 사람을 고용할 것입니다. 사람들은 이것을 종종 잊어버립니다. 역사를 되돌아보면 200년 전보다 오늘날 우리가 더 많은 아이디어를 갖고 있다는 것이 분명합니다. 이것이 바로 우리가 미친 듯이 자동화했음에도 불구하고 GDP와 일자리가 증가하는 이유입니다.

Brad Gerstner: 이는 인간의 생산성과 번영의 거의 모두가 지난 200년 동안 기술과 자동화의 부산물인 이 시대에 접어들면서 중요한 점입니다. 아담 스미스부터 슘페터의 창조적 파괴까지 지난 200년 동안 1인당 GDP 성장 차트를 되돌아보면 계속해서 가속화되고 있습니다. 이것은 나에게 질문을 던진다.

1990년대를 보면 미국의 생산성 증가율은 연간 2.5~3% 정도였다. 그러다가 2000년대에는 1.8% 정도로 둔화됐다. 지난 10년은 기록상 가장 느린 생산성 증가율을 보였습니다. 이는 고정된 노동과 자본 투입에 대한 생산량 증가를 의미하며, 기록상 가장 느린 증가율입니다.

많은 사람들이 이에 대해 논의했습니다. 그러나 세상이 당신이 묘사하는 것과 같고 우리가 지능을 활용하고 제조한다면 우리는 인간 생산성의 엄청난 확장 직전에 있습니까?

Jen-Hsun Huang: 이것이 우리의 희망입니다. 그것이 우리의 희망이고, 물론 우리는 이 세상에 살고 있기 때문에 직접적인 증거가 있지 않습니까? 우리는 AI를 사용하는 개별 연구자 등이 이제 생산성을 반영하는 전례 없는 규모로 과학을 탐구할 수 있다는 직접적인 증거를 보유하고 있습니다.

아니면 우리가 그렇게 복잡한 칩을 설계하고 너무 빨리 처리해서 회사의 인원수가 같은 속도로 증가하지 않는데, 이는 생산성을 반영하는 것이기도 합니다. 그렇죠? 우리가 개발하는 소프트웨어도 AI와 슈퍼컴퓨터를 활용해 도움을 주고 있기 때문에 점점 더 좋아지고 있고, 직원 수도 거의 선형적으로 늘어나고 있습니다.

이는 생산성의 또 다른 증거입니다. 따라서 내가 어떤 산업에 종사하든지 스스로 확인할 수 있고 이러한 징후가 널리 퍼져 있는지 개인적으로 확인할 수 있습니다. 지능이 세상에서 가장 귀중한 자원이라는 것은 의심의 여지가 없으며 이제 우리는 이를 대규모로 생산할 예정입니다.

우리 모두는 우리가 할 수 있는 것보다 훨씬 더 잘할 수 있는 AI에 둘러싸인 환경에서 사는 방법을 배워야 합니다. 곰곰이 생각해보면 이것이 내 삶임을 알게 된다.

내 직속 부하 직원은 60명입니다. 그렇죠? 그들은 모두 자신의 분야에서 세계적 수준의 사람들이고 나보다 훨씬 더 잘합니다. 나는 그들과 함께 일하는 데 아무런 문제가 없으며, 그들을 코칭하고 소통하는 데 아무런 문제가 없습니다. 그래서 사람들이 배우게 될 것은 그들 모두가 AI 에이전트의 CEO가 될 것이라는 것입니다.

제가 회사를 운영하는 것처럼 AI가 목표를 달성하는 데 도움이 되도록 프로그래밍하려면 창의성, 결단력, 문제를 해결하는 방법에 대한 지식이 필요합니다.

Brad Gerstner: 정렬과 안전한 AI에 관한 토론이라는 질문을 언급하셨습니다. 중동에서 일어나고 있는 비극에 대해서도 언급하셨습니다. 아시다시피 현재 세계 곳곳에는 자율성과 AI가 많이 적용되어 있습니다.

그럼 악의적인 행위자, 보안 AI, 워싱턴과의 공조에 대해 이야기해 보겠습니다. 지금 기분이 어떤가요? 우리는 올바른 길을 가고 있나요? 우리는 충분히 조율하고 있나요? Mark Zuckerberg가 나쁜 AI를 물리치는 방법은 좋은 AI를 더 좋게 만드는 것이라고 말한 것을 기억합니다. 목적 없는 디스토피아 세계에 우리를 가두는 대신 AI가 인류에게 긍정적인 순이익을 제공하도록 보장하는 방법을 어떻게 설명하시겠습니까?

Jen-Hsun Huang: 보안에 대한 논의는 매우 중요하고 의미가 있습니다. AI를 하나의 거대한 신경망으로 보는 추상적인 관점은 좋은 관점이 아니다. 그리고 그 이유는 인공지능과 대규모 언어 모델이 서로 관련되어 있지만 동일하지 않다는 것을 우리가 알고 있기 때문입니다.

현재 훌륭하다고 생각되는 많은 작업이 진행되고 있습니다. 첫째, 오픈 소스 모델을 통해 모든 산업, 모든 회사, 전체 연구 커뮤니티가 AI에 액세스하고 해당 분야에서 이 기능을 활용하는 방법을 배울 수 있습니다. 매우 좋은.

둘째, AI 개발 기술 인력은 AI를 보다 안전하게 만드는 방법을 찾는 데 주력하고 있습니다. AI는 데이터를 선별하고, 정보를 필터링하고, 다른 AI를 훈련시키고, 정렬된 AI를 생성하고, 합성 데이터를 생성하고, AI 지식을 확장하고, 환각을 줄이는 데 사용되며, 벡터 이미지, 그래픽 등을 위해 생성된 모든 AI는 다른 AI 시스템에 정보를 제공하고 모니터링하는 데 사용됩니다. 안전한 AI를 만드는데 아직 충분한 인정을 받지 못했습니다.

Brad Gerstner: 이러한 시스템은 이미 구축되고 있습니다.

Jensen Huang: 예, 우리는 이러한 시스템을 구축하고 있으며 업계 전반의 모든 사람들이 이를 수행하고 있습니다. 레드팀 테스트, 프로세스 제어, 모델 카드, 평가 시스템, 벤치마크 시스템 등을 포함하여 이러한 모든 보안 메커니즘은 놀라운 속도로 구축되고 있습니다. 이러한 노력은 마땅한 인정을 받지 못했습니다.

Brad Gerstner: 예, 현재로서는 이를 수행하도록 요구하는 정부 규정이 없습니다. 지금은 업계 관계자들이 이러한 중요한 문제를 심각하게 받아들이고 모범 사례를 중심으로 조율하는 시기입니다.

Jensen Huang: 정확히 말하면 이러한 노력은 충분히 인식되지도 않고 완전히 이해되지도 않습니다. 사람들은 AI를 여러 AI로 구성된 시스템으로, 그리고 잘 설계된 시스템으로서의 성격에 대해 이야기하기 시작해야 합니다.

규제와 관련하여 우리는 AI가 하나의 능력이며 다양한 분야에 적용될 수 있다는 점을 기억해야 합니다. 모든 중요한 기술에 대해 반드시 별도의 입법이 필요한 것은 아니지만 불필요한 영역까지 규제가 확대되어서는 안 됩니다.

대부분의 규정은 특정 응용 분야에 대해 시행되어야 합니다. 예를 들어 FAA(연방 항공국), NIH(국립 보건원), FDA(미국 식품의약국)와 같은 기관은 이미 기술 응용 프로그램을 규제하고 있으며 현재는 그렇습니다. AI를 포함한 기술 애플리케이션 관리를 시작할 필요가 있습니다.

그러므로 이것을 오해하지 말고 우리가 활성화해야 할 방대한 양의 기존 규제 시스템을 무시하지 마십시오. 각 규제 기관은 이유가 있기 때문에 하나의 글로벌 AI 위원회에만 의존하지 마십시오. 이러한 다양한 규제 기관이 존재하는 이유는 다양한 문제를 해결하기 위해서입니다. 다시 기본 원칙으로 돌아가 보겠습니다.

▲인터뷰 중인 클락 탕

AI 오픈소스가 산업 활성화를 주도하다

Brad Gerstner: 내 파트너 Bill Gurley(편집자 주: Bill은 이번 인터뷰에 참석하지 않았습니다)는 제가 오픈 소스 문제로 다시 돌아오지 않는다면 아마도 저를 비난할 것입니다. 최근에 매우 중요하고 강력한 오픈 소스 모델을 출시하셨습니다. 분명히 Meta는 오픈 소스에도 상당한 기여를 하고 있습니다.

트위터를 읽으면서 개방형과 폐쇄형에 관해 많은 논의가 있다는 것을 알았습니다. 오픈 소스, 특히 최첨단 기술과 보조를 맞추는 자체 오픈 소스 모델의 능력에 대해 어떻게 생각하시나요? 이것이 첫 번째 질문입니다.

두 번째 질문은, 이것이 오픈 소스 모델과 상업적 운영을 지원하는 폐쇄형 모델을 갖는 미래에 대한 비전인가요? 이 두 가지가 AI 안전을 위한 건전한 긴장감을 조성할 수 있을까요?

Jen-Hsun Huang: 오픈 소스와 폐쇄 소스에 대한 논의는 보안과 관련이 있지만 보안에만 국한되는 것은 아닙니다. 예를 들어, 혁신을 유지하기 위한 경제 모델의 엔진으로 폐쇄형 소스 모델을 갖는 것은 전적으로 괜찮으며 저는 이를 진심으로 지지합니다.

단순히 클로즈드 소스 대 오픈 소스로 문제를 정의하는 것은 잘못된 사고방식이라고 생각합니다. 클로즈드 소스이면서 오픈소스여야겠죠? 많은 산업의 활성화를 위해서는 오픈소스가 필요하기 때문입니다.

지금 오픈소스가 없다면 어떻게 이 모든 다양한 과학 분야가 AI에서 활성화될 수 있을까요? 자체 도메인별 AI를 개발해야 하고, 오픈소스 모델을 활용하여 도메인별 AI를 만들어야 하기 때문입니다. 둘은 서로 관련되어 있지만 동일하지는 않습니다.

오픈 소스 모델이 있다고 해서 AI가 있다는 의미는 아닙니다. 따라서 AI 생성을 추진하려면 오픈 소스 모델이 있어야 합니다. 따라서 금융 서비스, 의료, 교통, 기타 다양한 과학 및 산업 분야가 오픈소스를 통해 활성화되고 있습니다.

Brad Gerstner: 귀하의 오픈 소스 모델에 대한 수요가 높다는 것은 믿을 수 없는 일입니다. 그렇지 않습니까?

Jensen Huang: 오픈 소스 모델이요? 물론 Llama도 다운로드 되겠죠? 분명히 Mark(Zuckerberg)와 그의 팀이 하고 있는 작업은 믿을 수 없을 정도로 수요가 많으며 모든 산업과 과학 분야에 완전히 활력을 불어넣고 있습니다.

Nemotron을 만든 이유는 합성 데이터 생성을 위해서였습니다. 직관적으로 AI가 스스로 학습하기 위해 루프에서 지속적으로 데이터를 생성한다고 생각하는 것은 신뢰할 수 없는 것처럼 들립니다. 그 무한 루프를 몇 번이나 돌 수 있을지 의문입니다. 하지만 내 마음 속에는 아주 똑똑한 사람을 부드러운 방에 가두는 것과 같은 이미지가 있다. 그 사람이 한 달 후에 나오면 더 똑똑해지지 않을 수도 있다.

하지만 두세 사람이 함께 토론하고, 서로 다른 AI 모델을 갖고, 서로 다른 지식 분포를 가지며, 서로 질문하고 대답하고 주고받을 수 있다면 우리 셋 모두는 더 똑똑해질 것입니다. 따라서 AI 모델 간의 교환, 상호 작용, 앞뒤로 토론, 토론, 강화 학습, 합성 데이터 생성 등의 아이디어는 직관적으로 이해됩니다.

따라서 우리 Nemotron 350B, 340B는 세계 최고의 보상 시스템 모델입니다. 그것은 가장 중요한 모델이며 실제로 훌륭합니다. 따라서 이것은 다른 모든 모델을 향상시키는 환상적인 도구입니다. 다른 모델이 아무리 훌륭하더라도 Nemotron 340B를 사용하여 모델을 향상시키고 더 좋게 만들 것을 권장합니다. 그리고 우리는 Llama가 더 좋아지는 것을 보았고 다른 모든 모델도 그로부터 혜택을 받았습니다.

▲메타는 오픈소스에 상당한 기여를 하고 있다. (출처: Linkedin)

AI는 완전한 혁명이다

Brad Gerstner: 2016년에 첫 번째 DGX-1을 납품한 사람으로서 정말 놀라운 여정이었습니다. 당신의 여행은 독특하면서도 놀랍습니다. 처음의 힘든 시기를 잘 이겨냈다는 사실 자체가 대단합니다.

귀하께서는 2016년에 첫 번째 DGX-1을 인도하셨고, 우리는 2022년에 이 "캄브리아기의 순간"을 열었습니다. 그래서 제가 자주 받는 질문 하나를 드리고 싶습니다. '현재 직업 상태가 얼마나 오래 지속될 수 있다고 생각하시나요?'

60명의 직속 부하 직원을 통해 여러분은 어디에서나 이 혁명을 주도하고 있습니다. 그 과정이 즐겁나요? 당신이 하고 싶은 다른 일이 있나요?

Jen-Hsun Huang: 지난 한 시간 반 동안의 감정에 대해 물어보셨나요? 대답은 다음과 같습니다. 훌륭합니다. 나는 정말 즐거운 시간을 보냈고 이보다 더 가치 있는 일을 하는 것을 상상할 수 없었습니다.

생각해보면 우리 일이 항상 재미있어야 하는 건 아닌 것 같아요. 내 직업이 항상 재미있는 것은 아니며, 그럴 것이라고 기대하지도 않습니다. 일은 항상 재미있어야 할까요? 중요한 것은 일이 항상 중요하다는 것 같아요. 나는 내 자신을 너무 심각하게 생각하지 않지만 내 일을 매우 진지하게 생각합니다. 나는 우리의 책임, 사회에 대한 공헌, 그리고 우리가 살고 있는 시대를 매우 진지하게 생각합니다.

이게 항상 재미있나요? 아니, 하지만 나는 항상 그것을 좋아합니까? 그래, 뭐든지 그렇듯, 가족이든 친구든 아이들이든 항상 재미있지? 아니요, 하지만 우리는 항상 그들을 깊이 사랑합니까? 전적으로.

언제까지 이 일을 할 수 있나요? 진짜 질문은 얼마나 오랫동안 관련성을 유지할 수 있느냐는 것입니다. 이 질문에 대한 답은 또 다른 질문인 '어떻게 계속 학습할 것인가?'로 답할 수 있습니다. 나는 오늘 좀 더 낙관적입니다. 오늘 우리가 이야기하고 있는 내용 때문에 그런 말을 하는 것은 아닙니다. AI의 출현으로 인해 나는 관련성을 유지하고 계속 학습할 수 있는 능력에 대해 더욱 낙관적입니다. 나는 매일 그것을 사용합니다. 여러분도 사용하시는지는 모르겠지만 저는 매일 사용하고 있어요.

AI를 활용하지 않은 연구는 없으며, 답을 알더라도 AI를 활용해 확인하겠습니다. 놀랍게도 제가 묻는 다음 두세 가지 질문은 제가 몰랐던 사실을 드러내는 경우가 많습니다.

관심 있는 주제를 선택하시면 됩니다. 저는 AI를 멘토로, AI를 어시스턴트로, AI를 브레인스토밍하고 내 작업을 확인하는 파트너로 생각합니다. 여러분, 이건 정말 완전한 혁명입니다. 저는 정보 근로자이고 제가 생산한 결과물은 정보입니다.

그래서 저는 AI가 사회에 기여하는 바가 대단하다고 생각합니다. 내가 이렇게 관련성을 유지하고 계속 기여할 수 있다면 이 직업이 내가 계속 추구할 만큼 중요하다는 것을 알고 있습니다. 그리고 내 삶의 질은 놀랍습니다.

Brad Gerstner: 이 순간을 놓친다는 것은 상상할 수 없습니다. 당신과 나는 수십 년 동안 이 업계에 종사해 왔으며 지금은 30년 만에 가장 큰 순간입니다. 우리는 이번 협력에 깊은 감사를 드립니다.

Jensen Huang: 향후 10년을 놓치지 마세요.

Brad Gerstner: 아이디어를 교환해 주셔서 정말 감사합니다. 여러분이 우리 모두를 더욱 현명하게 만들어줍니다. 감사합니다. 낙천주의와 안보를 가지고 미래를 항해하는 데 리더로서 매우 중요한 역할을 하고 있다고 생각합니다.

Jensen Huang: 우리와 함께해주셔서 감사합니다. 정말 즐거웠습니다. 정말 감사했습니다. 브래드 감사합니다. 클락 감사합니다.

# Aifaner: Aifaner(WeChat ID: ifanr)의 공식 WeChat 공개 계정을 팔로우하신 것을 환영합니다. 더 흥미로운 콘텐츠가 최대한 빨리 제공될 예정입니다.

Ai Faner | 원본 링크 · 댓글 보기 · Sina Weibo


게시됨

카테고리

작성자

태그: