본문 바로가기
Economy

구글의 칩 연구소 내부, 제미나이와 애플 AI 모델을 훈련시키는 맞춤형 실리콘을 제작

by 빅경 2024. 9. 20.
728x90
반응형

https://www.youtube.com/watch?v=IRRkk0rKrGk

 

 

At this sprawling lab at Google Silicon Valley headquarters, 
구글 실리콘밸리 본사의 이 광대한 연구실에서, 

these racks and racks of servers aren't running workloads for Google Cloud's millions of customers.
이 수많은 서버 랙들은 구글 클라우드의 수백만 고객을 위한 워크로드를 실행하고 있지 않습니다.

Here, for example, is the very first Trillium system that we built.
여기 예를 들어, 우리가 만든 최초의 트릴리움 시스템 입니다.

There's a full Trillium system with 256 chips in it, four racks.
256개의 칩이 들어있는 트릴리움 시스템으로, 4개의 랙으로 구성되어 있습니다.

Or for YouTube. Or the world's most dominant search engine.
유튜브를 위해서도 아닙니다. 또는 세계에서 가장 널리 사용되는 검색 엔진을 위해서도 아닙니다.

And what is Trillium?
트릴리움은 무엇일까요?

Trillium is our latest generation TPU.
트릴리움은 최신 세대 TPU입니다.

They'll be public later this year.
올해 후반기에 공개될 예정입니다.

Instead, they're running tests on its very own microchips, tensor processing units that help power it all.
이 서버들은 자체 개발한 마이크로칩인을 테스트 하고 있습니다. 모든 것을 구동하는 데 도움을 주는 텐서 처리 장치죠.

Search and, of course, video, YouTube ads, everything Google does, has been powered in many ways by its own homegrown TPU.
검색은 물론이고, 동영상, YouTube 광고, Google이 하는 모든 것은 여러 면에서 자체 개발한 TPU에 의해 구동되어 왔습니다.

Now, TPUs are used to train AI models like Google's own chatbot, Gemini.
이제 TPU는 Google의 자체 챗봇인 Gemini와 같은 AI 모델을 훈련시키는 데 사용됩니다.

And in some big news, Apple's AI too.
그리고 큰 뉴스로, Apple의 AI에도 사용됩니다.

Apple actually, we found out yesterday, they disclosed in a paper, they're using Google-made chips.
실제로 Apple은 어제 한 논문에서 Google이 만든 칩을 사용하고 있다고 공개했습니다.

The world sort of has this fundamental belief that all AI, large language models, are being trained on NVIDIA.
세상은 모든 AI, 근본적인 믿음을 가지고 있습니다. 대규모 언어 모델이 NVIDIA에서 훈련되고 있다는

But Google took its own path here.
하지만 Google은 자신만의 길을 걸었습니다.

And yet, despite being the birthplace of some foundational concepts behind generative AI, many say Google's fallen behind in the AI race.
그럼에도 불구하고, 생성형 AI 뒤에 있는 일부 기초 개념의 발상지임에도 불구하고, 많은 사람들은 Google이 AI 경쟁에서 뒤처졌다고 말합니다.
생성형 AI의 기반이 되는 핵심 개념들의 탄생지임에도 불구하고,

But it was the first major cloud provider to do custom AI chips.
하지만 Google은 맞춤형 AI 칩을 만든 최초의 주요 클라우드 제공업체였습니다.

It was 10 years ago, almost to the day where we decided that to meet the needs of our users in terms of a particular application, voice recognition at the time.
거의 10년 전, 우리는 사용자들의 요구를 충족시키기 위해 결정을 내렸습니다. 음성 인식에 대한 사용자 어플리케이션 이죠.

We needed to design custom hardware.
우리는 맞춤형 하드웨어를 설계해야 했습니다.

In the years since, Amazon, Microsoft, and Meta have started making their own AI chips too.
그 이후 몇 년 동안, Amazon, Microsoft, 그리고 Meta도 자체 AI 칩을 만들기 시작했습니다.

Here we're turning on the chips and the boards for the first time, making sure they're working properly to specification, debugging any issues that might come up, that sort of thing.
여기서 우리는 처음으로 칩과 보드의 전원을 켜고 있습니다. 사양에 맞게 제대로 작동하는지 확인하고, 발생할 수 있는 문제들을 디버깅하는 등의 작업을 하고 있죠.

And no media has been inside here before.
그리고 지금까지 어떤 언론도 이곳에 들어온 적이 없습니다.

First time, yep.
네, 처음입니다.

We went to Google headquarters for an exclusive look inside the chip lab and sat down with its top executive to ask why and how Google's betting big on the expensive, complex business of custom chips.
우리는 Google 본사를 방문하여 칩 연구소 내부를 살펴보고, 최고 경영진과 만나 Google이 왜 그리고 어떻게 비용이 많이 들고 복잡한 맞춤형 칩 사업에 큰 베팅을 하고 있는지 물어보았습니다.

It all started in 2014, when a group at Google calculated that in order to launch upcoming voice recognition features, Google would need to double the number of computers in its data centers.
모든 것은 2014년에 시작되었습니다. 구글의 한 그룹이 앞으로 출시할 음성 인식 기능을 위해 계산했을 때, 구글은 데이터 센터의 컴퓨터 수를 두 배로 늘려야 할 것입니다.

Amin Vedat, now the head of custom cloud chips, started at Google four years before that.
현재 맞춤형 클라우드 칩 부서의 책임자인 Amin Vedat는 그보다 4년 전에 구글에 합류했습니다.

A number of leads at the company asked the question, what would happen if Google users wanted to interact with Google via voice for just 30 seconds a day?
회사의 여러 리더들이 이런 질문을 했습니다. 구글 사용자들이 하루에 30초만 음성으로 구글과 상호작용하고 싶어 한다면 어떻게 될까요?

And how much compute power would we need to support our users?
그리고 우리 사용자들을 지원하기 위해 얼마나 많은 컴퓨팅 파워가 필요할까요?

We realized that we could build custom hardware, not general purpose hardware, but custom hardware, tensor processing units in this case, to support that much, much more efficiently.
우리는 맞춤형 하드웨어를 만들 수 있다는 것을 깨달았습니다. 범용 하드웨어가 아닌 맞춤형 하드웨어, 이 경우에는 텐서 처리 장치는 더 효율적으로 이를 지원할 수 있습니다.

In fact, a factor of 100 more efficiently than it would have been otherwise.
사실, 기존 방식보다 100배 더 효율적으로 처리할 수 있었죠.

What is a tensor processing unit and did you guys coin that term?
텐서 처리 장치가 무엇이며, 여러분이 그 용어를 만든 건가요?

We did.
네, 그렇습니다

We coined the term tensor processing unit.
우리가 텐서 처리 장치라는 용어를 만들었습니다.

We believe that it was certainly the first large scale hardware accelerator for AI applications.
우리는 이것이 AI 애플리케이션을 위한 최초의 대규모 하드웨어 가속기였다고 믿습니다.

There's a whole gamut of qualification validation tests we do on power, thermals, functionality.
광범위한 검증 테스트가 있습니다. 우리가 수행하는 전력, 열, 기능성에 대해서요.

You're really trying to make sure the design has enough margin, so that it's going to operate well at volume at scale.
설계에 충분한 여유를 두려고 정말 신경 쓰고 있습니다. 대량 생산 시에도 잘 작동하도록 말이에요.

Principal engineer Andy Swing, who ended up leaving Google since our visit, was there for the first launch.
우리가 방문한 이후 구글을 떠난 수석 엔지니어 Andy Swing은, 첫 출시 때 그곳에 있었습니다.

There's actually four chips inside there.
실제로 그 안에는 4개의 칩이 있습니다.

It's connected to actually two of those are connected to a host machine.
그 중 2개가 호스트 머신에 연결되어 있습니다.

It has CPUs in it.
그 안에는 CPU가 있습니다.

And then all these colorful cables are actually linking together all of the Trillium chips 
그리고 이 모든 케이블들은 모든 트릴리움 칩들을 연결하여

to work as one large supercomputer.
하나의 거대한 슈퍼컴퓨터로 작동하도록 하고 있습니다.

Google data centers still rely heavily on chip giants like Intel and AMD for central processing units, CPUs, and NVIDIA for graphics processing units, GPUs.
구글 데이터 센터는 여전히 중앙 처리 장치(CPU)를 위해 인텔과 AMD 같은 칩 거인들에, 그리고 그래픽 처리 장치(GPU)를 위해 NVIDIA에 의존하고 있습니다.

Google makes a different category of chips called ASICs, application-specific integrated circuits, which are more efficient because they're built for a single purpose.
구글은 ASIC(특정 애플리케이션용 집적 회로)이라 불리는 다른 종류의 칩을 만드는데, 이는 단일 목적을 위해 만들어져 더 효율적입니다.

Google's best known for its AI-focused ASIC, the TPU, but it also makes ASICs to power YouTube called VCUs, video coding units.
구글은 AI에 특화된 ASIC인 TPU로 가장 잘 알려져 있지만, YouTube를 위한 ASIC인 VCU(비디오 코딩 유닛)도 만듭니다.
 
And just like Apple, Google also makes custom chips for its devices.
그리고 애플처럼 구글도 자사 기기를 위한 맞춤형 칩을 만듭니다.

The G4 powers the new fully AI-enabled Pixel 9, and the new A1 powers Pixel Buds Pro 2.
G4는 새로운 AI 지원 픽셀 9를 구동하고, 새로운 A1은 픽셀 번즈 프로 2를 구동합니다.

But the TPU is what set Google apart, because when it launched in 2015, it was the first of its kind.
하지만 TPU가 구글을 차별화시켰습니다. 2015년에 출시되었을 때, 그것은 동종 제품 중 최초의 것이었기 때문입니다.

So the AI cloud era has completely reordered the way companies are seen, and this silicon differentiation, 
AI 클라우드 시대는 기업들이 인식되는 방식을 완전히 재편했으며, 이러한 실리콘 차별화, 

the TPU itself, may be one of the biggest reasons 
TPU 자체가 가장 큰 이유 중 하나일 수 있습니다.

that Google went from the third cloud to being seen truly on parity, 
구글이 3위 클라우드에서 다른 두 클라우드와 대등한 위치에 서게 되고,

and in some eyes, maybe even ahead of the other two clouds for its AI prowess.
일부 시각에서는 AI 역량에서 앞서 나가게 된 가장 큰 이유 중 하나일 수 있습니다.

Amazon Web Services announced its first cloud AI chip in Ferentia in 2018, three years after Google's came out.
아마존 웹 서비스는 2018년에 첫 번째 클라우드 AI 칩인 Ferentia를 발표했는데, 이는 구글의 칩이 나온 지 3년 후였습니다.

Microsoft's first custom AI chip, Maya, wasn't announced until the end of 2023.
마이크로소프트의 첫 번째 맞춤형 AI 칩인 Maia는 2023년 말까지 발표되지 않았습니다.

In order to stay differentiated, to stay competitive, to stay ahead of the market, and to not become overly dependent on any supply chain partner or provider, 
차별화를 유지하고, 경쟁력을 유지하며, 시장을 선도하고, 특정 공급망 파트너나 제공업체에 과도하게 의존하지 않기 위해, 

they needed to do more, build more in-house.
그들은 더 많은 것을 해야 했고, 더 많은 것을 사내에서 구축해야 했습니다.

According to Newman's team's research, Google TPUs dominate among custom cloud AI chips with 58% of the market share, and Amazon comes in second at 21%.
Newman 팀의 연구에 따르면, 구글 TPU는 맞춤형 클라우드 AI 칩 중 58%의 시장 점유율로 지배적이며, 아마존이 21%로 2위를 차지하고 있습니다.

In 2017, a group of eight Google researchers wrote the now-famous paper that invented the transformer, the underpinnings of today's generative AI craze.
2017년, 8명의 구글 연구원 그룹이 오늘날의 생성형 AI 열풍의 기초가 된 트랜스포머를 발명한 유명한 논문을 작성했습니다.

The invention, Vedat says, was made possible by TPUs.
Vedat은 이 발명이 TPU 덕분에 가능했다고 말합니다.

The transformer computation is expensive, and if we were living in a world where it had to run on general-purpose compute, maybe we wouldn't have imagined it.
트랜스포머 연산은 비용이 많이 들고, 만약 우리가 범용 컴퓨팅으로만 이를 실행한다면, 아마 우리는 이를 상상조차 하지 못했을 것입니다.

Maybe no one would have imagined it.
아마 아무도 상상하지 못했을 것입니다.

But it was really the availability of TPUs that allowed us to think, not only could we design algorithms like this, but we could run them efficiently at scale.
하지만 TPU의 가용성 덕분에 우리는 이런 알고리즘을 설계할 수 있을 뿐만 아니라, 대규모로 효율적으로 실행할 수 있다고 생각할 수 있었습니다.

Still, Google's faced criticism for some botched product releases in the current rat race of generative AI, 
그럼에도 불구하고, 구글은 생성형 AI 경쟁에서 일부 제품은 비판을 받았고, 

and its chatbot Gemini came out more than a year after OpenAI's chat GPT.
구글의 챗봇 Gemini는 OpenAI의 ChatGPT보다 1년 이상 늦게 출시되었습니다.

Dozens and dozens of customers are leveraging Gemini every day, 
수십 개의 고객사들이 매일 Gemini를 활용하고 있습니다. 

including some of the most familiar names out there, whether it's Deutsche Bank, Estee Lauder, 
여기에는 Deutsche Bank, Estee Lauder와 같은 가장 친숙한 이름들과 

many, many others, that's our hush old names, McDonald's, if you like, and others.
많은 다른 유명 기업들, 예를 들어 McDonald's 같은 곳들이 있습니다.

Was Gemini trained on TPUs?
Gemini는 TPU로 훈련되었나요?

Gemini was trained and is sort of externally entirely on TPUs.
Gemini는 TPU에서 훈련되었으며, 외부적으로도 전적으로 TPU에서 실행됩니다.

Back in 2018, Google expanded the focus of TPUs from inference to training AI models.
2018년, 구글은 TPU의 초점을 추론에서 AI 모델 훈련으로 확장했습니다.
구글은 TPU의 사용을 추론에서 AI모델 훈련으로 확장했습니다.

Version 2 was actually a pod that connected 256 TPUs together.
버전 2는 실제로 256개의 TPU를 연결한 파드입니다.

Now, Version 5 is in production, which connects almost 9,000 chips together.
현재 생산 중인 버전 5는 거의 9,000개의 칩을 연결합니다.

The real magic of this TPU system is that you actually can interconnect everything over fiber optics dynamically, 
이 TPU 시스템의 진정한 마법은 모든 것을 광섬유를 통해 동적으로 상호 연결할 수 있다는 것입니다.

so you can build small or as large of a system as you want.
그래서 원하는 만큼 작거나 큰 시스템을 구축할 수 있습니다.

With Version 2 in 2018, Google also made its TPUs available to third parties, alongside market-leading chips like NVIDIA's GPUs, which are still used by most cloud customers.
2018년 버전 2와 함께, 구글은 자사의 TPU를 제3자가 사용할 수 있도록 제공했습니다. NVIDIA의 GPU와 같은 시장을 선도하는 칩들과 함께 말이죠. NVIDIA의 GPU는 대부분의 클라우드 고객이 여전히 사용하고 있습니다.

If you're using GPUs, they're more programmable, they're more flexible, but they've been in tight supply.
GPU를 사용하면 더 프로그래밍이 가능하고 유연하지만, 공급이 부족한 상태입니다.

The AI boom has sent NVIDIA's stock through the roof, catapulting the chipmaker to a $3 trillion market cap in June, 
AI 붐으로 인해 NVIDIA의 주가가 치솟아 6월에는 시가총액이 3조 달러에 이르렀고, 

surpassing Google's parent company Alphabet, and jockeying with Apple and Microsoft for position as the world's most valuable public company.
구글의 모회사인 알파벳을 추월하며 세계에서 가장 가치 있는 상장 기업의 자리를 놓고 애플, 마이크로소프트와 경쟁하고 있습니다."

Being candid, these specialty AI accelerators aren't nearly as flexible or as powerful as NVIDIA's platform, 
솔직히 말해서, 이런 특수 AI 가속기들은 NVIDIA의 플랫폼만큼 유연하거나 강력하지 않습니다. 

and that is what the market is also waiting to see, is can anyone play in that space?
시장이 지켜보고 있는 것도 바로 이 점입니다. 과연 누군가 이 분야에서 경쟁할 수 있을까요?

Now that we know Apple's using Google's TPUs to train its AI, the real test will come as it rolls out those full AI capabilities on iPhones and Macs next year.
이제 애플이 AI 훈련을 위해 구글의 TPU를 사용한다는 것을 알게 되었으니, 테스트는 내년에 iPhone과 Mac에서 전체 AI 기능을 출시할 때 이루어질 것입니다.

They were renting chips from Google for about $2 an hour, times gazillion chips, to train their AI models, so they didn't even need NVIDIA.
그들은 구글로부터 시간당 약 2달러에 칩을 임대하고 있었습니다. 수많은 칩을 사용하여 AI 모델을 훈련시키기 위해서 입니다. 그래서 NVIDIA가 필요하지 않습니다.

All the market pull is coming from NVIDIA, but longer term people are just going to want to do AI things, 
현재 시장의 수요는 모두 NVIDIA에서 오고 있습니다. 장기적으로 사람들은 단순히 AI 작업을 수행하길 원할 것이고, 그럴 때 TPU나 다른 자체 개발된 AI 전용 실리콘에서 작업하는 것에 똑같이 만족할 수 있을 것입니다.
모든 시장의 움직임은 NVIDIA에서 비롯되고 있습니다. 하지만 장기적으로 사람들은 단순히 AI 관련 작업을 하고 싶어 할 것입니다."

and when they want to just do AI things, they may be just as happy to do it on a TPU, or do it on another homegrown piece of AI-dedicated silicon.
그리고 그들이 AI 작업을 하고 싶을 때, 그들은 TPU에서 수행하는 것여 똑같이 만족할 겁니다. 또는 자체 제작한 AI 전용 실리콘에서 수행한 것도 만족할 것 입니다.

But developing alternatives to NVIDIA's hugely powerful and costly chips is no small feat.
하지만 NVIDIA의 매우 강력하고 비싼 칩에 대한 대안을 개발하는 것은 쉬운 일이 아닙니다.

It's expensive, you need a lot of scale, and so it's not something everybody can do, 
비용이 많이 들고 대규모 생산이 필요하기 때문에 모든 기업이 할 수 있는 일은 아닙니다. 그러나 이러한 대형 기술 기업들은 그 길을 갈 수 있는 규모와 자금, 그리고 자원을 가지고 있습니다.

but these hypersetters, they've got the scale and the money and the resources to go down that path.
하지만 이러한 하이퍼스케일러들은 그 길을 갈 수 있는 규모와 자금, 자원을 가지고 있습니다.

But the process is so complex and costly that even the Googles of the world can't do it alone.
하지만 이 과정은 너무나 복잡하고 비용이 많이 들어서 구글과 같은 대기업조차도 혼자서는 할 수 없습니다.

Since the very first TPU 10 years ago, Google's partnered with Broadcom, a chip developer that also helps Meta design its AI chips.
10년 전 첫 TPU부터 구글은 브로드컴과 파트너십을 맺었습니다. 브로드컴은 메타의 AI 칩 설계도 돕는 칩 개발 업체입니다.

Broadcom says it's spent more than $3 billion on R&D to make these partnerships happen.
브로드컴은 이러한 파트너십을 위해 30억 달러 이상을 연구 개발에 투자했다고 밝혔습니다.

AI chips, they're very complex.
AI 칩은 매우 복잡합니다.

There's lots of things on it, so Google brings the compute.
거기에는 많은 것들이 있는데, 구글이 컴퓨팅을 제공합니다.

Broadcom does all the peripheral stuff.
브로드컴은 모든 주변기기 관련 작업을 담당합니다.

They do like the I.O. and the SerDes and all of the different pieces that go around that compute.
그들은 I/O와 SerDes, 그리고 그 컴퓨팅 주변의 모든 다른 부분들을 담당합니다.

They also do the packaging.
그들은 또한 패키징도 담당합니다.

Then the final design is sent off to be manufactured at a fabrication plant, or FAB.
그런 다음 최종 설계는 제조를 위해 반도체 제조공장, 즉 팹으로 보내집니다.

Primarily those owned by the world's largest chip maker, Taiwan Semiconductor Manufacturing Company, 
세계 최대 칩 제조업체인 TSMC가 주로 소유하고 있으며,

which makes some 92% of the world's most advanced semiconductors.
이 회사는 세계 최첨단 반도체의 약 92%를 생산합니다.

Do you have any safeguards in place should the worst happen in the geopolitical sphere between China and Taiwan?
중국과 대만 사이의 지정학적 영역에서 최악의 상황이 발생할 경우를 대비한 안전장치가 있습니까?

Yeah, it's an important question, and it's certainly something that we prepare for and we think about as well.
네, 그것은 중요한 질문이며, 확실히 우리가 준비하고 고려하는 사항입니다.

But we're hopeful that actually it's not something that we're going to have to trigger.
하지만 우리는 실제로 그것을 발동할 필요가 없기를 희망합니다.

I think the entire world is at the same risk.
저는 전 세계가 동일한 위험에 처해 있다고 생각합니다.

It's not unique to Google.
이는 구글에만 국한된 것이 아닙니다.

It's not unique to Amazon.
아마존에만 국한된 것도 아닙니다.

It's not unique to Apple.
애플에만 국한된 것도 아닙니다.

It's not unique to Nvidia.
엔비디아에만 국한된 것도 아닙니다.

If Taiwan is not given the appropriate support, if it deals with unexpected end-of-day circumstances, it is not only going to set back any one of these companies, it's going to set back the whole world.
만약 대만이 적절한 지원을 받지 못하고, 예상치 못한 최악의 상황에 직면하게 된다면, 이는 이들 회사 중 어느 하나만을 후퇴시키는 것이 아니라 전 세계를 후퇴시키게 될 것입니다.

That's why the White House is handing out $52 billion in Chips Act funding to companies building FABs in the US, 
그래서 백악관이 칩스 법에 따라 520억 달러의 자금을 지원하고 있는 것입니다. 미국 내 반도체 공장을 건설하는 기업을 대상으로요.

with the biggest portions going to Intel, TSMC, and Samsung so far.
지금까지 가장 큰 부분이 인텔, TSMC, 삼성에 할당되었습니다.

Intel and TSMC are putting a lot of their own money into this as well.
인텔과 TSMC도 이에 많은 자체 자금을 투자하고 있습니다.

I'm heartened to see that, but I mean, it's going to take a long time to duplicate.
이를 보니 고무적이지만, 이 시설들을 복제하는 데는 오랜 시간이 걸릴 것입니다.

So let's hope that it doesn't need to be duplicated.
그래서 이런 복제가 필요하지 않기를 바랍니다.

Risk aside, Google just made another big chip move.
위험은 제쳐두고, 구글이 또 다른 칩 관련 움직임을 보였습니다.

Announcing its first general-purpose CPU, Axion, will be available by the end of the year.
첫 번째 범용 CPU인 Axion을 발표하며, 올해 말까지 사용 가능할 것이라고 밝혔습니다.

Now we're able to bring in that last piece of the puzzle, the CPU.
이제 우리는 퍼즐의 마지막 조각인 CPU를 도입할 수 있게 되었습니다.

And so a lot of our internal services, whether it's BigQuery, whether it's Spanner, YouTube, Advertising, and more, are running on Axion.
그래서 BigQuery든, Spanner든, YouTube든, 광고든, 그 외의 많은 내부 서비스들이 Axion에서 실행되고 있습니다.

But Google is late to the CPU game.
하지만 구글은 CPU 경쟁에 뒤늦게 참여했습니다.

Amazon launched its processor, Graviton, in 2018.
아마존은 2018년에 자사의 프로세서인 Graviton을 출시했습니다.

Alibaba launched its own server chip in 2021, and Microsoft announced its CPU in November.
알리바바는 2021년에 자체 서버 칩을 출시했고, 마이크로소프트는 11월에 CPU를 발표했습니다.

Why didn't you do it sooner?
왜 당신들은 더 일찍 하지 않았나요?

Our focus has been on where we can deliver the most value for our customers, 
우리는 고객 가치 제공에 집중되어 있습니다.

and there it has been starting with the CPU, our video coding units, our networking.
그래서 CPU부터 시작해서, 비디오 코딩 유닛, 네트워킹 등에 집중했습니다.

We really thought that the time was now, starting a couple of years ago.
우리는 지금이 그 시기라고 생각했고, 몇 년 전부터 시작했습니다.

Again, these things are a number of years in the making to really bring our expertise to bear on the ARM CPUs.
다시 말하지만, 이런 것들은 우리의 전문성을 ARM CPU에 적용하는 데 몇 년이 걸리는 일입니다.

I don't fault Google for pacing out the launch of Axion in a more delayed fashion.
구글이 Axion의 출시를 지연된 것에 대해 비난하지 않습니다.

This wasn't as differentiated.
이것은 그렇게 차별화되지 않았어요. 

It's not as differentiated to me.
내가 보기에는 그다지 차별화되지 않았어요.

It is more of a supply game.
이건 공급 게임에 더 가깝습니다. 

It's more of a margin and vertical integration game for the company.
회사 입장에서는 이익률과 수직 계열화 게임에 더 가깝습니다.

Whereas the CPU was truly differentiated, six generations, 10 years of experience.
반면에 CPU는 진정으로 차별화되었죠. 6세대, 10년의 경험이 있습니다.

All these processors from non-chip makers, including Googles, are made possible by ARM chip architecture, 
구글을 포함한 비(非)칩 제조업체들의 이 모든 프로세서들은 ARM 칩 아키텍처 덕분에 가능해졌습니다. 

a more customizable, power-efficient alternative that's been gaining traction over the traditional x86 model from Intel and AMD.
더 맞춤화가 가능하고 전력 효율이 높은 대안으로, ARM은 인텔과 AMD의 전통적인 x86 모델보다 더 인기를 얻고 있습니다.

Power efficiency is crucial because by 2027, AI servers are projected to use up as much power every year as a small country.
전력 효율성이 중요한 이유는 2027년까지 AI 서버가 매년 작은 국가만큼의 전력을 사용할 것으로 예상되기 때문입니다.

With TPUs, the ability to customize greatly boosts power efficiency.
TPU를 사용하면 맞춤화 능력이 크게 향상되어 전력 효율성이 크게 높아집니다.

This is our second generation optical circuit switch.
이것은 우리의 2세대 광학 회로 스위치입니다.

So our large TPU supercomputers are actually optically interconnected.
따라서 우리의 대규모 TPU 슈퍼컴퓨터는 광학적으로 상호 연결되어 있습니다.

Allows us to dynamically link together collections of TPU chips to custom tailor the dimensions to the job that's running.
TPU 칩 집합을 동적으로 연결할 수 있게 해줍니다. 실행 중인 작업의 차원에 맞게 맞춤 설정할 수 있습니다.

This has developed all in-house by us.
이 모든 것은 저희가 자체적으로 개발했습니다. 

Power is a huge thing now.
지금은 전력이 매우 중요합니다.

And anything you can do to try to improve efficiency, lower costs, and save power, I think you're going to do.
그리고 효율성을 개선하고, 비용을 낮추고, 전력을 절약하기 위해 할 수 있는 모든 것을 할 것이라고 생각합니다. 당신은 그렇게 할 것이라고 생각합니다.

Google's latest environmental report showed emissions rose nearly 50% from 2019 to 2023, partly due to data center growth for powering AI.
구글의 최신 환경 보고서에 따르면 2019년부터 2023년까지 배출량이 거의 50% 증가했습니다. 이는 부분적으로 AI 구동을 위한 데이터 센터 성장 때문입니다.

Without having the efficiency of these chips, the numbers could have wound up in a very different place.
이러한 칩들의 효율성이 없었다면, 이 수치들은 매우 다른 결과로 나타났을 수 있습니다.

We remain committed to actually driving these numbers in terms of carbon emissions from our infrastructure 24-7, driving it towards zero.
우리는 우리 인프라의 탄소 배출량을 24시간 내내 실제로 줄이고, 이를 제로로 만드는 데 계속 전념하고 있습니다.

Training and running AI also takes a massive amount of water to keep the servers cool so they can run 24-7.
AI를 훈련하고 운영하는 데에도 엄청난 양의 물이 필요합니다. 서버가 24시간 운영될 수 있도록 냉각을 유지하기 위해서입니다.

That's why with the third generation of TPU, Google started using direct-to-chip cooling, a new way to cool servers that uses far less water, and that's also being used by NVIDIA's latest Blackwell GPUs.
그래서 구글은 TPU 3세대부터 직접 칩 냉각(direct-to-chip cooling)을 사용하기 시작했습니다. 이는 물을 훨씬 적게 사용하는 새로운 서버 냉각 방식으로, NVIDIA의 최신 Blackwell GPU에서도 사용되고 있습니다.
그래서 3세대 TPU에서는

Google started using direct-to-chip cooling, a new way to cool servers that uses far less water, and that's also being used by NVIDIA's latest Blackwell GPUs.
구글은 서버를 냉각하는 새로운 방식인 직접 칩 냉각을 사용하기 시작했습니다. 이 방식은 물을 훨씬 적게 사용하며, NVIDIA의 최신 Blackwell GPU에서도 사용되고 있습니다.

We have four chips, and these are liquid cooling lines that come in.
우리는 4개의 칩을 가지고 있고, 여기에 액체 냉각 라인이 들어옵니다.

There's essentially a cold plate here that has little fins and then it picks up the heat from the chip, puts it in the water, and that comes back out.
여기에는 기본적으로 작은 핀들이 달린 냉각판이 있습니다. 그리고 이것이 칩에서 열을 흡수하여, 물로 전달하고, 그 물이 다시 나옵니다.

Despite challenges from geopolitics to power and water, Google is committed not only to its generative AI tools, but to making its own chips to handle the massive compute required by the craze.
지정학적 문제, 전력과 물 문제까지 여러 어려움에도 불구하고, 구글은 생성형 AI 도구뿐만 아니라 이 열풍에 필요한 막대한 컴퓨팅 파워를 처리하기 위해 자체 칩을 만드는 데도 전념하고 있습니다.

I've never seen anything like this, and no sign of it slowing down quite yet.
저는 이런 것을 본 적이 없으며, 아직 속도가 늦춰질 조짐도 보이지 않습니다.

I think it's fair to say that we really can't predict what's going to be coming as an industry in the next five years, 
향후 5년간 업계에 어떤 일이 일어날지 정말로 예측할 수 없습니다.

and hardware is going to play a really important part there.
하드웨어가 거기서 정말 중요한 역할을 할 것입니다.

728x90
반응형