해외주식 공부하는 beauk

OpenAI, Nvidia 의존도 탈피 위해 Google Cloud TPU 도입 시작(OpenAI Taps Google Cloud TPUs to Cut Nvidia Dependency)

beauk 2025. 6. 29. 18:08

 

Hello, everyone. I`m beauk

Today, we're going to learn about OpenAi's efforts to de-Nvdia

 

OpenAI Taps Google Cloud TPUs to Cut Nvidia Dependency

 

A Strategic Break from Nvidia-Led Infrastructure

OpenAI has begun utilizing Google Cloud’s Tensor Processing Units (TPUs) to run ChatGPT and related services, marking a significant shift away from its reliance on Nvidia GPUs. This move aligns with OpenAI’s broader strategy to diversify its compute providers, lowering dependence on Microsoft-managed infrastructure.

 

Cost and Efficiency in Inference Workloads

The primary rationale behind adopting Google’s TPUs lies in cost-efficiency, especially for inference workloads. Industry sources suggest that TPUs may offer up to four-to-six times cost advantage compared to Nvidia GPUs, which are often subject to a high “Nvidia tax” due to elevated margins. By renting TPU capacity post-training, OpenAI aims to reduce operational expenses significantly.

 

Limited Access to Google’s Latest TPU Tiers

Despite the landmark nature of this partnership, OpenAI isn't granted access to Google’s most advanced TPU versions. Google retains its top-tier TPUs—such as those used internally for Gemini model workloads—for its own use. Nevertheless, leveraging earlier-generation TPUs remains a meaningful step toward infrastructure diversification.

 

Hybrid Infrastructure and Future Flexibility

It remains unclear whether OpenAI will employ TPUs solely for inference or eventually for training workloads as well. However, combining Nvidia GPUs with Google’s TPUs offers a hybrid model, enhancing scalability and resilience amid growing compute demands.

 

Implications for AI Ecosystems and Cost Dynamics

This TPU initiative not only expands OpenAI’s hardware ecosystem but also underscores Google’s ambition to commercialize its in-house chips. With Google reportedly acquiring compute at roughly one-fifth the cost of Nvidia GPU setups, TPUs are gaining attention as a competitive and economical alternative.

 

Your thoughts would also be a great help in running the blog.

 

Please be advised that any investment decisions made based on the information provided are solely the responsibility of the investor. The content shared on this blog is intended for reference purposes only and should not be construed as financial advice.

 

 

 

안녕하세요 여러분. beauk입니다

오늘은 OpenAi의 탈Nvdia를 위한 노력에 대해서 알아보도록 하겠습니다

 

OpenAI, Nvidia 의존도 탈피 위해 Google Cloud TPU 도입 시작

 

Nvidia 중심 인프라에서 벗어나는 전략적 전환

OpenAI는 최근 ChatGPT 및 관련 AI 서비스에 Google Cloud의 TPU(텐서 프로세싱 유닛)를 도입했다고 로이터 및 The Information이 보도했습니다. 이는 그동안 Microsoft 및 Oracle‑관리 인프라에만 집중하던 구조에서 벗어나 칩 공급처를 다변화하려는 전략의 일환입니다.

 

추론 워크로드 비용 절감 목적

TPU 도입의 핵심 목적은 추론(inference) 단계의 컴퓨팅 비용 절감에 있습니다. 업계 분석에 따르면 TPUs는 Nvidia GPU 대비 단위 처리 비용에서 4~6배의 비용 효율을 제공할 수 있다고 합니다. 모델 학습 이후 Google Cloud에서 TPU를 임대함으로써 운영 비용을 크게 줄이겠다는 의도로 읽힙니다.

 

최신 TPU는 아직 제공되지 않아

이번 협업에도 불구하고 OpenAI는 Google의 최신 TPU에는 접근하지 못하고 이전 버전만 사용 중인 것으로 전해졌습니다. Google은 여전히 자사 내부 모델 연산을 위해 최상위 TPU 자원을 독점적으로 유지하고 있습니다. 그럼에도 불구하고 인프라 다변화를 위한 의미 있는 첫 걸음을 뗀 것은 분명합니다.

 

하이브리드 인프라로 유연성 확보

현재로서는 OpenAI가 TPU를 추론에만 사용할지, 아니면 향후 학습까지 확장할지 미지수입니다. 하지만 Nvidia GPU와 Google TPU를 결합한 하이브리드 모델은 확장성, 비용 효율성 면에서 유연한 구조를 제공합니다.

 

AI 생태계와 비용 구조에 미치는 영향

이 협약은 OpenAI의 기술 에코시스템을 확장할 뿐 아니라 Google이 자사 맞춤형 실리콘을 클라우드 사업 영역으로 본격적으로 확대하고 있음을 보여줍니다. Google은 Nvidia 대비 80% 정도 저렴한 단가로 TPU를 제공한다는 평가도 있어, AI 칩 시장의 경쟁 및 비용 구조에 중요한 변화를 예고합니다.

 

여러분의 생각도 알려주시면 블로그 운영에 많은 도움이 될 것 같아요

 

제공된 정보를 바탕으로 이루어지는 모든 투자 판단은 전적으로 투자자 본인의 책임임을 알려드립니다. 본 블로그에서 제공하는 내용은 참고용일 뿐, 투자 조언으로 받아들이지 말아주시기 바랍니다.