2025-11-17 AI 뉴스
16 Nov 2025앤트로픽, 미국에 500억 달러 규모 ‘AI 데이터센터’ 투자 발표… 텍사스·뉴욕부터 단계 구축
앤트로픽(Anthropic)이 미국 내 AI 연산 인프라 확충을 위해 약 500억 달러를 투자, 2026년부터 가동될 대규모 데이터센터를 텍사스와 뉴욕에 우선 건립한다고 밝혔습니다. 핵심 배경은 “초거대 모델(LLM)·멀티모달 모델을 안정적으로 학습·서비스”하기 위한 전력·냉각·네트워크를 포함한 통합 인프라를 선점하려는 겁니다. 기사에 따르면 인프라 파트너로 클라우드 기업 플루이드스택(Fluidstack)이 언급되며, 약 800개의 직접 일자리 창출도 예상됩니다. 기술적으로는 고대역폭 메모리(HBM) 기반 GPU 클러스터, 고밀도(High power density) 수랭 냉각, 광(Optical) 네트워킹 등이 핵심 설계 포인트가 될 가능성이 큽니다. 산업적으론 1) 미·중 공급망 분절 속 ‘미국 내 연산력’ 리쇼어링 가속, 2) 모델 성능 향상 경쟁의 ‘병목이 모델이 아닌 전력·부지·냉각’으로 이동, 3) AI 서비스 사업자에게 “자체 데이터센터 vs. 임대(코로케이션)” 전략 재검토를 촉발한다는 점이 중요합니다. 특히 초대형 모델 추론 비용의 대부분이 전력과 냉각에서 발생한다는 현실을 감안하면, 장기 고정비를 선투자해 단가를 낮추려는 ‘규모의 경제’ 전략으로 해석할 수 있습니다. (theverge.com)
일론 머스크, xAI ‘Grok 5’ 출시 2026년 초로 연기… “현 모델 대비 매개변수 2배” 예고
머스크는 투자 컨퍼런스에서 차세대 챗봇 ‘Grok 5’ 공개를 2025년 말에서 2026년 초로 연기한다고 밝혔습니다. 그는 “현 모델 대비 매개변수를 2배 이상 확대하고, 검색·실시간 영상 이해 등 멀티모달 능력을 크게 강화할 것”이라며, 인간수준 지능(AGI) 도달 확률을 10%로 추정했습니다. 배경에는 멤피스 ‘Colossus’ 데이터센터에 20만 개 GPU를 수용(향후 100만 개 목표)하는 등 대규모 하드웨어 스케일업 과정의 변수들이 있습니다. 기술 비전 측면에선 파라미터 수 증가뿐 아니라, 영상·웹·도구 사용(tool use)까지 아우르는 ‘행동형(Agentic) AI’로의 전환이 포인트입니다. 산업적 영향으로는 1) 고급 GPU·전력·냉각 수요 재상승, 2) 기능이 유사해지는 챗봇 시장에서 ‘실시간성·도구 사용’이 제품 차별화의 핵심 축이 될 가능성, 3) 투자자 관점에선 막대한 OPEX/CAPEX를 감내할 만큼의 실사용(리텐션·결제전환) 증거가 요구된다는 점을 시사합니다. (marketwatch.com)
마이크로소프트, 호주 IREN과 97억 달러 ‘NVIDIA GB300’ 연산력 계약… 텍사스 200MW급 AI 설비 확보
마이크로소프트가 호주의 AI 클라우드 사업자 IREN과 5년간 97억 달러 규모의 연산력 조달 계약을 체결했습니다. IREN은 델 테크놀로지스를 통해 엔비디아 GB300 기반 가속기·서버를 공급받아 텍사스 차일드리스(Childress) 캠퍼스에 단계 배치하며, 약 200MW의 ‘크리티컬 IT’ 용량(실제 서버에 쓰이는 전력)을 새로 제공합니다. 기술적으로 GB300은 초저정밀(FP4/INT4 등) 추론 최적화, 차세대 HBM, NVLink·광네트워킹 기반 대규모 모델 병렬 처리에 유리합니다. 산업적 의미는 1) 애저(Azure)·코파일럿·오피스·빙 등 서비스 확장을 가로막던 “연산 부족” 완화, 2) 자체 데이터센터 신·증설 대신 ‘대규모 코로케이션·장기 구매’로 리드타임과 감가상각 리스크를 줄이는 전략, 3) 엔비디아 생태계의 우위가 계속해서 ‘소프트웨어 스택(CUDA, Triton, TensorRT)’ 락인으로 이어지고 있음을 재확인했다는 점입니다. 또한 클라우드 3강(AWS·Azure·GCP) 모두가 ‘연산력 선점=서비스 경쟁력’인 시대에 본격 진입했음을 보여줍니다. (reuters.com)
중국, 국책 데이터센터에 ‘외산 AI 칩 금지’ 지침… 화웨이 등 토종 생태계 급부상
중국 정부가 국가 자금이 투입되는 데이터센터에서 외산 AI 칩 사용을 금지하는 신규 가이드라인을 내놓았다는 보도가 나왔습니다. 공정률 30% 미만의 프로젝트는 외산 칩 계획을 철회해야 하며, 더 진행된 프로젝트도 개별 심사를 받게 됩니다. 기술적으로는 엔비디아 H20 같은 ‘수출 규제용 다운그레이드 칩’까지도 배제하는 강경 기조로, 소프트웨어 생태계(CUDA) 의존도가 높은 고객사에 대규모 마이그레이션 부담이 생깁니다. 산업적으로는 1) 화웨이(Ascend)·Cambricon 등 토종 칩과 프레임워크(Ascend CANN·MindSpore) 도입 가속, 2) 글로벌 AI 칩 시장의 양극화 심화 및 ‘중국 내수 특화’ 생태계 형성, 3) 미국 기업들(특히 엔비디아)의 중국 매출 가시성 약화가 예상됩니다. 동시에 이는 모델·데이터·툴체인까지 국산화 비중을 올리는 ‘디지털 자립’ 전략의 일환으로, 중국 내 AI 서비스도 하드웨어·프레임워크 선택이 결과 품질과 TCO(총소유비용)에 직접 영향을 미칠 전망입니다. (reuters.com)
애플, ‘새로운 시리’에 구글 ‘제미니’ 탑재 추진… 10억 달러 규모 장기 사용료 협상
블룸버그 보도를 인용한 로이터에 따르면, 애플이 재설계된 음성비서 ‘새로운 시리(Siri)’의 핵심 모델로 구글의 대형모델 ‘제미니(Gemini)’를 채택하는 방향으로 협상을 마무리 단계에 두고 있습니다. 연간 약 10억 달러 수준의 사용료가 거론되며, 이는 애플이 자사 온디바이스/서버 사이드 AI를 강화하기 전 ‘브리지 전략’으로 해석됩니다. 기술적으로 시리는 자연어 이해·대화 컨텍스트 유지·멀티모달 인식·도구 사용 등의 품질이 급상승할 수 있고, 산업적으로는 1) 빅테크 간 ‘모델-플랫폼’ 수직통합 대신 ‘수평 제휴’ 확산, 2) 아이폰 생태계 내 ‘앱·OS 수준 AI 자동화’ 경쟁이 가속, 3) 애플이 직접 추격 중인 자체 파운데이션 모델 개발 로드맵에도 동시 자극이 될 가능성이 큽니다. 사용자에게는 “정확하고 자연스러운 음성 비서 경험”이 현실화되지만, 한편으로 iOS 프라이버시 원칙과 클라우드 인퍼런스 간 경계 설정, 비용(구독·디바이스 가격)에의 전가가 장기 과제가 됩니다. (reuters.com)
오픈AI CFO “IPO 준비 아직 아냐”… ‘확장·R&D 최우선, 수익성보다 규모’ 재확인
오픈AI 최고재무책임자 사라 프라이어는 최근 인터뷰에서 “현재 상장(IPO)을 추진하지 않고 있으며, 당분간은 연구·제품·인프라 확장에 자원을 집중한다”고 밝혔습니다. 초거대 모델 학습·추론에 필요한 칩·전력·데이터센터 조달비용이 막대해 외부 자본·프로젝트 파이낸싱·정부 협력을 통한 조달 다변화가 여전히 중요하다는 취지입니다. 의미를 풀이하면, 1) 매출 총이익률이 높아도 GPU·전력·부지·냉각에 대한 고정비/선투자 구조 탓에 회계상 수익성은 후순위가 될 수 있고, 2) ‘연산력=제품 품질’ 곡선이 가파른 지금은 기업가치 극대화를 위해 상장 타이밍을 신중히 보겠다는 메시지입니다. 시장 측면에선 오픈AI가 당장 공모시장에 나오지 않으면서, 비상장 딜(사모·전환사채·전력·설비 리스 등)과 전략 파트너십을 통해 필요한 캐파를 더 확보할 가능성이 큽니다. 이는 경쟁사에도 ‘상장 대신 대형 인프라 제휴’라는 자금·연산 전략을 시사합니다. (wsj.com)
추가로 챙길 흐름
- 국내외 클라우드·하이퍼스케일러의 ‘연산력 선점’ 경쟁이 오늘(2025-11-17) 기준으로도 계속되고 있습니다. 특히 엔비디아 생태계 중심의 코로케이션 계약(예: MS–IREN)은 서비스 품질·출시 속도에 직결됩니다. (reuters.com)
- 중국의 외산 칩 배제 기조는 AI 서비스 사업자의 모델·프레임워크 선택까지 바꾸는 ‘소프트웨어 생태계의 분기’를 초래, 국제 서비스 사업자의 멀티 스택 운용(엔비디아·쿠다 대안 포함)을 요구합니다. (reuters.com)
정리
- 오늘의 큰 그림은 “모델 경쟁 = 곧 인프라 경쟁”입니다. 데이터센터 입지(전력·냉각)와 칩 수급, 소프트웨어 스택까지 수직적으로 묶는 플레이가 AI 서비스의 품질·원가·출시 속도를 좌우합니다. 동시에 각국 정책(미국 내 리쇼어링, 중국 내 국산화)은 글로벌 서비스 설계에 직접 영향을 미치므로, 기술 로드맵과 규제 리스크 관리를 분리하지 말고 한 묶음으로 보셔야 합니다.