2025-11-06 AI 뉴스
05 Nov 2025애플, 차세대 ‘시리(Siri)’에 구글 ‘제미니(Gemini)’ 도입 추진… 1.2조 파라미터 모델로 음성비서 재설계
애플이 차세대 시리를 위해 구글의 대형 언어모델 ‘제미니(Gemini)’(파라미터 1.2조 규모)를 활용하는 방안을 막바지 검토 중입니다. 보도에 따르면 연 약 10억 달러 수준의 라이선스 계약으로, 애플은 자체 모델이 준비되기 전까지 제미니를 ‘브리지(가교)’로 써서 멀티스텝 작업·타사 앱 연동 같은 고난도 질의응답을 강화하려는 전략입니다. 파라미터는 모델의 ‘두뇌 연결선 수’로, 클수록 더 복잡한 패턴을 학습할 여지가 커집니다. 기술적으로는 음성명령을 텍스트로 바꾼 뒤 LLM이 단계별(체인-오브-소트) 추론을 수행하고, 캘린더/메시지/서드파티 앱 호출까지 ‘에이전틱(Agentic) 실행’으로 이어지는 구조가 유력합니다. 산업적으론 iOS 기본 음성비서가 본격 ‘AI 퍼스트’로 전환되면, 아이폰 사용자 행동 데이터가 풍부한 애플 생태계 전반(카플레이, 헬스, 홈, 웨어러블)에서 음성·시각·행동이 결합된 서비스가 빠르게 늘어날 수 있습니다. 구글 입장에서도 제미니의 실사용(usage) 저변이 확대되며 모델 품질 개선의 선순환이 가능합니다. (reuters.com)
구글 지도(맵스), ‘제미니’ 내장해 운전 중 대화형 탐색·랜드마크 기반 길안내 제공
구글 맵스가 제미니를 앱 안에 직접 탑재해, 운전 중 “경로 근처 비건 식당 중 예산 친화적인 곳은?” 같이 자연어로 연속 질문을 주고받으며(대화 컨텍스트 유지) 장소 추천·일정 추가·교통사고 제보 등 ‘손을 쓰지 않는(hands-free)’ 조작을 확장합니다. 또 ‘500피트 후 우회전’ 대신 주유소·건물 같은 시각적 기준점(랜드마크)을 짚어주는 안내가 생겨 실제 주행 인지와 맞물립니다. 기술적으로는 맵스의 장소 그래프(2.5억 장소 데이터)와 스트리트뷰 이미지, 사용자의 현재 맥락을 제미니가 통합 추론해 ‘의미 있는 턴 정보’를 생성합니다. 사용자 효용은 명확합니다. 화면을 오래 보지 않고도, 다단계 질의(예: “조금 더 저렴한 곳? 주차는 편한가?”)를 이어가며 목적지 결정을 빠르게 끝낼 수 있습니다. 이는 내비게이션을 “지도+검색+비서”로 재정의하는 변화로, 차량용 안드로이드 오토/카플레이 내 서드파티 음성 경험에도 경쟁 압박을 줄 전망입니다. (techcrunch.com)
오픈AI, 아마존과 7년 380억 달러 규모 클라우드 계약… 멀티클라우드로 ‘학습·추론’ 분산 가속
오픈AI가 AWS와 7년, 380억 달러 규모로 대규모 연산력(엔비디아 GPU 포함)을 확보합니다. 이는 기존 마이크로소프트 애저 중심에서 ‘멀티클라우드’로 전환하는 신호로, 초거대 모델(훈련)과 전 세계 챗GPT(추론, inference) 트래픽을 비용·지연·가용성 기준으로 유연하게 배치할 수 있게 됩니다. 쉽게 말해 “학습은 특정 리전에, 추론은 사용자와 가까운 리전에” 나눠 처리해 응답속도와 안정성을 높이겠다는 뜻입니다. 산업적으로는 클라우드 사업자 간 ‘AI 캐파시티(Compute Capacity) 동맹’이 본격화되며, 모델 제공사들이 특정 벤더 락인 없이 가격·전력·열(열설계) 조건을 최적화해 확장할 수 있음을 보여줍니다. 동시에 수백GW급 전력/냉각/네트워킹이 필요한 차세대 데이터센터 투자가 앞당겨질 것으로 보입니다. (reuters.com)
엔비디아-도이체텔레콤, 뮌헨에 10,000개 ‘블랙웰’급 GPU 투입… ‘인더스트리얼 AI 클라우드’ 구축(10억 유로)
엔비디아와 도이체텔레콤이 독일 뮌헨에 ‘AI 팩토리’를 세워 독일 기업용 추론·시뮬레이션 서비스를 제공합니다. 핵심은 DGX B200 시스템과 RTX Pro 서버로 구성된 대규모 ‘블랙웰’ 아키텍처 GPU 풀입니다. ‘블랙웰’은 엔비디아의 차세대 가속기 규격으로, 대형 언어모델/멀티모달 모델의 ‘추론 효율(W/TOPS)’을 크게 끌어올려, 같은 전력으로 더 많은 요청을 처리합니다. 디지털 트윈(제조/물류 시뮬), 물리기반 시뮬레이션, 독일 내 데이터 주권을 요하는 민감 워크로드(의료·공공) 등이 1차 수요처입니다. 퍼블릭 클라우드 외에 통신사·국가 주도의 ‘국가/지역 특화 AI 클라우드’가 확산되는 흐름으로, 유럽 AI법(AI Act) 준수를 위한 데이터 경계(Geo-fencing)와 컴플라이언스 대응이 용이하다는 장점이 있습니다. (techcrunch.com)
마이크로소프트, 호주 IREN과 97억 달러 ‘AI 클라우드’ 계약… 텍사스 750MW급 캐파시티로 애저·코파일럿 확장
마이크로소프트가 호주의 AI 인프라 사업자 IREN과 5년 97억 달러 계약을 체결, 텍사스 칠드레스 데이터센터에 엔비디아 GB300 기반 가속기를 단계적으로 배치합니다. GB300/GB200은 거대 모델의 추론 비용을 줄이고 ‘에이전트(Agent)형 AI’—여러 작업을 자율적으로 계획·수행하는 기능—에 최적화된 최신 세대 가속기입니다. 750MW급 전력 인입은 하이퍼스케일 데이터센터에서도 상위권 규모로, 코파일럿·오피스·빙·애저 오픈AI 서비스 등의 동시접속·대기열 문제를 완화할 전망입니다. 또한 IREN이 델을 통해 장비를 대량 조달, 연간 약 19.4억 달러(보도 기준) 매출을 기대하는 등, ‘채굴→AI’로 피벗한 인프라 기업들의 비즈니스 모델이 본격 성숙 단계에 들어섰음을 시사합니다. (techcrunch.com)
“중국이 AI 경쟁서 이길 것” 젠슨 황 발언… 수출통제·개발자 생태계가 좌우할 ‘추론 시대’의 지형
엔비디아 젠슨 황 CEO가 “중국이 AI 경쟁에서 승리할 것”이라고 경고했습니다. 맥락은 두 가지입니다. 첫째, ‘개발자 생태계’의 크기—중국의 방대한 개발자 풀을 배제하면 장기적으로 미국 AI 스택 경쟁력이 약해진다는 점. 둘째, 수출통제로 최상위(블랙웰 등) 칩은 미국 내로 제한될 가능성이 크지만, 그렇더라도 중국 내 대규모 추론 수요(서비스 운영)는 첨단 대비 한 단계 낮은 등급의 가속기·국산 칩·모델 경량화로 충분히 흡수될 수 있다는 시각입니다. 서비스 관점에서 보면, AI의 ‘성장 중심’이 학습(훈련)에서 ‘운영(추론)’으로 이동하는 지금, 누가 더 싸게·가깝게(로컬)·안정적으로 추론을 제공하느냐가 승패를 가릅니다. 따라서 칩/모델 성능 경쟁 못지않게, 각국의 전력 인프라, 데이터 주권, 규제 준수형 클라우드가 서비스 성공의 핵심 변수가 됩니다. (reuters.com)
뉴스를 더 보고 싶으신가요? 위 5건 모두 2025년 11월 3~6일(미국 시간 기준)에 발표·보도된 ‘글로벌 AI 서비스/인프라’ 핵심 이슈를 선별했습니다. 각 항목의 원문 링크를 통해 세부 일정(롤아웃 시기, 지원 지역)과 스펙 변동을 확인하실 수 있습니다.