2025-11-15 AI 뉴스
14 Nov 2025오픈AI, ‘GPT-5.1’ 공개… “상황에 따라 덜/더 생각하는” 적응형 추론과 새 툴로 서비스 속도·비용 동시 개선
오픈AI가 11월 13일 개발자용 GPT-5.1을 발표했습니다. 핵심은 “적응형 추론”입니다. 쉬운 질문에는 빠르게(적은 토큰, 짧은 지연), 복잡한 작업에는 더 오래 “생각”해 정확도를 높이는 방식으로, 일상 대화·요약·고객문의 같은 간단한 요청에서는 체감 속도가 크게 빨라지고, 코드 생성·데이터 분석 등 난도가 높은 과제에서는 안정성을 유지합니다. 추가로 “no reasoning(비추론)” 모드를 제공해 초저지연 응답이 필요한 서비스(예: 실시간 챗·콜센터 프런트)에서 응답 시간을 더 줄일 수 있습니다. 또한 24시간 유지되는 확장 프롬프트 캐싱으로 후속 질문 비용과 지연을 낮출 수 있고, 병렬 툴 호출·웹검색 연동도 강화됐습니다. 개발자는 코드 수정을 자동화하는 apply_patch, 셸 명령을 실행하는 shell 같은 새 툴을 쓸 수 있습니다. 실제로 헤지펀드·보험 BPO 등 파트너는 이전 세대 대비 2~3배 빠르고 토큰 사용이 절반 수준이라고 평가했습니다. (openai.com)
소비자 서비스 측면에서는 ChatGPT 기본 모델도 5.1로 전환 중입니다. 유료 요금제에서는 ‘Instant(속도 중심)’와 ‘Thinking(깊은 추론)’을 직접 고를 수 있고, 무료 이용자도 일정 메시지 한도 내에서 5.1을 체험합니다. 서비스 운영자에게는 “동일한 만족도에 더 낮은 연산비”라는 의미가 큽니다. 모델이 필요 이상으로 장고(長考)하지 않도록 조절해 추론비를 절감하면서 품질을 유지하기 때문입니다. 안전성은 기존 GPT-5 시스템 카드에 기반한 보강 지표가 추가됐습니다. (help.openai.com)
애플, 새 시리(Siri)에 구글 ‘제미니’ 탑재 추진… “연 10억 달러 규모” 협상 사실상 막바지
| Reuters | The Verge |
블룸버그 보도에 따르면 애플은 1.2조 파라미터급 구글 제미니를 기반으로 한 맞춤형 모델을 ‘새 시리’에 적용하기로 하고, 연간 약 10억 달러 수준의 사용료를 협의 중입니다. 제미니는 요약·계획·다단계 지시 처리에 강점이 있어, 애플 인텔리전스와 결합해 일정 만들기, 문맥 요약, 크로스앱 조작의 성공률을 높이는 ‘행동형 어시스턴트’로 진화를 노립니다. 초기에는 애플의 프라이빗 클라우드 컴퓨트(사용자 데이터가 기기 밖으로 나가도 암호화·격리된 애플 실리콘 서버에서만 처리)에서 동작하는 하이브리드 구조가 예상됩니다. (reuters.com)
산업적으로는 애플이 ‘자체 모델’과 ‘외부 최고 모델’을 병행하는 다원화 전략을 택했다는 점이 중요합니다. 단기간에 사용자 만족도를 확보하고, 중장기에는 자체 모델 역량을 키워 외부 의존도를 줄이는 로드맵입니다. 또한 iOS·macOS의 방대한 온디바이스 신호(개인 문맥)를 활용하는 만큼, 개인정보 처리·투명성(어떤 요청이 기기/클라우드에서 처리되는지) 설계가 핵심 경쟁 포인트가 될 전망입니다. (theverge.com)
앤트로픽, 미국에 500억 달러 규모 데이터센터 투자… “클로드 수요 대응·인프라 내재화 가속”
클로드(Claude) 수요 급증에 맞춰 앤트로픽이 텍사스·뉴욕에 대규모 데이터센터를 짓는 500억 달러 투자 계획을 발표했습니다. 파트너로 언급된 플루이드스택과 함께 전력·냉각·네트워킹을 포함한 ‘AI 특화 DC 스택’을 구축해 추론(latency)과 비용(TCO)을 동시에 낮추겠다는 전략입니다. 업계 전반으로 보면, 2025년 3분기 미국에서만 7.4GW 규모의 데이터센터 용량이 임대됐을 정도로(2024년 전체를 상회) ‘AI 인프라 투자 사이클’이 본격화된 상황입니다. 지역 전력망·수자원·토지 이슈가 동반되기 때문에, 전력 믹스(재생에너지 PPA 등)와 수자원 재활용(냉각 기술)이 사업 지속 가능성의 관건이 됩니다. (theguardian.com)
서비스 사업자 관점에선 “자체 인프라 vs. 클라우드 임대” 최적점을 다시 계산해야 합니다. 거대 모델 추론 트래픽을 상시 처리한다면 전용 클러스터가 단위당 비용을 낮출 수 있지만, 수요 변동이 큰 조직은 클라우드의 탄력성과 조달 속도가 유리합니다. 앤트로픽의 대규모 내재화는 후자의 고객(변동 수요)을 겨냥한 리셀·도매 구조와 병행될 가능성이 큽니다. (theguardian.com)
셰브론, 텍사스에서 ‘AI 데이터센터 전용 천연가스 발전’ 첫 프로젝트… 에너지-테크 동맹 본격화
셰브론이 서부 텍사스에 데이터센터 전력 공급을 위한 천연가스 발전 프로젝트를 추진합니다. 최종 투자 결정은 내년 초 예정이며, 장기적으로 최대 5,000MW까지 확장 가능한 구상입니다. 이름이 공개되지 않은 데이터센터 사업자와 독점 협상을 진행 중입니다. 요지는 “AI 전력 수요의 장기·안정 조달”입니다. 전력 소싱을 발전 자산 단계로 끌어내려 가격·품질(전압/주파수 안정)·지연(전송혼잡)을 통제하려는 움직임이 가속화되고 있습니다. (bloomberg.com)
기술을 모르는 분들을 위한 포인트: 대형 언어모델(LLM)·멀티모달 모델을 서비스로 운영하려면 GPU가 수만 장 규모로 돌아가는 DC가 필요합니다. 이때 “지속 가능한 저렴한 전력”이 성패를 가릅니다. 셰브론 같은 에너지 대기업이 직접 전력과 연료망을 묶어 AI에 공급하면, 테크 기업은 전력 변동 리스크를 줄이고 확장 계획을 예측 가능한 범위로 관리할 수 있습니다. 반면 탄소배출 이슈를 고려할 때, 재생에너지·저탄소 연료와의 혼합(PPA+가스) 설계가 중요해집니다. (bloomberg.com)
타임(Time), ‘아카이브 전용’ AI 에이전트 공개… 기사·오디오를 13개 언어로 묻고 듣는다
타임이 스케일AI와 협력해 독자용 AI 에이전트를 선보였습니다. 독자는 정치·엔터테인먼트 등 주제 페이지에서 타임의 102년 아카이브(약 75만 건)를 바탕으로 질문하고, 텍스트/오디오 브리핑을 받을 수 있습니다. 중요한 점은 “폐쇄형 코퍼스”라는 설계입니다. 오픈 웹을 긁지 않고, 저작권이 명확한 자사 콘텐츠만으로 답변해 출처·정확성 관리가 쉬워집니다. 초기에는 개인화/메모리 없이 출발하지만, 다국어(13개 언어) 지원으로 글로벌 독자 접근성을 크게 높였습니다. (axios.com)
미디어 산업에선 ‘AI가 트래픽을 빼앗아 간다’는 우려가 컸습니다. 이번 접근은 반대로 AI를 “체류시간·구독 전환을 늘리는 도구”로 삼는 사례입니다. 에이전트가 기사 맥락을 설명하고 과거호까지 연결해 주면, 독자는 더 오래 머무르고, 매체는 광고·스폰서십·B2B 라이선싱 같은 새 수익 실험을 할 수 있습니다. 동시에 인용·표절 이슈를 줄이려면 대답마다 명확한 출처 링크와 “에이전트가 답할 수 있는 범위”를 UI로 보여주는 것이 관건입니다. (axios.com)
EU, AI법(AI Act) ‘일부 유예·완화’ 검토… 글로벌 AI 서비스의 규제 지형 달라질 수도
| Financial Times | Reuters 요약 |
EU 집행위가 세계에서 가장 강력하다고 평가받는 AI법의 일부 조항 유예·완화를 검토 중입니다. 논의안에는 기업에 1년 추가 유예를 주고, 투명성 의무 위반 벌금 적용을 2027년까지 미루는 방안, 중앙집중식 집행을 위한 EU AI 오피스 권한 강화 등이 포함된 것으로 전해집니다. 배경에는 미국 정부와 빅테크의 우려(경쟁력 저하, 무역 마찰 리스크)와 유럽 내 스타트업 부담이 있습니다. 최종 결정은 11월 19일경 논의될 예정입니다. (ft.com)
서비스 사업자에게 의미하는 바: 고위험군(의료·고용·신용 등)에서 요구되는 데이터 거버넌스·인간감독·설명가능성 요건의 적용 속도가 늦춰질 수 있어, 출시 일정·예산을 재조정할 여지가 생깁니다. 다만 “완화=면제”가 아니라는 점에 유의해야 합니다. 모델 카드, 데이터 출처 표시, 리스크 관리 프로세스는 계속 성숙도를 요구받을 전망입니다. (ft.com)
베라이즌–AWS, ‘AI 전용 초장거리 광케이블’ 구축… 클라우드 간 초저지연 백본으로 AI 서비스 가속
베라이즌이 AWS 데이터센터를 잇는 초용량·저지연 광망 ‘Verizon AI Connect’를 발표했습니다. 목적은 대규모 AI 학습·추론 트래픽의 병목(대륙 횡단 구간, 리전 간 복제)을 줄이는 것입니다. 최근 AI 서비스는 “모델은 한 곳, 데이터는 여러 곳”에 있는 경우가 많아, 리전 간 데이터 이동 지연이 사용자 경험과 비용을 좌우합니다. 전용 백본은 대규모 체크포인팅·장거리 파이프라인 학습·모델 배포(블루그린 롤아웃) 안정성까지 개선합니다. (reuters.com)
쉽게 말해, “AI가 잘 달리려면 도로(네트워크)부터 깔아야 한다”는 이야기입니다. 클라우드–통신사 협력은 앞으로도 늘어날 가능성이 큽니다. 데이터센터 집적지(버지니아, 오하이오, 오리건, 애리조나 등) 사이의 전용 루트가 촘촘해질수록, 글로벌 서비스의 응답 속도·안정성은 한 단계 더 올라갑니다. (reuters.com)
디즈니, “디즈니+에서 AI로 UGC(사용자 제작) 실험”… IP 보호와 창작 생태계의 줄타기
밥 아이거 CEO는 실적 발표에서 AI를 활용해 디즈니+ 경험을 ‘더 개인화되고 창의적인 공간’으로 만들겠다고 밝혔습니다. 예컨대 앱 안에서 사용자가 단편 콘텐츠를 만들고 서로 공유하는 형태의 UGC 기능을 검토 중이라고 시사했습니다. 동시에 미드저니와의 저작권 분쟁을 언급하며, AI 시대의 IP 보호 원칙도 강조했습니다. 테마파크·게임 등 디즈니 생태계의 다른 사업과 디즈니+를 AI로 연결해 체류시간과 교차수요를 키우겠다는 구상입니다. (businessinsider.com)
스트리밍 업계는 가입자 성장 둔화로 ‘참여도(engagement) 확대’가 화두입니다. 생성형 AI 툴을 전면에 배치하면, 창작 허들을 낮추는 대신, 저작권·가이드라인·품질 관리가 새 과제가 됩니다. 안전장치(저작권 필터, 금칙어, 캐릭터 라이선스 범위, 라벨링)와 수익배분(크리에이터 리워드) 모델까지 세팅해야 선순환이 가능합니다. 성공한다면 스트리밍은 ‘일방향 시청’에서 ‘쌍방향 창작’ 플랫폼으로 한 단계 진화할 수 있습니다. (businessinsider.com)