AI News Blog AI News Blog

2025-11-22 AI 뉴스

오픈AI–폭스콘, 미국 내 ‘AI 데이터센터 하드웨어’ 공동 설계·제조 파트너십 발표

Reuters

오픈AI와 대만 전자제조기업 폭스콘이 미국 내 데이터센터용 랙·케이블·전력·네트워킹 등 핵심 하드웨어를 공동 설계·생산하는 파트너십을 발표했습니다. 초기 계약에 최소 구매 의무는 없지만, 오픈AI는 제품을 우선 검토하고 구매 옵션을 갖습니다. 폭스콘은 미국 공장(위스콘신·오하이오·텍사스)을 활용해 생산하며, 이는 AI 인프라 공급망을 미국으로 더 끌어들이려는 흐름과 맞닿아 있습니다. 요점: “모델 성능 향상=더 많은 전력·냉각·네트워킹 설비”가 필요하고, 이를 표준화·대량생산하는 파트너를 오픈AI가 붙잡았다는 뜻입니다. (reuters.com)

이 소식은 ‘GPU만 있으면 된다’에서 ‘데이터센터 전체를 최적화해야 한다’로 산업의 무게중심이 이동하고 있음을 보여줍니다. 대형 언어모델(LLM)의 학습·추론은 GPU 카드뿐 아니라 랙 배선, 전력 분배, 고대역 네트워크가 성능 병목을 좌우합니다. 미국 내 제조 비중이 높아지면 관세·수출규제 리스크를 낮추고, 납기 예측 가능성이 커져 서비스 출시 속도가 빨라질 수 있습니다. 미디어는 오늘(11월 22일) AP 보도를 통해 미국 공장 활용과 조달 구조를 추가로 확인했습니다. (apnews.com)


메타, 페이스북 ‘AI 모닝 브리프’ 시험… 챗GPT ‘Pulse’ 맞불

The Washington Post

메타가 ‘프로젝트 루나(Project Luna)’로 불리는 개인 맞춤형 아침 브리핑을 일부 도시에서 시험합니다. 페이스북 활동과 외부 정보를 분석해 하루 일정을 정리하고 관심사 요약을 제공하는 기능으로, 유료 구독자에게 대화 이력·캘린더 기반 요약을 제공하는 챗GPT ‘Pulse’에 견주는 서비스입니다. 쉽게 말해, “내 데이터로 만든 나만의 아침 신문”을 앱이 자동으로 만들어 주는 셈입니다. (washingtonpost.com)

의미와 파장: AI가 ‘검색-피드-메신저’ 다음의 개인화 접점을 차지하려는 경쟁이 본격화됐습니다. 이런 기능은 편리하지만, 어떤 데이터가 어떻게 쓰이는지(출처 표시, 동의 범위), 허위정보 방지(출처 신뢰도), 저작권 처리(뉴스·이미지 학습·재사용)가 핵심 쟁점입니다. 특히 메타는 AI 인프라 지출을 크게 늘리는 가운데(‘슈퍼인텔리전스’ 지향) 조직 개편과 인력 이동도 진행 중이라, 서비스 완성도와 개인정보 보호 간 균형을 어떻게 맞추는지가 관전 포인트입니다. (washingtonpost.com)


인튜이트, 오픈AI 모델 통합에 1억 달러… 터보택스·크레딧카르마·퀵북스에 ‘AI 에이전트’

Reuters

터보택스·크레딧카르마·퀵북스로 유명한 인튜이트가 오픈AI 모델을 대규모로 통합하는 1억 달러 규모 다년 계약을 체결했습니다. 사용자는 챗GPT 환경에서 “올해 예상 환급액”, “대출·모기지 조건 비교” 같은 금융 질의를 대화로 처리할 수 있고, 인튜이트는 자체 신용모델·재무데이터와 결합해 응답 정밀도를 높입니다. 한마디로 “세무·회계 상담의 대화형 자동화”입니다. (reuters.com)

의미: 금융 서비스는 정확성과 규제 준수가 생명입니다. 이번 계약은 단순 챗봇을 넘어 ‘에이전트(Agent)’가 실제 결정을 돕는 흐름을 상징합니다. 다만 AI가 제시하는 수치는 ‘참고’이며, 규정·개인 상황 반영이 필수입니다. 인튜이트는 가격 인상 대신 ‘AI로 더 큰 효용’을 제시해 이탈을 막고, 1억 명에 달하는 고객 접점을 AI 기반으로 재구성하려는 전략입니다. 금융권 전반의 ‘AI 내장형 UX’ 전환을 가속할 신호로 보입니다. (reuters.com)


마이크로소프트, 윈도우 11에 ‘실험적 에이전틱 기능’ 토글… PC가 알아서 클릭·입력하는 시대

Windows Central

윈도우 11 인사이더 빌드(Dev/베타 채널)에 ‘Experimental agentic features’라는 새 설정이 등장했습니다. 이는 코파일럿 같은 AI 앱이 화면을 보고 스스로 클릭·타이핑·스크롤하며 파일 정리·일괄 리네임·이미지 편집 등을 자동 처리하도록 허용하는 토글입니다. 핵심은 “지시→작동”으로 이어지는 ‘에이전트형(Agentic) OS’ 지향: 사용자는 과정을 지켜보거나 백그라운드로 돌려 두고 다른 일을 할 수 있습니다. (windowscentral.com)

왜 중요하나: 기존 ‘도움말형 AI’에서 ‘대행형 AI’로 진화가 시작됐다는 의미입니다. 기술적으로는 화면 인식(비전), 도구 호출, 안전 가드레일(오작동 방지) 등이 결합됩니다. 기업 환경에서는 반복 업무 자동화(보고서 정리, 파일 규칙 적용), 개인 사용자는 디지털 집사처럼 PC 운영을 맡길 수 있게 됩니다. 동시에 ‘무엇을, 언제, 누가 허용했는가’를 투명하게 기록·제한하는 설정(기본 OFF)과 권한 모델이 보안·프라이버시 수용성의 관건입니다. (windowscentral.com)


백악관, 주(州) AI 법안 무력화하는 행정명령 추진… 연방 단일 기준으로 ‘규제 파편화’ 해소 노려

The Verge

백악관이 주(州) 단위 AI 규제를 선제 차단하기 위해 법무부 산하에 ‘AI 소송 태스크포스’를 신설하는 행정명령을 준비 중인 것으로 드러났습니다. 초안에 따르면 상충되는 주법을 ‘상거래 방해·연방법 우선’ 논리로 제소하고, 상무부·FTC·FCC 등 유관 기관이 90일 내 부담이 큰 주법을 특정·조정하도록 지시합니다. 맥락은 “50개 주 각기 다른 규정”이 기업의 AI 서비스 출시·운영을 가로막는다는 산업계 불만입니다. (theverge.com)

영향: 단일 연방 기준은 컴플라이언스 비용을 낮추고 출시 속도를 높일 수 있지만, 소비자 보호·안전 규정이 완화될 수 있다는 우려가 큽니다. 특히 캘리포니아의 ‘프런티어 AI 투명성’ 법과 충돌 소지가 지적됩니다. 산업은 예측 가능성을 환영하지만, 시민단체·일부 주정부는 권한 침해를 문제 삼을 가능성이 큽니다. 정치 일정(연말 국방수권법과 연계 시도)과 함께 향후 소송전이 불가피해 보입니다. (politico.com)


EU 집행위, AI 법·GDPR ‘디지털 옴니버스’로 완화·유예 제안… 고위험 AI 적용 18개월 연기 검토

The Guardian

EU 집행위가 ‘디지털 옴니버스’ 패키지를 통해 AI 법(AI Act) 핵심 의무의 적용 시점을 늦추고, 일부 개인정보 규정(GDPR) 완화까지 포함한 개편안을 내놓았습니다. 핵심은 고위험 AI(예: 시험 채점·의료 수술 지원 시스템) 요건 적용을 최대 18개월 유예하고, 학습 데이터 활용에 더 많은 융통성을 주려는 방향입니다. 기업들은 규제 예측 가능성을 환영하지만, 시민단체는 “디지털 권리의 대규모 후퇴”라고 반발합니다. (theguardian.com)

의미: 유럽은 세계 최초의 포괄적 AI 규제를 가동했지만, 표준·감독기구 준비 지연으로 산업의 ‘대기 비용’이 커졌습니다. 이번 개편은 스타트업의 이탈을 막고 경쟁력을 보완하려는 현실 조정으로 읽힙니다. 그러나 데이터 동의 완화가 포함될 경우 학습 과정의 투명성·저작권·프라이버시 갈등이 재점화될 수 있어, 유럽의 ‘신뢰 가능한 AI’ 원칙과 혁신의 균형을 둘러싼 논쟁은 계속될 전망입니다. (theguardian.com)


미국, 엔비디아 ‘H200’의 중국 판매 허용 검토… 수출 통제 기류 변화 조짐

Reuters

미 행정부가 엔비디아의 고성능 AI 칩 ‘H200’의 중국 판매를 제한적으로 허용하는 방안을 검토 중이라는 보도가 나왔습니다. H200은 전작(H100) 대비 고대역 메모리를 늘려 대규모 모델 학습·추론 처리량을 높인 제품이며, 현재 중국에는 성능을 낮춘 ‘H20’만 합법적으로 판매 가능합니다. 최근 미·중 간 완화 기류 속에 상무부가 수출 규정 재검토에 들어간 것으로 전해졌습니다(최종 결정 아님). (reuters.com)

의미: AI 서비스는 ‘연산력’이 생명입니다. 중국 시장에 H200이 부분 허용되면, 글로벌 클라우드·인터넷 기업의 모델 운영 원가·성능 구도와 반도체 공급망 역학이 달라질 수 있습니다. 동시에 군민겸용(듀얼유스) 우려로 안보 커뮤니티의 반발도 예상됩니다. 규제 방향이 변동성 높은 만큼, 중국향 칩 라인업(H20 등)과 글로벌 플래그십(블랙웰 등) 사이에서 등급·성능·가격을 어떻게 구획할지가 국내외 AI 서비스 사업자의 비용 구조를 좌우할 전망입니다. 보조 확인 보도: 야후파이낸스/로이터, CNA. (finance.yahoo.com)


Tom’s Hardware

슈퍼컴퓨팅 ‘25에서 ARM이 엔비디아 ‘NVLink Fusion’ 생태계 합류를 발표했습니다. 이는 ARM 기반 CPU가 엔비디아 GPU와 네이티브로 메모리·캐시를 공유하며 연결될 수 있음을 뜻합니다. 비유하면, 기존 PCIe 고속도로 대신 CPU–GPU 사이에 ‘전용 인터체인지’를 깔아 병목을 줄이는 겁니다. 하이퍼스케일러가 설계한 ARM SoC에 NVLink IP를 탑재하면, 랙 단위로 수천 개 GPU를 엮는 초대규모 학습 클러스터에서 데이터 이동이 빨라지고 전력·공간 효율을 높일 수 있습니다. (tomshardware.com)

의미: AI 서비스의 학습·미세튜닝이 커질수록 ‘IO(입출력) 병목’이 성능을 갉아먹습니다. NVLink Fusion은 CPU–GPU 간 일관성(coherency)을 제공해 모델 파이프라인(전처리→학습→추론) 전체의 대역·지연을 개선합니다. ARM 입장에선 데이터센터용 ISA·IP의 매력을 키우고, 엔비디아는 자사 GPU 중심의 랙스케일 아키텍처를 확장할 수 있습니다. 이는 AMD·인텔·브로드컴 등 경쟁사에 전략적 압박이 될 수 있습니다. (tomshardware.com)