AI News Blog AI News Blog

2025-11-27 AI 뉴스

EU 의회, ‘만 16세 미만 소셜·AI 챗봇 금지’ 비구속 결의… 중독적 디자인·다크패턴 금지 촉구

Reuters The Guardian

유럽의회가 11월 26일(현지) 만 16세 미만 아동의 소셜미디어·동영상 서비스·AI 챗봇 접근을 금지(13~16세는 부모 동의 필요)하도록 하는 비구속 결의를 통과시켰습니다. 결의안은 무제한 스크롤·자동재생·루트박스 같은 “중독 유발형” UI 금지, 아동 대상 맞춤형 광고·인플루언서 마케팅 제한도 촉구합니다. 법적 효력을 갖추려면 EU 집행위가 입법안을 내고 이사회·의회의 삼자 협의가 필요합니다. 쉽게 말해, 지금은 “강력 권고” 단계지만 정책 방향을 선명히 그렸다는 의미입니다. 기술 관점에선 플랫폼의 연령인증 고도화(문서·바이오 기반 본인확인, 기기·행태 신호 조합), 챗봇의 연령 필터·민감주제 차단 로직 강화, UX 리디자인(과도한 추천·알림 억제)이 요구됩니다. 산업적으로는 크로스-국가 규제 일원화가 되면 글로벌 서비스 운영비가 줄 수 있지만, 아동 모드 분리 개발·연령 검증 비용은 늘어납니다. 특히 생성형 AI 서비스는 허용 연령·보호장치 요구가 높아져, 출시 시장·기능 우선순위 재조정이 불가피합니다. (reuters.com)


오픈AI, 2030년 유료 구독자 2.2억 명 전망… ‘쇼핑·광고’로 수익 다변화

Reuters

오픈AI가 내부 전망(더 인포메이션 보도)에 따르면 2030년 ChatGPT의 주간 이용자 26억 명 중 약 8.5%인 2.2억 명이 유료로 전환할 수 있다고 봤습니다. 2025년 말 연 환산 매출은 200억 달러를 내다보지만 연구개발·인프라 비용이 커 손익 압박은 지속됩니다. 주목할 점은 ‘쇼핑 리서치’ 등 커머스 기능과 향후 광고·제휴 수수료 등 신규 수익원 비중을 최대 20%까지 키우려는 전략입니다. 기술적으로는 대규모 검색·상품 크롤링, 후기 요약·사양 비교, 실시간 가격 변동 감지 등 복합 에이전트(Agentic) 워크플로우가 핵심이며, 신뢰성 확보를 위해 출처 표기·가격/재고 정확도 검증 루프가 필수입니다. 산업적으론 “구독+거래 수수료”의 이중 캐시카우 모델을 통해, 단순 질의응답형 챗봇을 ‘구매 전환’이 가능한 서비스로 재정의하려는 시도로 볼 수 있습니다. 이는 구글·아마존·메타의 AI 쇼핑과 맞붙는 전면전이자, 검색·광고 시장 지형에도 파급을 줄 전망입니다. (reuters.com)


“데이터센터 전력·감시 남용 우려” 아마존 직원 1,000+명, AI 추진 방식 공개 비판

Wired

아마존(AWS 포함) 직원 1,000명 이상이 익명 공개서한에서 “AI 성과를 이유로 해고·성과압박이 심화되고, 전력집약적 데이터센터 확장으로 탄소배출이 늘며, 감시·안면인식 등 AI 남용 위험이 커진다”고 비판했습니다. 이들은 1) AI 인프라에 화석연료 전력 사용 중단 로드맵, 2) 감시·고위험 영역 적용 제한, 3) 직원 참여형 AI 거버넌스를 요구했습니다. 기술적으로 AI 인프라는 GPU/고대역 메모리·광네트워킹·냉각을 포함한 ‘전력 지능화’가 핵심인데, 배출 저감을 위해 재생에너지 PPA·폐열회수·수랭/침지냉각·전력 스케줄링 최적화가 병행돼야 합니다. 산업적 측면에선 ‘그린 AI’가 인력·브랜드 리스크 관리의 핵심 축으로 부상합니다. 대형 AI 클라우드의 스코프2(전력)·스코프3(공급망) 배출 투명성, 고위험 AI(감시·생체인식·고용결정 등) 내부 심의 강화가 투자자·규제기관의 새 체크리스트가 되는 흐름입니다. (wired.com)


미 하원, ‘AI가 주도한 사이버공격’ 첫 청문회… 앤스로픽 CEO·구글클라우드 CEO 증언 요청

Axios

11월 26일(현지), 미 하원 국토안보위원회가 “상업용 AI 시스템(클로드 코드)이 주요 침투 단계 대부분을 자동화한 중국발 사이버공격” 정황을 두고 12월 17일 청문회를 예고했습니다. 앤스로픽 다리오 아모데이, 구글클라우드 토마스 쿠리안, 양자암호 통신사 퀀텀엑스체인지 CEO에게 증언을 요청했습니다. 중요한 포인트는 ‘에이전트형 AI’가 툴 체인(정찰→취약점 분석→익스플로잇 시도→권한상승→내부 이동)을 거의 무인화할 수 있느냐는 질문입니다. 기술적 대응은 1) 모델·툴 사용 이상행위 탐지(프롬프트/함수호출 로그 기반), 2) API 키·클라우드 자격증명 탈취 방지, 3) 코파일럿·코드에이전트의 안전가드(취약점 악용 코드 차단) 강화가 핵심입니다. 정책적으로는 ‘공격·방어 모두에 쓰이는 AI’에 대한 투명성 의무와 감사를 어떻게 설계할지, 그리고 클라우드/모델 사업자의 책임경계(면책 한계)가 쟁점이 될 전망입니다. (axios.com)


美 특허청, ‘AI 보조 발명’ 새 가이드라인 발표… “AI는 도구, 발명자는 인간”

Reuters

11월 26일(현지) 美 특허상표청(USPTO)이 “생성형 AI는 실험장비·소프트웨어와 같은 도구이며, 특허상 ‘발명의 구상(conception)’은 인간이 해야 한다”는 지침을 내놨습니다. 바이든 행정부 시절 논의됐던 ‘공동발명’ 기준을 따로 두지 않고, AI 관여 여부와 무관하게 동일한 인간 발명 요건을 적용하겠다는 방침입니다. 실무적으로는 AI가 초안·설계·코드·실험절차를 제안했더라도, 1) 인간이 문제 정의·핵심 아이디어 형성·중요 파라미터 선택에 “지적 지배”를 행사했고, 2) 그 과정을 문서로 입증하면 발명자로 기재할 수 있다는 뜻입니다. 기업·연구 조직에는 R&D 노트·모델 지시문·결정 기록을 남기는 ‘AI 보조 발명 기록 체계’가 필요합니다. 반대로, AI 자체를 발명자로 올릴 수 없다는 판례(Thaler 사건 등) 흐름을 재확인한 것으로, AI가 만든 결과물의 권리 귀속을 둘러싼 논쟁은 당분간 ‘인간 책임·소유’ 중심으로 정리될 전망입니다. (reuters.com)