애플은 항상 자체 기술을 고집해왔습니다. 자체 칩을 만들고, 자체 운영체제를 개발하고, 심지어 지도 서비스까지 직접 구축했죠. 그런 애플이 이번엔 다른 선택을 했습니다. 2026년 봄 출시 예정인 차세대 Siri의 핵심 기능을 구글의 Gemini 모델로 구동하기로 한 겁니다.

Bloomberg의 Mark Gurman이 보도하고 9to5Mac이 전한 내용에 따르면, 애플은 새로운 Siri의 백엔드에 구글 Gemini를 활용할 계획입니다. 하지만 사용자에게는 이 사실을 적극적으로 알리지 않을 예정이라고 합니다. 모든 기능은 여전히 “애플의 기술”로 마케팅되고, 애플 인터페이스로 제공됩니다.
원문: Apple’s new Siri will secretly use Google Gemini models behind the scenes – 9to5Mac
Gemini는 정확히 무슨 일을 하나요?
새로운 Siri는 세 가지 핵심 구성요소로 이뤄집니다. 쿼리 플래너(사용자 요청을 분석하고 계획), 지식 검색 시스템(정보를 찾아냄), 그리고 요약 기능(결과를 정리해 전달)입니다. 이 중에서 Gemini 모델은 쿼리 플래너와 요약 기능을 담당하게 됩니다.
예를 들어 사용자가 “엄마가 추천한 책 제목이 뭐였지?”라고 물으면, Gemini 기반 플래너가 이 질문을 해석하고 어떤 데이터를 찾아야 할지 계획을 세웁니다. 그런 다음 검색 시스템이 기기에 저장된 메시지나 메모를 뒤지고, 마지막으로 Gemini 기반 요약 기능이 찾은 정보를 자연스러운 답변으로 만들어냅니다.
지식 검색 부분도 Gemini를 활용할 가능성이 있습니다. 이건 Siri가 세상 돌아가는 일이나 일반 상식에 대해 “이해”하게 만드는 부분이죠. 지금까지 Siri가 “웹에서 찾은 내용입니다”라며 검색 결과만 던져주던 것과는 차원이 다른 경험이 될 겁니다.
프라이버시는 괜찮을까요?
애플이 구글 모델을 쓴다는 소식에 많은 사람이 가장 먼저 궁금해하는 부분입니다. 애플의 답은 명확합니다. Gemini 모델은 구글 서버가 아니라 애플의 Private Cloud Compute에서 실행됩니다.
사용자 데이터가 구글로 넘어가지 않는다는 뜻이죠. 기기에 저장된 개인 정보는 애플 자체 모델로 처리하고, Gemini는 그저 애플 서버 안에서 돌아가는 하나의 도구일 뿐입니다. 기술적으론 구글 모델을 쓰지만, 데이터 흐름은 완전히 애플 생태계 안에 갇혀 있는 구조입니다.
왜 이런 선택을 했을까요?
솔직히 말하면, 애플의 자체 LLM이 아직 충분히 좋지 않기 때문입니다. 애플은 2024년에 Siri에 AI 기능을 추가하겠다고 약속했지만, 자체 기술만으론 사용자가 기대하는 수준에 도달하기 어려웠던 것으로 보입니다.
시간도 문제였습니다. AI 경쟁에서 뒤처지고 있다는 비판이 쏟아지는 상황에서, 완벽한 자체 모델을 개발할 때까지 기다릴 여유가 없었죠. 그래서 애플은 실용적 선택을 했습니다. 부족한 부분은 검증된 외부 기술로 빠르게 채우고, 사용자 경험은 먼저 개선하자는 겁니다.
이 전략은 삼성의 Galaxy AI와 놀랍도록 비슷합니다. 삼성도 많은 AI 기능을 구글 Gemini로 구동하면서 “Galaxy AI”라는 브랜드로 포장하죠. 결국 사용자들은 구현 방식보다 결과를 원한다는 계산입니다.
빅테크 AI 경쟁의 새로운 양상
이번 파트너십은 빅테크들의 AI 경쟁이 단순한 제로섬 게임이 아니라는 걸 보여줍니다. 애플과 구글은 검색, 브라우저, 스마트폰에서 경쟁하지만, AI 모델에서는 협력합니다. 구글은 Gemini의 영향력을 넓히고, 애플은 빠르게 격차를 줄일 수 있으니 서로에게 이득이죠.
사용자 입장에선 누가 뒤에서 엔진을 돌리든 상관없습니다. Siri가 드디어 똑똑해진다면 그걸로 충분합니다. 새로운 Siri는 iOS 26.4와 함께 2026년 3월이나 4월에 공개될 예정입니다. 애플이 준비 중인 새로운 스마트 홈 디스플레이 기기도 이 업그레이드된 AI 어시스턴트를 활용하게 됩니다.
완벽주의로 유명한 애플이 외부 기술에 의존하기로 한 이번 결정. 그만큼 AI 시대의 속도전이 치열하다는 방증일 겁니다.

답글 남기기