Apple이 차세대 Siri를 위해 Google의 Gemini AI 모델을 도입하기로 정식 합의했습니다. 이는 AI 시대에서 뒤처진 Apple이 생존을 위해 라이벌과 손을 잡은 충격적인 선택입니다.
예상치 못한 동맹
지난주 Bloomberg의 Mark Gurman이 보도한 내용은 테크 업계를 놀라게 했습니다. Apple과 Google이 Siri 업그레이드를 위한 정식 계약을 체결했다는 소식이었습니다.

Apple은 ‘World Knowledge Answers’라는 이름으로 개발 중인 AI 검색 기능에서 Google의 맞춤형 Gemini 모델을 테스트하고 있습니다. 이 기능은 2026년 3월 iOS 26.4 업데이트와 함께 출시될 예정입니다.
‘World Knowledge Answers’란 무엇인가
Apple 내부에서는 이 새로운 기능을 ‘답변 엔진(Answer Engine)’이라고 부릅니다. 사용자가 질문하면 웹에서 정보를 검색해 AI가 요약한 답변을 제공하는 방식입니다.
ChatGPT나 Perplexity와 비슷한 개념이지만, Siri에 완전히 통합된다는 점이 다릅니다. 텍스트, 사진, 동영상, 지역 정보까지 모두 활용해 답변을 만들어냅니다.
처음에는 Siri에서만 사용되지만, 향후 Safari 브라우저와 Spotlight 검색에도 확대될 가능성이 높습니다.
Apple이 Google을 선택한 이유
그동안 Apple은 자체 AI 모델 개발에 집중해왔습니다. Apple의 소프트웨어 엔지니어링 책임자 Craig Federighi는 최근 전사 회의에서 “Siri의 전면적인 개편 작업을 통해 우리가 원하던 결과를 얻었다”고 발표했습니다.

하지만 이 ‘결과’를 얻기 위해서는 외부의 도움이 필요했습니다. 새로운 Siri는 세 가지 시스템으로 구성됩니다:
- 플래너: 음성이나 텍스트 입력을 해석
- 검색 시스템: 웹과 사용자 기기를 검색
- 요약기: 최종 답변을 생성
Apple은 사용자 데이터 검색에는 자체 모델을 쓰지만, 웹 정보 요약에는 Google의 도움이 필요했습니다.
경쟁자들과의 차별화 전략
Apple은 OpenAI의 ChatGPT, Perplexity, Google 같은 기존 AI 검색 서비스들과 정면 승부를 걸었습니다. 하지만 늦은 출발이 문제였습니다.
특히 주목할 점은 Apple이 Perplexity 인수를 포기했다는 사실입니다. Perplexity는 AI 검색 전문 스타트업으로, Google과의 관계가 불투명했을 때 Apple이 관심을 보였던 기업입니다.
하지만 Google과의 계약이 성사되면서 Perplexity의 매력은 사라졌습니다. Apple에게는 검증된 기술력을 가진 Google이 더 확실한 선택이었습니다.
프라이버시는 어떻게 지킬까
Apple의 가장 큰 고민은 프라이버시였습니다. Google의 AI를 쓰면서도 사용자 데이터를 보호해야 했기 때문입니다.
해결책은 Apple의 Private Cloud Compute 서버에서 Google의 모델을 돌리는 것입니다. 사용자 데이터는 Apple 서버를 벗어나지 않으면서도 Google의 AI 기술을 활용할 수 있게 됩니다.
개인 정보와 관련된 검색은 여전히 Apple의 자체 모델이 처리합니다. Google 모델은 오직 일반적인 웹 정보 요약에만 사용됩니다.
AI 생태계 권력 지도의 변화
이번 파트너십은 AI 업계의 권력 구조를 재편하고 있습니다.
Google의 승리: Google은 검색뿐만 아니라 AI 모델 제공까지 Apple 생태계에 깊숙이 침투했습니다. 연간 수백억 달러 규모의 검색 계약에 이어 AI 분야에서도 Apple의 핵심 파트너가 되었습니다.
Apple의 현실적 선택: ‘Think Different’로 유명한 Apple이 경쟁사의 기술에 의존하게 된 것은 아이러니입니다. 하지만 AI 경쟁에서 뒤처진 상황에서는 불가피한 선택이었습니다.
OpenAI와 Anthropic의 기회: Apple은 여전히 다양한 옵션을 열어두고 있습니다. Anthropic의 Claude도 테스트 중이며, OpenAI와의 기존 파트너십도 유지하고 있습니다.
소비자에게는 어떤 변화가 올까
2026년 봄, 새로운 Siri가 출시되면 사용자 경험이 크게 바뀔 것입니다.
복잡한 질문에도 정확한 답변을 받을 수 있게 됩니다. 예를 들어 “오늘 날씨와 교통상황을 고려해서 가장 좋은 레스토랑 추천해줘”라고 물으면, 여러 정보를 종합해 맞춤형 답변을 제공합니다.
이메일이나 메시지 같은 개인 정보도 활용해 더 개인화된 서비스를 받을 수 있습니다. “어제 친구가 보낸 레스토랑 정보 찾아줘”라고 하면 Siri가 대신 찾아줍니다.
화면의 내용을 이해해서 액션도 취할 수 있게 됩니다. 사진을 보면서 “이 제품 온라인에서 주문해줘”라고 말하면 실제로 구매까지 도와줍니다.
앞으로의 전망
이번 Apple-Google 파트너십은 시작일 뿐입니다. 2026년 하반기에는 Siri의 시각적 디자인이 완전히 바뀌고, 건강 관련 기능도 추가될 예정입니다.
더 중요한 것은 이 협력이 장기적으로 어떻게 발전할지입니다. Apple이 계속 Google에 의존할지, 아니면 자체 기술력을 키워 독립할지는 AI 업계의 향후 판도를 좌우할 중요한 변수입니다.
한 가지 분명한 것은 AI 시대에서 혼자만의 힘으론 살아남기 어렵다는 사실입니다. 가장 폐쇄적이던 Apple조차 개방과 협력을 선택했습니다. 이는 AI 기술의 복잡성과 개발 비용이 그만큼 높다는 의미이기도 합니다.
참고자료:
- Apple’s rumored AI search tool for Siri could rely on Google
- Apple Plans AI Search Tool Powered by Google Gemini, Leaves Perplexity Out
- Apple’s Siri upgrade could reportedly be powered by Google Gemini
- Google closer to powering new Siri and Apple’s AI search tool as Perplexity fades
- LLM Siri With ‘World Knowledge’ Search Feature Coming in Early 2026
Comments