AI 어시스턴트에게 “어떤 신발이 더 어울릴까?”라고 물으면 대답은 잘하는데, 정작 어느 쪽인지 손으로 가리켜주진 못했죠. 이제 그게 가능해졌습니다.

구글이 음성 AI 어시스턴트 Gemini Live의 대규모 업그레이드를 발표했습니다. 가장 주목할 점은 카메라를 공유하면 Gemini가 화면에 직접 하이라이트를 표시하며 실시간으로 가이드한다는 것입니다. 단순히 대답만 하던 AI가 이제 눈으로 보고 손으로 가리키며 알려주는 단계로 진화했습니다.
출처: Gemini Live updates: More Google app connections and visual help – Google Blog
1. 화면 위에 직접 표시하는 시각적 가이드
두 켤레의 운동화 중 어떤 게 내 옷과 어울리는지 고민된다면, 이제 Gemini에게 카메라로 보여주기만 하면 됩니다. Gemini는 두 신발을 모두 인식한 뒤 더 잘 어울리는 쪽을 화면에서 직접 하이라이트로 표시해줍니다.
공구함 앞에서 어떤 렌치를 써야 할지 헷갈릴 때도 마찬가지입니다. 카메라를 공구함에 갖다 대면 Gemini가 필요한 공구를 화면에서 정확히 가리켜주죠. 말로만 설명 듣던 것과 비교하면 확실히 직관적입니다.
이 기능은 Pixel 10 시리즈부터 8월 28일부터 제공되며, 다른 안드로이드 기기와 iOS에도 몇 주 내로 확장됩니다. 당연히 카메라나 화면 공유는 사용자가 직접 허용해야 작동하는 옵트인 방식입니다.
2. 일상 앱들과 하나로 연결되는 대화
진짜 개인 비서라면 단순히 질문에 답하는 걸 넘어 일정을 잡고, 메모를 남기고, 전화를 걸어줘야 합니다. Gemini Live는 이제 Google Calendar, Keep, Tasks와 통합됐고, 곧 Messages, Phone, Clock도 추가됩니다.
예를 들어 Gemini와 이번 주 일정을 이야기하다가 “아, 약국 문 닫기 전에 약 찾아가야 해”라고 생각나면, 그대로 “약 찾으러 가는 거 Tasks에 알림 추가해줘”라고 말하면 됩니다. 대화 흐름이 끊기지 않죠.
엄마 생일 선물 아이디어를 브레인스토밍하다가 괜찮은 게 떠오르면 “바로 이거야! 아빠한테 전화 연결해줘, 사달라고 부탁해야겠어”라고 말할 수 있습니다. 지하철 경로를 찾다가 늦을 것 같으면 중간에 끼어들어 “Alex한테 메시지 보내줘, 10분 정도 늦는다고”라고 해도 Gemini가 알아서 처리합니다.
3. 억양과 속도까지 조절하는 자연스러운 목소리
좋은 대화는 단어의 교환이 아니라 억양, 리듬, 톤의 주고받음입니다. 곧 출시될 모델 업데이트로 Gemini Live는 이런 인간적 요소들을 훨씬 자연스럽게 구사하게 됩니다.
스트레스 받는 주제를 이야기하면 Gemini가 좀 더 차분하고 부드러운 목소리로 답합니다. 메모하느라 바쁘면 “좀 천천히 말해줘”라고 하면 되고, 급하면 “빨리 말해줘”라고 하면 됩니다. 재미를 위해 특정 악센트로 말해달라고 요청할 수도 있죠.
율리우스 카이사르의 관점에서 로마 제국 이야기를 들려달라고 하면, Gemini가 캐릭터 악센트까지 살려서 풍부한 내러티브를 들려줍니다. 단순한 정보 전달을 넘어선 경험입니다.
음성 AI의 새로운 단계
이번 업데이트는 음성 어시스턴트가 단순한 명령-응답 구조를 벗어나 시각적 협업이 가능한 단계로 진입했다는 의미입니다. 듣고 말하는 것에서 보고 가리키는 것까지 가능해진 거죠.
물론 카메라와 화면을 공유해야 한다는 점에서 프라이버시 우려는 여전히 남습니다. 구글은 이를 옵트인 방식으로 설계했지만, 사용자들이 얼마나 편하게 느낄지는 지켜봐야 할 부분입니다.
그래도 공구함 앞에서 헤매거나 신발 두 켤레 사이에서 고민할 때 화면을 콕 찍어주는 AI가 있다면, 적어도 일상의 작은 결정들은 훨씬 수월해질 것 같습니다.
참고자료:

답글 남기기