ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 애플의 Gemini 도입과 Siri의 챗봇화가 의미하는 것이 뭘까?
    IT topics 2026. 1. 26. 07:00
    반응형

    최근에 AI 관련 뉴스들이 많이 나온다. 최근도 아니고 뉴스들이 많이 나온지는 벌써 몇년은 된 듯 싶다. 개인적으로 관심은 있었지만 제대로 살펴보지도 못했던지라 아쉬웠는데 이번에 애플의 AI 관련 뉴스들이 좀 보여서 이번 기회에 내용을 살펴보려고 한다.

    그런데 앞서 얘기했듯 AI 관련 정보나 공부가 부족하다보니 어쩔 수 없이 AI의 도움을 많이 빌렸다. chatGPT, Gemini, Claude 등을 이용해서 자료를 정리하고 글을 작성해서 다듬었다(이미지까지 만들어줘서 넘 편하기는 했다). 물론 읽어보면서 내가 좀 더 다듬었기는 했지만 말이다. 그래도 초안은 AI들이 만들어준것이나 다름없어서 말이지.

    일단 관심이 있었던 애플의 Gemini 도입과 Siri의 챗봇 전환 뉴스를 아래와 같이 정리를 해봤다. 덤으로 뉴스 내용에 나왔던 파운데이션 모델과 AI 엔진의 차이점도 간단히 정리를 해봤다.

     

    애플의 Gemini 도입, 그것이 의미하는 것

    일단 애플이 구글의 Gemini를 도입한다는 뉴스가 나왔고 이게 무엇을 의미하는지가 좀 궁금했다. 먼저 이것에 대해서 좀 체크를 해보려고 한다.

    협업이 아닌 기반이 바뀌는 얘기?

    처음에는 협업이라고 해서 그냥 추가 서비스 정도로 생각했다. “구글이랑 또 뭔가 했나 보다” 정도로만 봤는데 뉴스 내용들을 자세히 읽어보니, 이건 기능을 하나 추가하는 수준이 아니라 AI를 구성하는 레이어 자체가 흔들릴 수 있는 소식에 가깝더라.

    구글 쪽에 올라온 공동 성격의 발표문에는 “차세대 Apple Foundation Models가 Gemini 모델과 클라우드 기술을 기반으로 한다”는 취지의 문장이 핵심으로 들어간다. 참고로 애플에서는 별도의 발표문은 없는 것 같다(애플 입장에서는 생각보다 자존심 상하겠지..ㅎㅎ).

    이 말이 의미하는 건 "Siri에 Gemini 버튼이 생긴다” 같은 얕은 결합이 아니라, 애플 인텔리전스(Apple Intelligence)가 사용하는 기반 모델(두뇌) 쪽이 바뀔 수 있다는 이야기다. 기반 모델은 한두 기능에만 쓰이는 게 아니라, 요약/작성/검색/비서 경험 같은 것들이 공유하기 쉬운 구조라 파급이 크다.

    “도입”의 정체는 ‘앱 추가’가 아니라 ‘기반 모델 선택’

    사람들이 “도입”이라는 말을 들으면 보통 앱 업데이트나 옵션 기능을 떠올린다(나도 그렇게 생각했다).

    그런데 파운데이션 모델 이야기는 결이 다르다. 파운데이션 모델은 쉽게 말해, 여러 기능이 위에 얹혀 돌아가는 공용 엔진(지능의 원천) 같은 존재다. 여기서 모델이 바뀌면, 같은 UI/같은 기능 이름이어도 답변의 질, 문맥 유지력, 추론 방식, 멀티모달 처리가 달라질 수 있다(이에 대해서는 밑에 따로 얘기하도록 한다).

    로이터도 이번 협업을 다루면서 애플이 Siri/Apple Intelligence 쪽에 Gemini 모델을 쓰는 방향을 전했다.

    물론 구체적인 구현은 애플이 어디까지 공개하느냐에 따라 다르겠지만, “기반 모델 레이어에 대한 선택”은 애플이 앞으로 어떤 AI 경험을 만들지에 대한 선에 가까운 이야기다. 그래서 단순 협업 소식보다 훨씬 무겁게 봐야 한다.

    왜 애플은 ‘직접 다 만들기’ 대신 ‘Gemini 기반’을 택했을까?

    내 생각이지만, 요즘 파운데이션 모델은 정말로 체급 싸움이다. 좋은 모델을 만드는 것만이 문제가 아니라, 컴퓨팅/데이터/안전성/업데이트/운영비까지 포함한 “장기전”이 된다. 애플이 스스로도 강력한 모델 역량을 갖추고 있다고 하더라도, 최상위권 경쟁을 끝까지 자체 힘으로만 끌고 가는 건 비용과 리스크가 크다.

    반대로 애플이 강한 지점은 따로 있다. 기기, OS, 앱 생태계를 묶어 사용자 경험을 설계하고, 보안/프라이버시를 제품 가치로 포장해서 설득하며, 하드웨어 성능과 소프트웨어 통합을 동시에 밀어붙이는 쪽이다.

    그래서 “모델은 최상급 파트너를 기반으로 삼고, 애플은 통합·제품화·프라이버시·UX에 집중”이라는 구조가 성립한다.

    이 조합이 맞아떨어지면, 사용자는 “AI가 더 똑똑해졌는데 애플 기기 안에서 자연스럽다”는 경험을 얻게 된다.

    “Gemini 기반”이면 내 데이터가 전부 구글로?

    이 부분이 사용자가 가장 불안해 할 지점이다. 하지만 “Gemini 기반”이 곧바로 “내 요청이 전부 구글 서버로 간다”를 의미하진 않는다. 이유는 간단하다. 실제 제품에서 중요한 건 ‘모델 이름’보다도 요청이 어디에서 처리되는지(온디바이스 vs 서버), 그리고 그 과정이 얼마나 투명하게 안내되는지다.

    애플은 Apple Intelligence에서 서버 확장 구조로 Private Cloud Compute(PCC)를 강조해 왔다. 애플 설명대로라면, 기기에서 처리하기 어려운 요청은 PCC로 넘겨 처리하되, 프라이버시와 보안을 강하게 설계했다는 것이 핵심 메시지다.

    그래서 앞으로의 관전 포인트는 “Gemini를 쓰느냐”보다 “어떤 요청이 기기에서 끝나고, 어떤 요청이 PCC로 넘어가며, 사용자가 그 차이를 이해할 수 있느냐”로 모일 가능성이 크다.

    일단 애플의 Gemini 도입에 대한 내용은 이정도로 정리하도록 하고..

    Siri의 챗봇으로의 변화와 그 의미

    애플의 Gemini 도입 뉴스만큼이나 Siri의 변화에 대한 뉴스도 재밌었다. 음성 대화형 서비스에서 챗봇 형식으로 바뀐다는 뉴스들이 나왔는데 그것에 대해서도 살펴보자.

     

    ‘확정 발표’보다는 “유력 보도” 흐름?

    “Siri가 챗봇처럼 바뀐다”는 말도 같이 퍼지고 있는데, 여기서는 톤을 조금 조심할 필요가 있다.

    현 시점에서 이건 애플이 공식 무대에서 확정 발표했다기보다는, 블룸버그 보도를 기반으로 로이터와 주요 매체들이 인용하면서 커진 흐름에 가깝다. 로이터는 애플이 Siri를 내장형 챗봇으로 개편할 계획이라고 전했다.

    더버지 같은 매체도 “ChatGPT 같은 형태의 경험”을 언급하며 같은 방향으로 정리했다.

    요약하면, 방향성은 꽤 강하게 읽히지만 일정이나 범위는 변동될 수 있다. 이런 종류의 소식은 “된다/안 된다”보다 “어느 정도로, 어떤 방식으로”가 실제 제품에서는 훨씬 중요하다.

    챗봇형 Siri의 핵심은 ‘말을 잘한다’가 아니라 ‘문맥을 붙잡는다’

    기존 Siri가 불편한 순간은 보통 이럴 때였다.

    내가 원하는 게 조금 복잡해서 설명이 길어지면, 중간에 앞뒤 맥락이 끊기고 다시 처음부터 말하게 되는 경험. 타이머나 전화 걸기 같은 단발성 명령은 잘하지만, “정리해줘/비교해줘/계획 세워줘” 같은 요청에서 답답해지는 순간이 있었다.

    챗봇형으로 가면 핵심은 “대화가 길어져도 문맥이 유지되는가”다.

    사용자가 완벽한 프롬프트를 한 번에 쓰지 않아도, 대화를 이어가며 의도를 좁혀주고, 필요한 정보를 물어보고, 결과물을 한 덩어리로 정리해 주는 쪽으로 자연스럽게 이동한다. 이게 성공하면 Siri는 단순 실행 도구를 넘어 “작업을 함께 정리해주는 비서” 쪽으로 무게중심이 옮겨간다.

    OS에 내장된 챗봇은 ‘앱 챗봇’보다 한 단계 더 민감

    챗봇 앱은 결국 앱 안에서만 움직인다. 반면 OS에 내장된 Siri는 일정, 알림, 메시지, 파일, 설정, 그리고 앱 간 컨텍스트까지—권한이 허용되는 범위에서—연결될 가능성이 있다. 여기서부터는 편의성이 확 뛰지만, 동시에 사용자가 불안해하는 지점도 커진다.

    그래서 내장형 챗봇은 “대답이 얼마나 똑똑하냐”만으로는 설득이 안 된다.

    어떤 데이터에 접근했는지, 어떤 요청이 기기에서 처리됐는지, 어떤 요청이 서버로 넘어갔는지, 그리고 사용자가 그걸 통제할 수 있는지. 결국 신뢰는 기능이 아니라 설명 가능성과 통제감에서 만들어진다.

    일단 이정도로 Siri의 음성 대화형에서 챗봇 형식으로의 변화에 대해서 정리를 마무리할까 한다.

    파운데이션 모델과 엔진의 차이점

    앞서 애플이 Gemini를 도입할 때 파운데이션 모델을 도입한다고 했다. 그래서 우리가 보통 말하는 AI 엔진, 즉 Gemini 엔진을 도입하는 것과 뭐가 다른지가 궁금했다. 이에 대해서 정리를 해보고자 한다.

     

    모델은 ‘지능’, 엔진은 ‘실행력’

    여기서 자주 헷갈리는 게 “파운데이션 모델”과 “AI 엔진”이다(나부터도 그러니.. -.-).

    둘 다 AI라고 부르지만 역할이 다르다. 파운데이션 모델은 요약/생성/추론을 담당하는 지능 그 자체이고, AI 엔진은 (애플 문맥에선 보통) 그 모델을 빠르게 돌리는 하드웨어 가속기(NPU/Neural Engine)를 의미하는 경우가 많다.

    그래서 모델이 바뀌면 “답변의 질과 성격”이 달라지고, 엔진이 좋아지면 “속도/배터리/발열/오프라인 가능성” 같은 체감이 달라진다. 둘은 경쟁 관계가 아니라 역할 분담 관계다. 좋은 모델도 필요하고, 그걸 빨리 돌릴 엔진도 필요하다.

    “Gemini 기반”은 엔진이 아니라 ‘모델 레이어’에 들어가는 이야기

    구글의 발표문 구조를 그대로 보면, Gemini는 “Apple Foundation Models의 기반”으로 언급된다. 즉, “아이폰의 Neural Engine이 Gemini가 된다” 같은 의미가 아니다. Gemini는 파운데이션 모델 레이어, 즉 “두뇌” 쪽에 가까운 이야기다. 그리고 그 위에 Siri나 글쓰기 도구 같은 기능들이 올라탄다.

    이렇게 이해하면 애플의 선택이 더 선명해진다.

    애플은 사용자에게 보여지는 UI만 바꾸는 게 아니라, “답을 만들어내는 방식(모델)” 자체를 바꿔 Siri와 Apple Intelligence의 근본을 업그레이드하려는 방향일 수 있다. 물론 실제 체감은 제품에서 드러나겠지만, 적어도 레이어 관점에서 보면 변화의 무게가 크다.

    그럼 AI 엔진(NPU은 실제로 어떤 역할을 할까

    모델이 좋아질수록 계산량도 커진다. 그런데 매번 서버에 물어보면 지연이 생기고 네트워크 상태를 타며, 비용도 커진다. 그래서 현실적인 제품은 대체로 하이브리드 구조로 간다. 가벼운 요청은 기기에서 처리하고, 큰 요청은 서버로 넘기는 방식이다.

    이때 온디바이스 처리를 받쳐주는 게 NPU 같은 AI 엔진이다. 사용자가 “어? 이제 Siri가 바로바로 반응하네”라고 느끼는 순간은 보통 여기서 나온다. 즉, Gemini(모델)가 지능을 끌어올린다면, AI 엔진은 그 지능을 일상 속에서 부담 없이 쓰게 만드는 실행 기반이 된다.

    PCC까지 포함하면, “Gemini 기반”도 애플식으로 운영?

    애플은 Private Cloud Compute를 Apple Intelligence의 서버 확장 구조로 설명해 왔다. 애플이 그리는 그림은 대체로 이렇다. 가능한 건 기기에서 처리하고, 더 큰 요청은 PCC로 확장한다. 그러면서도 프라이버시를 핵심 가치로 가져가겠다는 것이다.

    그래서 “Gemini 기반”이 도입되더라도, 사용자가 실제로 접하는 운영 흐름은 (1) 온디바이스에서 빠르게 처리되는 구간, (2) PCC에서 처리되는 구간으로 나뉘는 형태가 가장 그럴듯하다.

    다만 아직 남아 있는 질문도 있다. 어떤 요청이 어느 쪽으로 라우팅되는지, 사용자가 그 기준을 알 수 있는지, 그리고 선택권이 어느 정도인지. 결국 이 부분이 제품 신뢰의 핵심이 될 것이다.

    일단 이정도로 파운데이션 모델과 AI 엔진에 대해서, 그리고 애플이 이를 적용한다면 어떻게 할까에 대해서 정리를 마무리하려고 한다.

    마무리 하자면..

    내가 AI에 대한 정보나 지식이 그렇게 많지가 않아서 관심을 갖고 있는 주제인데 자세히 쓰기가 어려워서 chatGPT, Gemini, Claude 등의 AI의 도움을 많이 받아서 이 글을 작업하게 되었다. 정리해준 내용을 쭉 읽어보면서 나도 이해가 되고 공부가 되는 것 같다.

    정리하자면 애플의 Gemini 도입은 단순한 구글 Gemini 서비스 추가를 의미하는 것은 아니다. 지금까지 Siri의 경우 Siri로 대답하거나 Siri가 chatGPT에 대답을 요청해서 chatGPT가 답변을 해주는 방식으로 진행이 되었다.

    그리고 답변에 대해서 아이폰의 앱에 적용하는 것(캘린더 추가, 문자 보내기, 전화 걸기 등)은 chatGPT가 아닌 Siri가 자체적으로 진행을 했다.

    그런데 이번에 Gemini의 파운데이션 모델을 도입하게 됨으로 예전에 단순히 chatGPT에 연동하는 수준이 아닌 실제로 그동안에 Siri가 해왔던 부분까지 Gemini가 어느정도 관여해서 더 강력하게 앱들의 데이터를 가져와서 분석하기도 하고 반영하기도 하는 작업을 할 것 같다.

    물론 애플은 Gemini 자체가 그 작업을 하지 않고 애플 자체의 Siri가 Gemini의 도움을 받아서 자체 엔진(?)으로 작업을 진행하게 될 것 같기는 하지만 말이다.

    또한 챗봇 역시 단순히 음성 대화형 비서 서비스였던 Siri가 메신저와 같은 챗봇으로 형태만 바뀌는 것이 아니라 이 역시 Gemini가 어느정도 개입을 해서 앱 연동을 더 강력하게 만들어준다는 의미로 해석이 된다.

    실질적으로 어떻게 바뀔지는 iOS 27, iPadOS 27, macOS 27 등이 나와야 알 수 있을 듯 싶다. 그리고  이번 WWDC 27은 이런 내용을 얼마나 잘 알려줄 것인지가 관건이 될 것 같기도 하다.

    반응형

    댓글

Designed by Tistory.