Gemini 3.1 Pro Deep Research Max 출시: MCP로 기업 자료까지 분석하는 자율 리서치 에이전트
Gemini 3.1 Pro Deep Research Max 출시: MCP로 기업 자료까지 분석하는 자율 리서치 에이전트
리서치 한 건에 분석가 한 명이 30분을 쓴다고 가정해 봅시다. 같은 작업을 자율 에이전트가 분 단위로 처리하면서 사내 FactSet 데이터까지 함께 묶어 보고서로 뽑아낸다면 어떨까요. 2026년 4월 21일 Google이 공식 발표한 Gemini Deep Research Max가 바로 그 그림을 그리고 있습니다.
이번 출시는 단순한 모델 업그레이드가 아닙니다. 12월 프리뷰 대비 41% 품질 향상, MCP(Model Context Protocol) 지원, 네이티브 차트·인포그래픽 생성까지 한꺼번에 들어왔습니다. 게다가 Sundar Pichai CEO가 X에 직접 발표할 만큼 Google 내부에서도 큰 분기점으로 보고 있는 변화입니다.
이 글에서는 Deep Research / Deep Research Max의 차이, 5가지 핵심 신기능, 실제 API 통합 방법, 엔터프라이즈 활용 시나리오, 그리고 솔직한 한계까지 정리합니다.
Deep Research Max란? 두 변형 한눈에 보기
정의: Gemini Deep Research Max는 Gemini 3.1 Pro 기반의 자율 리서치 에이전트로, 사용자의 질문에 대해 웹 검색·MCP 서버·코드 실행·URL 컨텍스트를 동시에 활용해 자율 멀티스텝으로 보고서를 생성합니다. Google AI의 Interactions API를 통해 Pay-as-you-go로 호출할 수 있습니다.
이번 릴리스에서 Google은 한 모델이 아니라 두 가지 변형을 동시에 공개했습니다.
| 변형 | 모델 ID | 타겟 | 지연 | 활용 |
|---|---|---|---|---|
| Deep Research | deep-research-preview-04-2026 | 인터랙티브 UI | 단축 | 챗봇 내 실시간 리서치 |
| Deep Research Max | deep-research-max-preview-04-2026 | 비동기/백그라운드 | 분 단위 | 야간 due diligence, 30분 보고서 깊이 |
핵심 차이는 응답 시간과 종합성입니다. Deep Research는 12월 프리뷰보다 빠르고 저렴하면서도 품질을 높였고, Max는 extended test-time compute로 추론·검색·정제를 반복합니다. 분 단위 응답을 허용하는 대신 보고서 깊이를 극대화하는 구조입니다.
벤치마크: DeepSearchQA 93.3%, HLE 54.6%
벤치마크 숫자만 놓고 보면 Max는 다음과 같습니다.
- DeepSearchQA: 93.3% (복잡한 웹 검색 태스크)
- Humanity's Last Exam (HLE): 54.6% (종합 추론)
- 12월 프리뷰 대비: +41% 품질 향상
OfficeChai는 "동급 벤치마크에서 Claude Opus 4.6를 상회한다"고 보도했습니다. 다만 the-decoder는 "각 랩이 자체 벤치마크 도구를 사용하므로 비교가 까다롭다"며 신중한 해석을 권고했습니다.
저희가 봤을 때도 마찬가지입니다. 숫자는 모델 선택의 시작점이지 끝이 아닙니다. 실제 도입 전에는 자사 데이터·자사 시나리오로 별도 평가가 필요합니다. 그럼에도 +41%라는 폭은 동일 인프라에서 나온 결과로는 큰 진전이라는 점은 분명합니다.
5가지 핵심 신기능
1. MCP (Model Context Protocol) 지원
12월 발표 시점에는 "향후 계획"으로만 언급됐던 MCP가 정식으로 들어왔습니다. 임의의 원격 MCP 서버에 에이전트가 연결할 수 있어, 단순 웹 검색기에서 사내 데이터·전문 데이터 공급자까지 탐색하는 자율 에이전트로 격상됐습니다.
Google이 이미 MCP 서버 설계 단계에서 파트너십을 발표한 곳은 다음 3곳입니다.
- FactSet (글로벌 금융 데이터)
- S&P Global (시장·신용 데이터)
- PitchBook (PE/VC 거래 데이터)
2. 네이티브 차트 & 인포그래픽 생성
Gemini API의 Deep Research가 처음으로 시각 자료를 직접 생성합니다. HTML 또는 Nano Banana(이미지 생성 모델)로 인라인 차트와 인포그래픽을 동적으로 만들어 보고서 안에 임베드합니다. 발표용 수준의 비주얼이 텍스트 보고서와 한 번의 호출에서 함께 나온다는 의미입니다.
3. Collaborative Planning
에이전트가 작성한 리서치 계획을 실행 전에 사용자가 검토·수정·승인할 수 있습니다. agent_config: {"collaborative_planning": true} 한 줄로 활성화됩니다. 엉뚱한 방향으로 30분을 돌리는 비용을 사전에 차단하는 안전장치입니다.
4. 멀티모달 리서치 그라운딩
PDF, CSV, 이미지, 오디오, 비디오를 입력으로 줄 수 있습니다. 회사 IR 자료 PDF + 경쟁사 비교 CSV + 로드맵 이미지를 한 번에 던지면 모두 컨텍스트로 잡고 리서치합니다.
5. 실시간 스트리밍
에이전트의 중간 추론 단계(thought summaries)가 라이브로 흐릅니다. 텍스트와 이미지 출력이 생성되는 즉시 클라이언트로 수신되므로 인터랙티브 UI를 만들기에 적합합니다.
MCP 지원이 게임체인저인 이유
이번 릴리스에서 가장 의미 있는 변화는 MCP입니다. 그동안 LLM에 사내 데이터를 붙이는 방식은 RAG 파이프라인을 자체 구축하거나, 데이터를 LLM 제공자에게 업로드하는 두 가지뿐이었습니다. 둘 다 부담이 컸습니다.
MCP는 다른 길을 엽니다. 데이터를 옮기지 않고 그 자리에서 쿼리(federated query) 하는 방식입니다. 에이전트는 MCP 서버에 질의를 던지고, 결과(추론 가능한 컨텍스트)만 받아옵니다. 데이터 egress가 발생하지 않습니다.
법무·컴플라이언스 관점에서 이 차이는 결정적입니다. "기업 데이터를 외부 LLM에 올려도 되는가?"라는 질문이 사라지기 때문입니다. 그동안 Gemini API 도입을 막던 가장 큰 장벽 하나가 무너진 셈입니다.
FactSet, S&P Global, PitchBook이 MCP 서버를 깔고 있다는 것도 의미가 큽니다. 금융 데이터 3대장이 들어왔다는 건, 금융 산업 전체가 MCP를 통해 LLM에 통합되는 첫 번째 도미노가 될 수 있습니다.
API 통합 가이드 (Interactions API)
Deep Research는 일반 generateContent API가 아니라 별도의 Interactions API를 사용합니다. 자율 멀티스텝 워크플로우를 처리하기 위한 전용 엔드포인트입니다.
cURL 예시
curl -X POST "https://generativelanguage.googleapis.com/v1beta/interactions" \
-H "Content-Type: application/json" \
-H "x-goog-api-key: $GEMINI_API_KEY" \
-d '{
"input": "Analyze Q1 2026 earnings reports for top 10 SaaS companies",
"agent": "deep-research-max-preview-04-2026",
"agent_config": {
"collaborative_planning": true,
"tools": [
{"google_search": {}},
{"mcp": {"server_uri": "https://mcp.factset.com/research"}},
{"url_context": {}},
{"code_execution": {}}
]
}
}'
Python SDK
from google import genai
client = genai.Client()
interaction = client.interactions.create(
input="Research the history of Google TPUs with focus on 2025-2026",
agent="deep-research-max-preview-04-2026",
agent_config={"collaborative_planning": True}
)
멀티턴 후속 질문
같은 인터랙션의 결과에 대해 후속 질문을 던질 수 있습니다.
curl -X POST "https://generativelanguage.googleapis.com/v1beta/interactions" \
-d '{
"input": "Can you elaborate on the second point in the report?",
"model": "gemini-3.1-pro-preview",
"previous_interaction_id": "COMPLETED_INTERACTION_ID"
}'
이 패턴은 컨설팅 보고서의 "심화 질문" 흐름을 자동화할 때 매우 유용합니다.
표준 Gemini vs Deep Research Agent 비교
같은 Gemini라도 표준 모델과 Deep Research는 사용 시점이 다릅니다.
| 항목 | 표준 Gemini | Deep Research Agent |
|---|---|---|
| 지연시간 | 초 단위 | 분 단위 (Async/Background) |
| 베스트 활용 | 챗봇, 추출, 창작 | 시장 분석, 실사, 문헌 리뷰, 경쟁 분석 |
| API | generateContent | Interactions API (전용) |
| 호출 방식 | 단일 응답 | 자율 멀티스텝 워크플로우 |
| 출력 | 텍스트 | 텍스트 + 인용 + 차트/인포그래픽 |
| 가격 | 토큰당 고정 | 가변 (모델 + 도구 + MCP 트래픽) |
요약하면 즉답이 필요하면 표준, 깊이가 필요하면 Deep Research 입니다. 두 API를 같은 앱 안에서 조합해서 쓰는 것도 가능합니다.
엔터프라이즈 활용 시나리오 4선
금융: 야간 자동 due diligence
SEC 공시·투자보고서를 야간에 자동 분석하고, FactSet/S&P/PitchBook MCP를 통해 사내 데이터와 결합한 due diligence 보고서를 다음 날 아침까지 받습니다. 분석가가 출근하면 초안이 책상에 올라와 있는 구조입니다.
생명과학: 메타분석 자동화
동료심사 저널 메타분석, 임상 데이터와 공개 문헌 결합, 규제 적합성 검토를 자동으로 진행합니다. 멀티모달 그라운딩을 활용하면 임상 PDF를 직접 입력으로 사용할 수 있습니다.
시장 조사: 경쟁 환경 매핑
다양한 출처를 교차검증하면서 경쟁 환경을 매핑합니다. 모순된 증거를 신중하게 가중하는 능력이 표준 모델 대비 강점이라고 Google은 설명합니다.
컨설팅: 분석가 시간 자동화
분석가 팀의 컨텍스트 수집 단계를 자동화합니다. 3분 답변이 아닌 30분 보고서 수준의 깊이를 분 단위에 뽑아내는 것이 핵심 가치 제안입니다.
한계와 주의사항
솔직하게 짚어야 할 한계도 있습니다.
- Beta status: Interactions API는 아직 베타. 시그니처 변경 가능성이 있습니다.
- 벤치마크 투명성: the-decoder가 지적한 대로 각 랩이 자체 벤치마크를 쓰므로 비교는 신중하게.
- 비용: 단일 호출이 표준 Gemini보다 비싸고 가변적입니다. 모델 + 도구 + MCP 트래픽이 합산됩니다.
- 지연: Max는 분 단위 — 실시간 챗봇에는 부적합합니다.
- Vertex AI 미출시: 엔터프라이즈 표준 환경에는 아직 미배포. "곧 출시 예정" 상태입니다.
- MCP 보안: SOC 2 Type 2 보고서가 향후 핵심 신뢰 지표가 될 가능성이 높습니다.
마무리
Gemini Deep Research Max의 출시는 LLM이 "텍스트 생성기"에서 "리서치 에이전트"로 한 단계 진화하는 분기점입니다. 특히 MCP 지원은 사내 데이터를 외부로 보내지 않고도 자율 에이전트를 운용할 수 있게 만든다는 점에서 컴플라이언스가 까다로운 산업(금융·생명과학·법무·정부)에 결정적인 변화입니다.
당장 프로덕션에 투입하기 전에 점검할 것은 두 가지입니다. 첫째, Beta 단계의 API 안정성 — 시그니처 변경에 견딜 수 있는 추상화 계층을 만들어두세요. 둘째, 자사 시나리오 벤치마크 — 공개 점수가 아닌 자사 질문 셋으로 평가하세요.
Deep Research Max를 활용한 워크플로우를 어떻게 설계할지 고민이 있다면 댓글이나 메일로 공유해 주세요. 함께 설계해 보겠습니다.
자주 묻는 질문 (FAQ)
Q: Deep Research와 Deep Research Max의 차이는 무엇인가요?
Deep Research는 인터랙티브 UI용으로 지연시간이 짧고 비용이 낮은 변형입니다. Deep Research Max는 비동기·백그라운드 워크플로우용으로 extended test-time compute를 사용해 분 단위 응답을 허용하면서 최대 종합성을 추구합니다. 챗봇이라면 Deep Research, 야간 due diligence라면 Max가 적합합니다.
Q: 비용은 얼마인가요?
Pay-as-you-go 모델이며, 기반 Gemini 모델 비용 + 사용된 도구(검색·코드실행·MCP 트래픽) 비용이 합산됩니다. 일반 채팅 요청과 달리 한 번의 요청이 다수의 모델 호출과 검색을 발생시키므로 비용이 가변적입니다. 정확한 단가는 Google AI Studio의 가격 페이지에서 확인하세요.
Q: MCP 서버는 어떻게 연결하나요?
agent_config.tools 배열에 {"mcp": {"server_uri": "..."}} 형태로 추가하면 됩니다. FactSet, S&P Global, PitchBook은 Google과 협력해 MCP 서버를 설계 중이며, 자체 MCP 서버를 구축해 사내 데이터에 연결할 수도 있습니다.
Q: Vertex AI에서도 사용할 수 있나요?
발표 시점 기준 Gemini API에서만 사용 가능합니다. Google은 "곧 Vertex AI에도 출시 예정"이라고 밝혔으나 정확한 일정은 공개되지 않았습니다. 엔터프라이즈 표준 환경에서 도입을 원한다면 Vertex AI 출시 모니터링이 필요합니다.
Q: Claude나 ChatGPT의 리서치 기능과 어떻게 다른가요?
가장 큰 차이는 MCP 지원입니다. Claude/ChatGPT의 리서치 기능도 강력하지만, 임의의 원격 MCP 서버를 에이전트가 자율적으로 호출하는 구조는 Gemini Deep Research Max가 가장 명시적으로 표준화했습니다. FactSet/S&P/PitchBook 같은 전문 데이터 공급자와의 직접 파트너십도 차별점입니다. 다만 벤치마크 비교는 각 랩의 평가 방식이 다르므로 자사 시나리오로 검증하세요.
참고 자료
- Google 공식 발표 — Next-Generation Gemini Deep Research
- Google AI 공식 문서 — Deep Research
- Google AI 공식 문서 — Interactions API
- Gemini 3.1 Pro 공식 페이지
- the-decoder — Google launches Deep Research and Deep Research Max agents
- OfficeChai — Google releases Deep Research Max, tops HLE/BrowseComp/DeepSearchQA
- NDTV Profit — Google rolls out two new updates to Gemini API
- World Today News — Google launches Deep Research and Deep Research Max AI agents