AI는 검색 엔진을 대체할 수 있을까

2026-03-16

하루에도 수십 번 궁금증이 생기고, 수시로 검색한다. 검색어가 정확히 단어 한 개일 때도 있고, 문장일 때도 있다. 과제를 하기 위해 찾아야 하는 지식 정보, 뉴스를 보다가 생긴 궁금증, 영화나 드라마에 나온 배우 정보, 누군가와 만나기 위한 약속 장소,... 검색을 해야 할 일은 끝도 없이 많다.

나는 수시로 검색한다. 내가 직접 찾아서 내 궁금증을 최대한 해소하려는 편이다. 그래서일까? 간단히 한두 페이지만 검색해도 나오는 정보임에도, 직접 찾아보지 않고 다른 사람에게 물어서 답을 얻으려는 핑프를 마주치면 답답함이 끓어오른다. 핑프의 질문은 왜요충과는 결이 다르다. 핑프와 왜요충 이야기는 다음 기회에 다루기로 하고...

AI 대화창까지 온 여정

검색을 위해 AI만 쓰진 않는다. 여전히 검색 목적에 따라, 사용하는 서비스가 다르다. 얻고자 하는 정보가 단순 정보일 땐 구글이나 네이버를 쓰고, 추론이나 대량 정리가 필요할 땐 AI를 쓴다. 검색이 필요했던 이유와 내가 그걸 찾는 목적과 맥락에 따라 갈라진다. "목적과 맥락"에 따라 갈라지게 된 배경은 검색 경험일 테다.

내 최초의 검색 경험은 게임 공략집 찾기

네트워크 세상을 내가 처음 접했던 시절은 인터넷 이전이다. 하이텔, 천리안, 나우누리에 모뎀으로 접속해서, 그 속에 미리 마련돼 있던 게시판을 뒤졌다. 검색이라기보단, 그냥 콘텐츠 소비였다고 보는 편이 맞을 테다.

PC가 있고, 그 PC로 주로 하던 행위는 결국 대부분 게임이었다. 퍼즐, 스포츠, 아케이드, 캐주얼 등등 대부분 공략이 아니라 연습이 필요했다. 그러던 어느 날 마주한 대항해시대2는 공략이 필요했다. 대항해시대2 공략이 들어있는 잡지는 해당 발행월을 구하지 못하면 다시 구하기 힘들었다. 답답하게 플레이하던 중, 접속했던 하이텔 게시판에서 대항해시대2 공략집을 찾았다. 궁금증을 해소하기 위한 검색 행위를 네트워크에서 해소한 첫 경험이었지 않은가 생각해 본다.

이때 내 검색의 맥락은 "게임 클리어를 위한 공략 찾기"였고, 특별한 검색어가 있었다기보다, 우연히 게시판을 하나하나 넘어가다 찾은 거였다.

은근 무의미했던 사이트 카테고리

야후, 라이코스, 다음, 네이버 등등 접속 초기화면에 정리돼 있던 사이트 카테고리는 은근 무의미했다. 기껏해야 중고등학생, 대학생 정도인 나에겐 그렇게 많은 사이트 카테고리는 그냥 구경거리일 뿐, 유익한 정보를 전해주진 못했다. 여행 카테고리에 여행사 사이트가 아무리 많이 있어도, 어차피 내가 그 여행사를 쓰지 않으면 무의미하다. 대학교 카테고리에서 학교 리스트를 다 본들, 내가 찾던 입시 요강이나 입학 정보는 각 학교 사이트 안에 있거나 그 내용이 부족해서 따로 입학처에 문의해야 했다. 차라리 이때도 유익한 정보는 잡지, 신문, 책 등 인쇄 매체에 있었다.

그래서일까? 포털 사이트의 첫 화면에 사이트 카테고리가 사라지기까진 그리 오래 걸리지 않았던 것 같다. 결국 중요한 건 사이트 카테고리가 아니라, 그 속의 정보다.

점점 많은 단어를 입력받는 검색창

검색창에 단어는 최대 몇 자까지 입력할 수 있었을까? 그땐 몰랐다. 한 문장조차도 검색창에 넣지 않았었다. 그냥 단어 몇 개 입력하던 게 전부였다. 문장 전체를 넣어봐야, 어차피 원하는 결과를 찾기까진 상당한 페이지 넘김이 필요했다.

네이버가 지식 검색이란 서비스를 내면서, 자연어나 문장 검색 특화를 광고했다. 다음이나 다른 검색 엔진에서도 되는 기능이었다. 누군가는 마케팅의 성공이란 표현을 하지만, 나는 마케팅 이전에 서비스 자체를 잘 다듬은 결과라 생각한다. 지식 검색은 자연어나 문장 검색이 특징이라기보다, 지식in이라는 집단 지성형 게시판을 만들어서 검색 결과에 나오는 무지막지한 콘텐츠 양이 특징이었다. 그리고 계속 늘어난 콘텐츠는 지금의 가두리 네이버를 완성했다.

하지만 영어 검색의 최강자는 역시 구글이었다. 잘하지도 못하는 영어였지만, 문장 통째로 넣으면 어떻게든 뭐든 결과가 나왔다. 내가 영어 독해 속도가 느린 게 문제였을 뿐이다. 구글이 수집한 한국어 콘텐츠 양이 늘어나고 번역 서비스 퀄리티도 점점 좋아졌다. 자연스럽게 구글을 쓰는 사용 빈도가 늘었다. 네이버는 네이버 안에 있는 콘텐츠를 찾을 때 쓰는 검색 엔진이 됐고, 네이버 밖에 있는 콘텐츠를 찾을 때는 구글을 쓰게 됐다.

문장, 문단을 가리지 않고 뭐든 다 소화하는 AI

워드프레스를 운영하다가 마주치는 로그나 에러 메시지를 해결하려면, 끝없는 구글링을 해야 했다. 스택오버플로가 있다고 한들, 그 안에 있는 내용이 내가 겪는 상황을 완벽히 대처해주지 못했다. 결국, 자주 마주치는 에러 메시지는 따로 문서로 정리했다. 정리까진 좋았지만, 다시 에러를 만났을 때 구글링엔 내 문서가 들어가 있지 않아서 두벌 검색을 해야 했다. 퍼블릭에 오픈하는 콘텐츠라면 그나마 구글링으로도 나왔지만, 프라이빗한 노트에 넣어두면 두벌 검색만이 답이었다.

그러다 마주친 ChatGPT류의 AI는 신세계다. 지금 기준으로는 이제 내 프라이빗한 노트 검색도 같이 맡길 수 있다. 구글 드라이브를 연동해도 되고 깃허브를 연동해도 된다. 사실 이런 걸 넣지 않아도 된다. 그냥 내 상황만 장황하게 잘 설명해서 넣으면, 에러 메시지에 딱 맞는 해결책을 찾아준다. 검색이라기보다 솔루션에 가깝다.

하지만 AI로도 만족하지 못하는 부분이 많다. 누군가는 AI에 스킬을 붙이고, 플러그인을 붙여서 해결한다. 나는 아직 거기까진 도달하지 못했으니, 두벌 세벌 검색해야 할 뿐이다. AI는 구글링에 비하면 검색 속도가 느린 게 아니라, 검색 결과를 기다리는 시간이 오래 걸릴 뿐이다.

결국, 내가 찾으려는 맥락과 목적이 무엇이냐에 달렸다. 네이버와 구글을 분리해서 검색했던 것처럼, 기성 검색 엔진과 AI를 분리해서 사용한다.

검색 결과 만족도

검색 결과 만족도는 소모 시간과 반비례한다. 내가 찾으려는 목적 달성까지 걸리는 시간 짧아야 한다. 수집하려는 정보가 충분해지는 시간이 짧아야 한다. 소모 시간이 짧다는 것은 내 목적에 부합하는 결과가 선순위에 나왔다는 뜻이다.

정확도와 최신순 사이 어딘가

환율을 검색한다고 가정해 보자. 환율은 실시간으로 변한다. 대략 계산하는 대역은 있지만, 1원 단위까지 정확히 알고 싶다면 최신순으로 검색해야 한다. 그런데 과거 특정 날짜 환율을 알고 싶다면, 최신순은 잘못된 결과를 준다. 특정 날짜의 환율을 찾아야 한다.

내가 '환율'이라는 두 글자만 입력해서 검색했을 때, 검색 엔진은 내가 어느 환율을 찾으려 한 건지 어떻게 이해할까? 못한다. 애초에 내가 왜 환율을 떠올린 건지도 검색 엔진은 모른다. 이건 AI도 마찬가지다. 내 주변 상황, 나의 모든 대화, 내 머릿속 전체가 싱크돼 있어야만 가능하지 않을까?

우리 동네 맛집 베스트5를 검색한다고 가정해 보자. '우리 동네 맛집 베스트5'는 보통 오랜 평판이 쌓여서 생기는 타이틀이다. SEO 작업으로 결과가 바뀔 수도 있겠지만, 어쨌거나 많은 데이터가 쌓여야 정확하게 뜬다. 이건 정확도가 높아야 한다. 여기서 다시 검색 목적과 맥락이 영향을 준다.

우리 동네 맛집 베스트5 중 내가 못 가본 곳이 있다면 방문하기 위해 찾았다고 가정해보자. 결과에 나온 맛집은 폐업하지 않은 상태여야 한다. 폐업 정보는 최신순까지 같이 고려돼야 한다. 정확도만 높으면 폐업 정보를 반영할 수 없다.

내가 검색을 한 목적과 맥락은 정확도와 최신순 사이 어디에 있을까? 검색할 때마다 나의 목적과 맥락을 다 반영할 수 있을까?

주로 정확도 위주로 동작하는 AI

AI 검색은 주로 정확도 위주로 동작한다. 최신순은 상대적으로 후순위로 동작한다. 그래서 특정 프로그램 에러 메시지를 검색한다면, 그 프로그램 버전 정보까지 넣어야 한다. 특히 최신 버전을 쓴다면 더더욱... 최신 버전이라고 넣어도 AI가 그까진 반영하지 못할 때도 많다. 그래서 AI에게는 통상적인 개념을 물어야 만족도가 높다.

대량 정리를 몇몇 AI 서비스에 맡겨봤다.

openclaw 지금 버전의 설정에서 나온 모델 프로바이더 리스트야.
아래 리스트에서 프로바이더별 AI 사용 가격이 정액제인지 종량제인지, 얼마인지, 리밋은 어떻게 적용되는지, 모델별 특징은 무엇인지 하나하나 찾아서 조회해줘.

OpenAI (Codex OAuth + API key)
Anthropic (setup-token + API Key)
Chutes (OAuth)
vLLM (Local/self-hosted OpenAI-compatible)
MiniMax (M2.5 (recommended))
Moonshot AI (Kimi K 2.5) (Kimi K2.5 + Kimi Coding)
Google (Gemini API Key + OAuth)
xAI (Grok) (API Key)
Mistral AI (API Key)
Volcano Engine (API Key)
BytePlus (API Key)
OpenRouter (API Key)
Kilo Gateway (API Key (Openrouter-compatible))
Qwen (OAuth)
Z.AI (GLM Coding Plan / Global / CN)
Qianfan (API Key)
Copilot (Github + local proxy)
Vercel AI Gateway (API Key)
OpenCode Zen (API Key)
Xiaomi (API Key)
Synthetic (Anthropic-compatible (multi-model))
Together AI (API Key)
Hugging Face (Inference API (HF token))
Venice AI (Privacy-focused (uncensored models))
LiteLLM (Unified LLM gateway (100+ providers))
Cloudflare AI Gateway (Account ID + Gateway ID + API key)
Custom Provider (Any OpenAI or Anthropic compatible endpoint)

ChatGPT 5.4 Thinking, Gemini 3.1 Pro, Claude Sonnet 4.6 확장, 퍼플렉시티 Pro 네 곳에 물었다. 웹페이지에 접속해서 긴 질의를 넣고, 답변을 기다렸다. 처음부터 이 넷을 비교하려던 건 아니었다. 처음엔 ChatGPT에 넣었다. 답변 중간에 특정 모델 정보가 과거 버전인 것을 보는 순간, 가만히 더 살펴보니 가격도 예전 가격이었다. 하나하나 다 찾고 검증하긴 귀찮으니 혹시나 하는 생각으로 다른 서비스에 넣었다.

AI 3대장이란 서비스 셋 다, 최신 정보를 가져오지 못했다. 나름 뭔가 각 웹페이지에 접속해서 정보를 하나하나 갱신하고 긁어오길 기대했는데, 3대장 모두 그러지 못했다. 그러던 중 문득 떠오른 게 퍼플렉시티였다. 그나마 3대장보다 과거 정보가 적긴 했지만, 퍼플렉시티 역시 과거 정보가 섞여 있었다. 어쩌면 퍼플렉시티가 과거 정보가 정리된 웹페이지의 데이터를 최신 데이터라 생각해서 긁었을 수 있다. 출처를 보니 각 사이트가 아니라, 여기저기 따로 정리한 페이지가 많이 끼어있었으니까...

결국 AI에게 최신이라는 기준을 기대하려면, 단순 질의로는 부족하고 현재 페이지에 직접 접속해서 찾아오라는 명령을 넣어야 했을까? 그렇게 넣으면 다들 기대한 대로 동작은 할까?

Block 트랩에 빠진 AI

직접 접속할 URL을 주고서, 안의 데이터를 정리하자는 질의를 넣다 보면 종종 마주하는 메시지가 있다. 자기는 접속할 수 없는 사이트라거나, 읽는 사이트 정보가 사람인 내가 보는 사이트 정보와 다르다거나...

AI 봇 유입을 차단한 사이트였거나, 헤드리스 브라우저로는 접속할 수 없는 자바스크립트 로딩이 필요한 사이트였거나...

AI에 물어보기 위해 질의를 입력한 시간 자체가 아까워지는 경우를 만나면, 나는 다시 AI가 잘 읽을 수 있게 사이트의 텍스트를 다시 복붙하거나 인쇄해서 PDF파일로 만들어야 했다. 그 시간에 그냥 내가 직접 읽고 소화하는 게 빨랐을까 의심이 들 때도 있다. 그래서 각 AI 서비스들이 자사의 브라우저를 만들려고 했던 걸까? 이런 단점도 보완할 겸?

두벌 세벌 검색 작업은 끝이 날까?

이건 나도 모르겠다. ChatGPT Codex, Claude Code, Google Antigravity에서 에이전트 기능을 아직 제대로 써보지 못한 나로서는 그저 두벌 세벌 검색은 그냥 당연한 행위다.

SNS에서 결과 만족도나 Block과 무관히 AI 에이전트 팀으로 이것저것 다 쉽게 해결한다는 글을 자주 마주한다. 내가 긱한 걸까 그들이 대단한 걸까? 모르겠다. 다만, 조금이라도 만족도 높은 검색 결과로 내 뉴런을 채우고 싶을 뿐이다. 그저 그들이 만들어서 생산하는 가비지 데이터(Garbage Data)에 내가 쓰는 AI가 접근하지 않기를 바란다.