인터넷 검색
1. 개요
1. 개요
인터넷 검색은 사용자가 검색 엔진에 쿼리를 입력하여 월드 와이드 웹에 존재하는 웹 페이지나 기타 정보에 대한 하이퍼링크 목록을 얻는 과정이다. 검색 엔진은 이 작업을 수행하는 소프트웨어 시스템으로, 웹 크롤러가 수집하고 색인 시스템이 정리한 방대한 데이터베이스를 기반으로 작동한다. 사용자는 웹 브라우저나 모바일 앱을 통해 검색을 수행하며, 결과는 일반적으로 각 페이지의 내용을 요약한 스니펫 및 미리보기 이미지와 함께 하이퍼링크 목록 형태로 제공된다.
검색 엔진의 주요 기능은 텍스트 기반의 웹 페이지 검색이지만, 이미지 검색, 비디오 검색, 뉴스 검색 등 특정 유형의 미디어나 정보로 검색 범위를 제한하는 것도 가능하다. 접근 방식에는 특정 지역의 정보를 우선적으로 찾아주는 지역 검색도 포함된다. 현대의 검색 결과는 복잡한 검색 알고리즘에 의해 순위가 매겨지며, 이 알고리즘은 웹 페이지의 관련성, 권위, 최신성 등을 평가하는 수많은 요소를 분석한다.
2. 역사
2. 역사
2.1. 1990년대 이전
2.1. 1990년대 이전
2.2. 1990년대: 검색 엔진의 탄생
2.2. 1990년대: 검색 엔진의 탄생
1990년대는 월드 와이드 웹의 등장과 함께 본격적인 웹 검색 엔진이 탄생한 시기이다. 1993년 이전까지 웹은 수동으로 관리되는 디렉터리 목록에 의존했으나, 그 해 9월 제네바 대학교의 오스카 니어스트라즈가 최초의 웹 검색 도구인 W3Catalog를 출시했다. 같은 해 11월에는 웹 로봇을 사용하지 않고 사이트 관리자의 제출에 의존한 Aliweb이 등장했다.
1993년 12월, 조너선 플레처가 만든 JumpStation은 웹 로봇을 이용해 페이지를 찾고 색인을 구축한 후 웹 폼을 통해 검색할 수 있게 한 최초의 도구로, 현대 검색 엔진의 세 가지 핵심 기능인 크롤링, 색인화, 검색을 모두 갖췄다. 1994년에는 브라이언 핑크턴이 개발한 웹크롤러가 출시되어 웹 페이지의 전체 텍스트를 검색할 수 있게 했으며, 이는 이후 모든 주요 검색 엔진의 표준이 되었다.
1994년에는 또한 라이코스가 카네기 멜런 대학교에서 상업 서비스로 시작되었고, 같은 해 야후!가 제리 양과 데이비드 파일로에 의해 설립되었다. 당시 야후!는 사람이 직접 분류한 웹 디렉터리인 야후! 디렉터리를 제공했으며, 1995년에 검색 기능이 추가되었다. 1995년에는 익사이트가 본격적인 상업 검색 엔진으로 출시되었고, 알타비스타가 디지털 이큅먼트 코퍼레이션에서 서비스를 시작하며 빠른 검색 속도로 주목받았다. 1996년에는 리옌훙이 RankDex 알고리즘을 개발해 하이퍼링크 분석을 통한 사이트 랭킹 방식을 최초로 도입했으며, 이 기술은 후에 바이두의 기반이 되었다.
2.3. 2000년대-현재: 닷컴 버블 이후
2.3. 2000년대-현재: 닷컴 버블 이후
2000년대 이후의 인터넷 검색 시장은 닷컴 버블 붕괴 이후 급격한 변화를 겪었다. 2000년대 초반, 구글은 페이지랭크 알고리즘을 기반으로 한 우수한 검색 결과로 두각을 나타내며 빠르게 시장을 장악하기 시작했다. 이는 기존에 포털 사이트 형태로 검색 서비스를 제공하던 야후!나 MSN과는 차별화된 접근이었다. 특히 구글은 검색 결과 페이지에 광고를 과도하게 노출하지 않는 깔끔한 인터페이스를 유지하며 사용자들에게 큰 호응을 얻었다.
2000년대 중반에는 마이크로소프트가 자체 검색 기술을 본격화하며 빙을 출시했고, 야후!도 자체 검색 엔진 개발에 나섰으나 구글의 압도적인 점유율을 따라잡지는 못했다. 2009년에는 야후!가 자체 검색 기술 개발을 중단하고 빙의 검색 결과를 사용하기로 하는 협약을 체결하기도 했다. 한편, 중국에서는 바이두가, 러시아에서는 얀덱스가 각각 자국 내 시장을 주도하며 지역적 강자로 부상했다.
2010년대 이후 현재까지 구글은 전 세계 검색 시장의 약 90% 가까운 점유율을 유지하며 독보적인 위치를 고수하고 있다. 최근에는 인공지능과 머신러닝 기술을 접목한 검색 결과 개인화와 음성 검색, 맥락 기반 검색 등이 주요 발전 방향이다. 또한 덕덕고나 스타트페이지와 같이 사용자 개인정보 보호에 중점을 둔 검색 엔진들도 일정한 사용자 층을 형성하며 다원화된 시장 구조를 보여주고 있다.
3. 접근 방식
3. 접근 방식
3.1. 지역 검색
3.1. 지역 검색
지역 검색은 특정 지리적 위치와 관련된 정보를 찾는 검색 방식을 말한다. 사용자가 스마트폰이나 컴퓨터를 통해 '근처 병원', '서울 맛집', '부산 날씨'와 같은 쿼리를 입력하면, 검색 엔진은 사용자의 현재 위치나 명시된 지역을 기반으로 관련된 웹사이트, 비즈니스 목록, 지도 정보, 지역 뉴스 등을 결과로 제공한다. 이는 모바일 기기의 보급과 GPS 기술의 발전으로 일상생활에서 매우 중요한 기능이 되었다.
지역 검색의 결과는 종종 온라인 지도 서비스와 통합되어 나타난다. 예를 들어, 구글 검색이나 네이버 검색에서 지역 정보를 찾으면 지도 위에 해당 장소들이 표시되고, 주소, 전화번호, 영업시간, 이용자 리뷰 등의 상세 정보를 함께 확인할 수 있다. 이러한 기능은 사용자가 오프라인 매장을 방문하거나 지역 서비스를 이용하는 결정을 내리는 데 큰 도움을 준다.
소상공인이나 지역 비즈니스에게 지역 검색 최적화는 온라인 가시성을 높이는 핵심 전략이다. 검색 엔진 최적화 기법을 활용해 정확한 업체명, 주소, 연락처 정보를 일관되게 제공하고, 긍정적인 고객 리뷰를 유도하는 것이 중요하다. 이를 통해 잠재고객이 지역 검색을 할 때 상위에 노출될 가능성이 높아진다.
지역 검색의 정확도는 검색 엔진의 데이터베이스 품질에 좌우된다. 따라서 구글 마이 비즈니스나 네이버 플레이스와 같은 업체 등록 서비스를 통해 정보를 최신 상태로 유지 관리하는 것이 필수적이다. 또한, 모바일 검색 비율이 높아짐에 따라 웹사이트의 모바일 호환성도 지역 검색 순위에 영향을 미치는 중요한 요소가 되고 있다.
4. 시장 점유율
4. 시장 점유율
4.1. 러시아 및 동아시아
4.1. 러시아 및 동아시아
러시아에서는 얀덱스(Yandex)가 가장 널리 사용되는 검색 엔진이다. 2020년대 중반 기준으로 러시아 내 검색 시장에서 약 60% 이상의 점유율을 차지하며, 구글(Google)은 약 30% 내외의 점유율을 기록하고 있다. 얀덱스는 러시아어를 비롯한 현지 언어에 대한 뛰어난 처리 능력과 지역화된 서비스(예: 지도, 이메일, 결제 시스템)를 통합한 포털 사이트로서 강력한 입지를 구축하고 있다.
동아시아 지역에서는 국가별로 주요 검색 엔진이 뚜렷이分化되어 있다. 중국에서는 바이두(Baidu)가 압도적인 시장 지배력을 보이며, 정부의 인터넷 검열 정책과 맞물려 국내 시장을 선점하고 있다. 한국에서는 네이버가 포털 및 검색 시장에서 높은 점유율을 차지하고 있으며, 특히 블로그, 카페, 지식인 등 사용자 생성 콘텐츠 기반의 자체 생태계가 강점이다. 일본과 대만에서는 야후!(Yahoo!)의 현지 법인이 여전히 검색 서비스에서 중요한 역할을 하고 있다.
이처럼 러시아와 동아시아 지역은 글로벌 시장을 지배하는 구글이 아닌, 자국어와 지역 문화, 규제 환경에 특화된 로컬 검색 엔진이 강세를 보이는 대표적인 사례이다. 이는 언어적 특수성, 정책적 요인, 그리고 포털 서비스의 통합적 편의성 등이 복합적으로 작용한 결과이다.
4.2. 유럽
4.2. 유럽
유럽 지역의 검색 엔진 시장은 구글이 압도적인 지배력을 유지하고 있다. 2025년 기준, 구글은 유럽 전체 검색 시장 점유율의 약 89%를 차지하며, 나머지 시장은 빙(Bing), 얀덱스(Yandex), 야후!(Yahoo!), 덕덕고(DuckDuckGo) 등이 나누어 갖고 있다. 특히 러시아 및 동유럽 지역과의 지리적, 문화적 근접성 덕분에 러시아 최대 검색 엔진인 얀덱스가 유럽에서 약 3%의 점유율로 두각을 나타내는 것이 특징이다.
일부 국가에서는 자국어 중심의 지역적 검색 엔진이 경쟁력을 유지하기도 한다. 대표적인 예가 체코의 Seznam으로, 체코 내에서는 구글에 버금가는 높은 인지도를 가지고 있다. 프랑스에서는 개인정보 보호에 중점을 둔 검색 엔진 Qwant이 일정한 사용자 층을 확보하고 있다. 또한, 검색 수익으로 나무를 심는 환경 보호 검색 엔진 Ecosia도 유럽에서 상대적으로 높은 인기를 얻고 있다.
이러한 시장 구조는 유럽이 단일 시장이 아닌 다양한 언어와 문화로 구성되어 있음을 반영한다. 따라서 글로벌 검색 엔진은 지역별 언어 지원과 검색 품질 최적화에 주력하고 있으며, 사용자들은 개인정보 보호 정책이나 지역 정보의 정확성 등 다양한 요소를 고려해 검색 엔진을 선택하는 경향을 보인다.
5. 검색 엔진 편향
5. 검색 엔진 편향
검색 엔진은 인기도와 관련성을 결합하여 웹사이트의 순위를 매기도록 설계되어 있지만, 실제 연구에 따르면 제공하는 정보와 기술의 기본 가정에 다양한 정치적, 경제적, 사회적 편향이 존재함을 보여준다.
이러한 편향은 경제적 및 상업적 과정의 직접적인 결과일 수 있다. 예를 들어, 검색 엔진에 광고를 하는 회사가 자연 검색 결과에서 더 높은 가시성을 얻을 수 있다. 또한 정치적 과정, 예를 들어 현지 법률을 준수하기 위해 특정 검색 결과를 삭제하는 경우에도 발생한다. 구글은 홀로코스트 부정이 불법인 프랑스와 독일에서는 특정 네오나치 웹사이트를 검색 결과에서 제외한다. 편향은 또한 사회적 과정의 결과일 수도 있는데, 검색 엔진 알고리즘이 종종 비주류적 관점을 배제하고 더 '인기 있는' 결과를 선호하도록 설계되기 때문이다.
주요 검색 엔진의 색인화 알고리즘은 비미국 국가의 웹사이트보다 미국 기반 사이트의 적용 범위에 편향되어 있다는 연구 결과도 있다. 구글 폭탄은 정치적, 사회적 또는 상업적 목적으로 검색 결과를 조작하려는 시도의 한 예이다. 여러 학자들이 검색 엔진이 촉발한 문화적 변화와 아일랜드에서의 테러리즘, 기후 변화 부정, 음모론과 같은 논란이 많은 주제의 검색 결과 표현 방식을 연구했다.
6. 맞춤 결과 및 필터 버블
6. 맞춤 결과 및 필터 버블
맞춤 검색 결과는 사용자의 과거 검색 기록, 위치, 클릭 행동 등 개인 데이터를 기반으로 검색 엔진이 결과를 조정하는 것을 말한다. 이는 사용자가 자주 찾거나 관심 있어 할 만한 정보를 우선적으로 보여주어 편의성을 높이지만, 동시에 사용자가 접하는 정보의 범위를 제한할 수 있다는 비판을 받는다.
이러한 현상을 일라이 파리저는 2011년 저서에서 '필터 버블'이라는 용어로 설명했다. 필터 버블은 알고리즘이 사용자의 기존 관점과 일치하는 콘텐츠만을 선별적으로 제공함으로써 사용자가 상반된 의견이나 다양한 시각에 노출될 기회를 잃고, 정보적으로 고립된 상태에 빠질 수 있다는 우려에서 비롯된 개념이다. 이는 민주적 사회에서 중요한 공적 담론과 합의 형성을 저해할 수 있다는 지적이 있다.
이에 대한 대응으로, 덕덕고와 같은 일부 검색 엔진은 사용자를 추적하지 않고 개인화되지 않은 검색 결과를 제공하며 필터 버블을 피하려는 정책을 내세운다. 그러나 학계에서는 필터 버블의 실질적 영향력에 대해 논쟁이 있다. 여러 실증 연구에 따르면, 구글과 같은 주요 검색 엔진의 검색 결과 개인화는 사소한 수준에 그치는 경우가 많으며, 대부분의 사용자는 여전히 다양한 출처의 정보에 접근하고 있다는 주장도 제기된다.
따라서 맞춤 결과는 사용자 경험을 개선하는 도구이자 동시에 정보 환경의 다양성을 위협할 수 있는 요소로, 검색 엔진의 알고리즘 설계와 사용자의 미디어 리터러시에 대한 지속적인 논의가 필요하다.
7. 종교적 검색 엔진
7. 종교적 검색 엔진
일부 종교 공동체는 자신들의 신앙과 가치관에 부합하는 안전한 온라인 검색 환경을 제공하기 위해 특화된 검색 엔진을 개발했다. 이러한 종교적 검색 엔진은 일반적인 안전 검색 필터를 넘어, 해당 종교의 교리나 율법 해석에 따라 웹사이트를 '허용' 또는 '금지'로 분류하는 방식을 취한다.
예를 들어, 이슬람 신자들을 위한 검색 엔진으로는 2011년 출시된 ImHalal과 2013년 서비스를 시작한 Halalgoogling이 있다. 이들은 구글이나 빙과 같은 주요 검색 엔진의 결과를 가져온 후, 이슬람 율법(샤리아)에 따라 웹사이트 콘텐츠를 평가하고 '하람'(금지된)으로 판단되는 내용을 걸러내는 필터를 적용한다. 유사한 시도로 무슬림 라이프스타일 사이트 Muxlim이 있었으나, 투자 부족 등의 이유로 성공하지 못했다.
기독교 신자들을 위한 검색 엔진도 존재한다. SeekFind는 기독교 신앙을 공격하거나 훼손하는 내용이 포함된 사이트를 검색 결과에서 배제하는 것을 목표로 한다. 유대교 신자들을 위한 시도로는 Jewogle이 알려져 있다. 이러한 종교적 검색 엔진들은 신앙 기반의 필터링을 통해 사용자가 자신들의 신념에 반하는 콘텐츠에 노출될 위험을 줄이고자 하지만, 일반적인 검색 엔진에 비해 상대적으로 적은 투자와 기술 발전의 한계로 인해 대중적인 성공을 거두지는 못한 경우가 많다.
8. 검색 엔진 제출
8. 검색 엔진 제출
검색 엔진 제출은 웹사이트 관리자가 자신의 사이트를 검색 엔진에 직접 알리는 과정이다. 이 과정은 검색 엔진이 새로운 웹사이트를 발견하거나 크게 변경된 사이트를 재색인하도록 하는 데 도움이 될 수 있다. 일반적으로 웹 크롤러는 자동으로 인터넷을 탐색하여 대부분의 사이트를 발견하므로, 제출이 필수적이지는 않다. 그러나 완전히 새로 출시된 사이트를 빠르게 색인에 반영하거나, 사이트가 대대적으로 개편된 후 색인 정보를 갱신하고자 할 때 유용하게 활용된다.
제출 방법은 단일 홈페이지의 URL만 제출하는 것부터, 사이트의 모든 페이지 구조를 보여주는 사이트맵 파일을 제출하는 것까지 다양하다. 일부 소프트웨어나 서비스는 한 번에 여러 검색 엔진에 사이트를 제출하는 기능을 제공하기도 한다. 그러나 이러한 자동화된 대량 제출은 부자연스러운 수많은 외부 링크를 생성하여, 오히려 검색 엔진 최적화에 부정적인 영향을 줄 수 있다는 점에 유의해야 한다.
9. 기술
9. 기술
9.1. 아키
9.1. 아키
아키는 최초의 인터넷 검색 엔진으로, 1990년 9월 10일에 출시되었다. 캐나다 맥길 대학교의 학생이었던 앨런 엠티지가 개발한 이 시스템은 월드 와이드 웹이 등장하기 전, 인터넷에서 공개된 파일을 찾는 데 사용되었다. 아키는 파일 전송 프로토콜(FTP) 사이트에 저장된 파일들의 디렉터리 목록을 수집하여, 사용자가 파일 이름을 키워드로 검색할 수 있는 데이터베이스를 구축했다.
아키는 웹 페이지의 내용이 아닌, FTP 서버에 있는 파일의 이름만을 색인화했다는 점에서 현대의 검색 엔진과 차이가 있다. 당시 정보량이 상대적으로 적어 수동 검색도 가능했지만, 아키는 분산된 파일을 체계적으로 찾는 최초의 자동화 도구로서 의미가 있었다. 이 검색 엔진의 이름은 '아카이브(Archive)'에서 'v'를 뺀 형태로, 유닉스 시스템의 짧은 프로그램 이름 관례를 따랐다.
아키의 등장은 이후 등장하는 고퍼용 검색 도구인 베로니카와 저그헤드에 직접적인 영감을 주었으며, 인터넷에서 정보를 색인하고 검색한다는 기본 개념을 정립한 선구자 역할을 했다.
9.2. 베로니카
9.2. 베로니카
베로니카는 1993년에 네바다 대학교 시스템 컴퓨팅 서비스 그룹이 개발한 초기 인터넷 검색 도구이다. 이는 고퍼 프로토콜을 통해 제공되는 파일과 디렉터리를 검색하도록 설계되었다. 베로니카는 "Very Easy Rodent-Oriented Net-wide Index to Computerized Archives"의 약자로, 당시 인기 있었던 아키 검색 엔진의 고퍼 버전에 해당했다.
베로니카의 주요 기능은 전체 고퍼 공간에서 메뉴 제목과 파일명에 대한 키워드 검색을 제공하는 것이었다. 사용자는 텍스트 기반 쿼리를 입력하면, 베로니카는 자동으로 생성된 고퍼 사이트 목록의 색인을 검색하여 관련 항목을 찾아주었다. 이는 월드 와이드 웹이 보편화되기 전, 파일 전송 프로토콜과 고퍼가 주요 정보 공유 수단이던 시절에 텍스트 기반 정보를 체계적으로 찾는 데 중요한 도구였다.
베로니카와 함께 저그헤드라는 비슷한 고퍼 검색 도구도 등장했는데, 이 둘의 이름은 당시 인기 만화 시리즈의 등장인물에서 유래한 것으로 알려져 있다. 이들 초기 검색 도구는 웹 크롤러 기반의 현대 검색 엔진이 등장하기 전, 사용자가 네트워크에 산재한 정보에 접근할 수 있는 기반을 마련했다는 점에서 역사적 의미를 가진다.
9.3. 외로운 방랑자
9.3. 외로운 방랑자
월드 와이드 웹 원더러는 1993년 매튜 그레이가 개발한 최초의 웹 로봇이다. 이 소프트웨어의 주요 목적은 당시 급속히 성장하던 월드 와이드 웹의 규모를 측정하는 것이었다. 원더러는 웹상의 서버와 URL을 자동으로 탐색하며 데이터를 수집했고, 이렇게 축적된 정보는 최초의 웹 데이터베이스 중 하나인 Wandex의 기초가 되었다.
초기 버전의 원더러는 네트워크 성능에 부정적인 영향을 미쳤는데, 이는 로봇이 같은 페이지에 하루에도 수백 번씩 접근하는 등 비효율적인 크롤링 방식을 보였기 때문이다. 이로 인해 웹 로봇의 존재 자체가 인터넷에 유익한지 해로운지에 대한 논쟁을 촉발시키기도 했다.
이러한 논란에 대한 대응으로 마르타인 코스터는 같은 해 10월 ALIWEB을 만들었다. 원더러와 같은 자동화된 크롤러를 사용하지 않는 ALIWEB은 웹사이트 관리자가 직접 색인 정보를 제출하는 방식을 택했다. 이는 네트워크 부하를 줄이는 장점이 있었으나, 사용자의 적극적인 참여에 의존해야 한다는 한계로 인해 대중적인 검색 엔진으로 성장하는 데는 어려움을 겪었다.
9.4. 익사이트
9.4. 익사이트
익사이트는 1993년 2월 스탠퍼드 대학교의 6명 학부생이 설립한 초기 검색 엔진이다. 처음에는 '아키텍스트'라는 이름으로 시작했으며, 단어 간의 관계에 대한 통계 분석을 활용하여 인터넷 정보를 효율적으로 검색하는 것을 목표로 했다. 1995년에 정식으로 출시된 익사이트는 최초의 본격적인 상업용 검색 엔진 중 하나로 평가받으며, 당시 야후! 및 라이코스와 같은 경쟁자들과 함께 인기를 끌었다.
이 검색 엔진의 기술은 웹마스터들이 자신의 웹사이트에 통합할 수 있는 검색 소프트웨어 버전으로도 제공되었다. 익사이트는 또한 초기 검색 로그 분석 연구의 중요한 자료원이 되었으며, 사용자 검색 행동을 이해하는 데 기여했다. 2001년 인포스페이스에 인수되기 전까지 익사이트는 독립적인 검색 서비스로서 닷컴 버블 시절 상당한 주목을 받았다.
9.5. 야후!
9.5. 야후!
야후!는 1994년 1월 제리 양과 데이비드 파일로가 설립한 미국의 포털 사이트이자 초기 인터넷 검색 서비스의 대표 주자이다. 처음 출시된 제품은 웹 디렉터리인 야후! 디렉터리로, 사람들이 직접 웹사이트를 분류하고 등록하는 방식으로 운영되었다. 1995년에는 이 디렉터리를 검색할 수 있는 기능이 추가되면서, 사용자들이 관심 있는 웹 페이지를 찾는 인기 있는 방법 중 하나로 자리 잡았다. 당시 야후!의 검색 기능은 웹 페이지의 전체 텍스트를 색인화한 것이 아니라, 등록된 디렉터리 내에서만 작동했다는 점이 특징이다.
1990년대 후반에는 익사이트, 알타비스타, 라이코스 등과 함께 주요 검색 엔진으로 경쟁했다. 2000년대 초반 구글이 부상하기 전까지 야후!는 가장 인기 있는 검색 포털 중 하나였다. 이후 야후!는 검색 기술을 강화하기 위해 잉크토미를 2002년에, 오버추어(올더웹과 알타비스타를 소유)를 2003년에 인수하는 등 확장을 거듭했다. 2004년에는 자체 검색 엔진 기술을 출시하기도 했다.
그러나 2009년 7월, 야후!는 경쟁사인 마이크로소프트와의 협약을 통해 야후! 검색의 백엔드 기술을 빙 엔진으로 전환하는 결정을 내렸다. 이로 인해 야후!는 독자적인 검색 인프라 운영을 축소하게 되었다. 현재 야후!는 검색 엔진 서비스 외에도 이메일, 뉴스, 금융 정보 등 다양한 포털 서비스를 제공하고 있으며, 2025년 기준으로 전 세계 검색 시장 점유율은 약 1.3% 정도를 기록하고 있다. 특히 일본과 대만에서는 현지화된 서비스인 야후! 재팬과 야후! 타이완이 각국에서 높은 점유율을 보이고 있다.
9.6. 라이코스
9.6. 라이코스
라이코스는 1994년 7월 카네기 멜런 대학교에서 마이클 모들린이 개발한 초기 웹 검색 엔진이다. 당시 등장한 여러 검색 엔진 중 하나로, 상업적 사업으로 성장하여 주요 검색 서비스가 되었다. 라이코스는 자동화된 웹 크롤러를 사용하여 웹 페이지를 수집하고 색인을 구축하는 방식으로 운영되었으며, 사용자에게 키워드 기반 검색 서비스를 제공했다.
1990년대 중반 넷스케이프는 사용자에게 다양한 검색 옵션을 제공하기 위해 주요 검색 엔진 5곳과 계약을 맺었는데, 라이코스는 야후!, 매젤란, 인포시크, 익사이트와 함께 그중 하나로 선정되었다. 이는 라이코스가 당시 시장에서 중요한 위치를 차지하고 있음을 보여준다. 라이코스는 초기 인터넷 사용자들이 웹에서 정보를 찾는 주요 통로 중 하나로 자리 잡았다.
라이코스는 기술적으로 역색인 시스템을 활용하여 효율적인 검색을 가능하게 했으며, 웹의 급속한 성장과 함께 진화했다. 시간이 지나며 구글과 같은 새로운 경쟁자의 등장으로 시장 점유율에서 밀려났지만, 라이코스는 웹 검색의 역사에서 상업적 검색 엔진의 선구자 역할을 한 것으로 평가받는다. 이 서비스는 현재까지도 운영 중인 것으로 알려져 있다.
9.7. 웹 검색 엔진의 종류
9.7. 웹 검색 엔진의 종류
웹 검색 엔진은 정보를 수집하고 색인화하며 사용자에게 제공하는 방식에 따라 크게 세 가지 유형으로 분류된다. 첫 번째는 로봇 또는 크롤러에 의해 구동되는 시스템이다. 이 유형의 검색 엔진은 웹 크롤러라고 불리는 자동화된 소프트웨어 프로그램이 인터넷을 탐색하며 웹 페이지의 내용을 수집하고, 이를 중앙 데이터베이스에 색인화한다. 대표적인 예로 구글, 빙, 야후! 등이 있으며, 이들은 방대한 양의 웹 페이지를 실시간으로 색인하여 사용자의 쿼리에 맞는 결과를 제공한다.
두 번째 유형은 인간 기반 검색 엔진 또는 웹 디렉터리이다. 이는 야후! 디렉터리처럼 인간 편집자가 웹사이트를 분류하고 설명을 추가하여 디렉터리 구조를 만드는 방식에 의존한다. 사용자는 카테고리를 탐색하거나 디렉터리 내에서 검색하여 정보를 찾는다. 이 방식은 로봇이 수집한 것보다 품질이 높고 신뢰할 수 있는 정보를 제공할 수 있지만, 규모와 업데이트 속도에 한계가 있다.
세 번째는 위 두 방식을 결합한 하이브리드 검색 엔진이다. 초기의 알타비스타나 현대의 많은 포털 사이트들이 이에 해당하며, 자동 크롤링 결과와 인간이 관리하는 디렉터리 정보를 함께 제공한다. 또한, 사용자의 개인정보를 수집하지 않는 덕덕고나, 특정 주제에 특화된 베르티칼 서치 엔진 등 다양한 목적과 기술을 가진 검색 엔진들이 존재한다. 이러한 종류의 차이는 사용자가 얻는 검색 결과의 범위, 신선도, 관련성에 직접적인 영향을 미친다.
