매뉴얼

마케팅 네이버 및 구글에 검색노출이 잘되는 확인 방법. (robots.txt 관련)

 

네이버 및 구글과 같은 포털 사이트에 웹문서에 노출되는 원리에 대해서 간략하게 설명하도록 하겠습니다.

포털 사이트에서는 다양한 웹문서를 수집하기 위해 로봇을 개발 하여 주기적으로 우리 홈페이지의 정보를 수집하고 있습니다.

이때, 로봇이 홈페이지의 정보를 수집할때 www.도메인.com/robots.txt 파일의 정책에 따라 정보를 수집하게 됩니다.

 

이해를 돕기 위해 아래 링크를 클릭해서 문서 내용을 확인해보시기 바랍니다.

http://lab.anybuild.co.kr/robots.txt

-------------------------------------------------

User-agent: *
Disallow: /img_up/admin/
Disallow: /img_up/openbay_xml/
Disallow: /img_up/partner/
Disallow: /img_up/tmp_img/
Disallow: /img_up/tmp_php/
Disallow: /img_up/tmp_upload/
Disallow: /admin/
Sitemap:http://lab.anybuild.co.kr/API/google_sitemap/wdev.xml

-------------------------------------------------

소스 설명 드리도록 하겠습니다.

User-agent 는 허용할 포털사이트를 의미하며, * 표시는 모든 포털 사이트에 대해서 허용 한다는 뜻입니다.

Disallow는 수집하지 말아야 할 폴더라고 보시면 됩니다. 보통 관리자 모드는 포털사이트에서 수집할수도 없고, 수집할 필요도 없기 때문에 기본적으로 /admin 은 포함되어 있습니다.

Sitemap 은 홈페이지에 있는 모든 페이지 정보가 저장되어 있는 xml 파일 경로를 말합니다. (한번 열어서 보시기 바랍니다.)

 

여기서 가장 중요한 부분이 바로 Sitemap 이라고 봐야 할것 같습니다.

sitemap 파일이 없는 경우 로봇이 임의로 페이지를 찾아서 정보를 수집해야 하는데, 불가피하게 찾지 못하는경우가 많습니다.

예를 들어 자바스크립트로 된 링크, 또는 플래시안에 들어가 있는 링크정보는 수집할수 없기때문에 sitemap을 만들어 주는게 가장 효과적입니다.

하지만, 사이트 맵 xml 파일 만들기란 여간 쉬운일이 아닙니다.

예를 들어 메인 페이지 및  회사 소개 , 약도 페이지 처럼 정적인 페이지는 최초 한번 설정하면 되기때문에 문제가 없지만,

게시글이나 상품처럼 홈페이지 운영중 계속해서 유동적으로 변경(추가/수정/삭제)되는  컨텐츠인 경우, 일일이  사이트맵 xml 을 갱신한다는건 거희 불가능 하기 때문 입니다.

 

애니빌드는 이러한 문제점을 보안 하여, 모든 컨텐츠에 대해서  7일에 한번씩  자동으로 사이트맵xml 파일이 갱신되도록 개발 되어있습니다.

애니빌드 솔루션을 통해 홈페이지를 제작 했다면 http://내도메인.com/robots.txt 로 접속해서 sitemap이 있는지 확인해보시기 바랍니다.

만약 sitemap이 보이지 않는다면 아래 사항을 점검해보시기 바랍니다.

 

1. 정상적으로 도메인이 셋팅되어 있어야 합니다.

2. 호스팅비 및 이머니가  연체 되지 않았는지 확인 바랍니다.

3. 도메인 셋팅 후 8일 정도 기다려주셔야 합니다.

 

위 3가지 점검했는데도 sitemap이 보이지 않는다면 sitemap 자동 생성 프로그램이 설치 되지 않은 솔루션 이므로 이런경우 별도 연락 주시기 바랍니다.

 

 

 

 

게시글 공유 URL복사 cyworld
댓글작성

열기 닫기

댓글작성
top