(adsbygoogle = window.adsbygoogle || []).push({}); O_o :: 'WEBMASTER' 태그의 글 목록

'WEBMASTER'에 해당되는 글 1건

  1. 2008.10.21 Google 등록 웹마스터 가이드라인

Google 등록 웹마스터 가이드라인

|

웹마스터 가이드라인

다음 가이드라인을 준수하면 Google이 내 웹사이트를 찾아 색인에 포함시키고 순위를 지정하는 데 도움이 됩니다. 해당 가이드라인의 제안사항을 따르지 않는 경우에도 '품질 가이드라인' 섹션은 자세히 읽어보는 것이 좋습니다. 이 섹션에는 Google 색인에서 사이트가 완전히 삭제되거나 벌점이 부여되는 결과를 초래할 수 있는 불법 행위에 대해서도 간략히 설명되어 있습니다. 벌점이 부여된 사이트는 Google.co.kr 또는 Google 파트너 사이트의 검색결과에 더 이상 나타나지 않습니다.

사이트를 Google 검색결과에 추가할 준비가 되었으면 다음 단계를 따르세요.

  • 다른 관련 사이트를 귀하의 사이트에 연결합니다.
  • http://www.google.com/addurl.html에서 사이트를 Google에 제출합니다.
  • Google 웹마스터 도구의 일부로 Sitemap을 제출합니다. Google은 제출된 Sitemap을 사용하여 사이트의 구조를 확인하고 웹페이지를 모두 포함할 수 있도록 Google 검색범위를 확장합니다.
  • 페이지 상태를 알고 있어야 하는 모든 사이트에 귀하의 사이트가 온라인 상태임을 알립니다.
  • 오픈 디렉토리 프로젝트(Open Directory Project)나 Yahoo! 같은 관련 디렉토리뿐 아니라 기타 업종별 전문 사이트에도 사이트를 제출합니다.

디자인 및 콘텐츠 가이드라인

  • 계층 구조와 텍스트 링크가 명확한 사이트를 만듭니다. 모든 페이지는 하나 이상의 정적 텍스트 링크를 통해 도달할 수 있어야 합니다.
  • 사이트의 주요 섹션으로 이어지는 링크를 사이트 맵을 통해 사용자에게 제공합니다. 사이트 맵에 포함된 링크가 100개 이상이면 너무 복잡하므로 별도의 페이지로 나누는 것이 좋습니다.
  • 풍부한 정보를 제공하는 유익한 사이트를 만들고 콘텐츠를 명확하고 정확하게 설명하는 페이지를 작성합니다.
  • 자신의 페이지를 찾기 위해 사용자들이 어떤 단어를 입력할지 생각해 보고 실제로 사이트에 해당 단어를 사용합니다.
  • 이미지가 아닌 텍스트를 사용하여 중요한 이름이나 콘텐츠, 링크를 표시합니다. Google 크롤러는 이미지 안에 포함된 텍스트를 인식하지 못합니다.
  • TITLE 태그와 ALT 속성이 정확하며 해당 내용을 제대로 설명하고 있는지 확인합니다.
  • 깨진 링크가 있는지 확인하고 HTML을 수정합니다.
  • 동적 페이지(예: ? 문자가 포함된 URL)를 사용하는 경우, 일부 검색엔진 스파이더는 동적 페이지는 물론 정적 페이지도 크롤링하지 않을 수 있습니다. 매개변수의 경우 길이는 짧게, 개수는 적게 유지하면 도움이 됩니다.
  • 한 페이지에서 링크 수를 100개 미만으로 적절하게 유지합니다.

기술 가이드라인

  • 대부분의 검색엔진 스파이더가 Lynx와 매우 유사한 방식으로 사이트를 확인하므로 Lynx와 같은 텍스트 브라우저를 사용하여 사이트를 검토하세요. 자바스크립트, 쿠키, 세션 ID, 프레임, DHTML 또는 플래시 같은 고급 기능으로 인해 텍스트 브라우저에 전체 사이트가 표시되지 않으면 검색엔진 스파이더 역시 해당 사이트를 제대로 크롤링하지 못할 수도 있습니다.
  • 세션 ID나 사이트의 경로를 추적하는 인수 없이도 검색봇이 사이트를 크롤링할 수 있도록 허용합니다. 세션 ID나 경로 추적 인수를 사용하는 기술은 개별적인 사용자 동작을 추적할 때는 유용하지만, 봇의 액세스 패턴 면에서는 전혀 그렇지 않습니다. 해당 기술을 사용할 경우 봇은 모양은 다르지만 실제로 같은 페이지로 연결되는 URL을 삭제하지 못하므로 사이트가 색인에 완전히 등록되지 않을 수도 있습니다.
  • 웹서버가 If-Modified-Since HTTP 헤더를 지원하는지 확인합니다. 이 기능을 사용하면 웹서버에서 마지막 사이트 크롤링 후 콘텐츠 변경 여부를 Google에 알려줄 수 있습니다. 이 기능이 지원되면 크롤링에 사용되는 대역폭과 오버헤드가 줄어듭니다.
  • 웹서버에서 robots.txt 파일을 사용합니다. 이 파일은 크롤링할 디렉토리와 크롤링하지 않아야 할 디렉토리를 크롤러에 알려줍니다. 실수로 Googlebot 크롤러를 차단하지 않도록 최신 사이트 정보로 파일을 업데이트하세요. 로봇이 사이트를 방문할 때 로봇에게 지시하는 방법은 http://www.robotstxt.org/wc/faq.html 페이지를 참조하시기 바랍니다. robots.txt 파일을 올바르게 사용하고 있는지 테스트하려면 Google 웹마스터 도구에 있는 robots.txt 분석 도구를 사용하세요.
  • 회사에서 콘텐츠 관리 시스템을 구입한 경우 검색엔진 스파이더가 사이트를 크롤링할 수 있도록 해당 시스템에 콘텐츠를 내보내는 기능이 있어야 합니다.
  • robots.txt를 사용하면 검색결과 페이지 또는 기타 자동생성 페이지 등 검색엔진을 통해 방문하는 사용자에게 기존 페이지와 다른 추가적인 가치가 많지 않은 페이지들이 크롤링되는 것을 막을 수 있습니다.

품질 가이드라인

품질 가이드라인에서는 가장 일반적으로 볼 수 있는 기만 행위나 조작 행위를 설명합니다. 그러나 가이드라인에 나와 있지 않더라도 널리 알려진 웹사이트의 철자를 오기하여 등록함으로써 사용자를 기만하는 행위 등 위반의 소지가 있는 기타 행위 또한 Google의 금지 대상이 될 수 있습니다. 특정 기만 행위가 이 페이지에 나와 있지 않다고 해서 Google이 해당 행위를 허용하는 것으로 가정해서는 안 됩니다. 품질 가이드라인에 설명된 기본 원칙을 준수하기 위해 노력하면 이를 악용하는 사이트보다 사용자에게 보다 만족스러운 서비스를 제공할 수 있으므로 결국 해당 사이트의 게재순위도 높아지게 됩니다.

Google의 품질 가이드라인을 악용하는 것으로 판단되는 사이트가 있으면 https://www.google.com/webmasters/tools/spamreport?hl=ko에 서 해당 사이트를 신고하시기 바랍니다. Google은 스팸 퇴치를 위해 직접 나서기보다는 확장가능하고 자동화된 방법으로 문제를 해결해 나가고자 합니다. 접수되는 스팸 신고사항은 향후 스팸 시도를 파악하고 차단하는 확장가능한 알고리즘을 개발하는 데 사용됩니다.

품질 가이드라인 - 기본 원칙

  • 검색엔진이 아니라 사용자를 위한 페이지를 만듭니다. 사용자를 속이거나, 사용자에게 표시되는 콘텐츠와 다른 콘텐츠를 검색엔진에 제공하면 안 됩니다. 이런 행위를 흔히 '클로킹'이라고 합니다.
  • 검 색엔진 순위를 높이기 위한 변칙적인 행위는 피해야 합니다. 그러려면 경쟁 웹사이트에 대해 자신이 한 행위를 누구에게나 떳떳하게 설명할 수 있어야 합니다. 또한 이 작업이 사용자에게 도움이 되는지, 검색엔진이 없었더라도 같은 작업을 했을지 자신에게 되묻는 것도 유용한 판단 기준이 됩니다.
  • 사이트의 순위나 PageRank를 높이기 위해 만들어진 링크 전략을 사용하지 않습니다. 특히 웹 스패머나 웹 상의 '위험한 사이트'에 대한 링크가 있으면 사이트의 순위가 내려갈 수 있으므로 이러한 링크는 피하는 것이 좋습니다.
  • 페이지 제출, 순위 확인 등을 위해 허가되지 않은 컴퓨터 프로그램을 사용하지 않습니다. 이러한 프로그램을 사용할 경우 대량의 컴퓨팅 리소스가 소비될 뿐 아니라 Google 서비스 약관에도 위배됩니다. 자동 또는 프로그래밍 방식 검색어를 Google에 보내는 WebPosition Gold™ 같은 제품은 사용하지 않는 것이 좋습니다.

품질 가이드라인 - 세부사항

사이트가 본 가이드라인에 부합하지 않는 것으로 판단되면 가이드라인에 부합하도록 사이트를 수정하고 사이트 재검토 요청을 제출하시기 바랍니다.

And
prev | 1 | next