새소식

SEO

[SEO] 정보모음, 내 사이트가 검색이 잘 되도록 만들어보자!

  • -
728x90

안녕하세요. 이사작전.com의 개발자 말랑고양입니다.

오늘부터 내 사이트가 검색이 잘 되는 방법에 대해서 공유하려합니다.

내용이 많으므로, 포스팅이 간헐적으로 업데이트 되는 방식이 될 것 같습니다.


1. [중복페이지 방지] rel="canonical" 로 대표 페이지 설정합시다.

동일 컨텐츠를 가진 여러개의 페이지가 존재하는 경우 어떤 것이 본래 URL인지 모르기 때문에 canocical 설정은 중요합니다. 웹 서비스를 만들다보면, 같은 페이지인데 접속 방법이 여러개인 경우가 있습니다. 그럴경우, 검색 봇들은 중복페이지라며 검색 결과에 불이익을 줍니다. 그것을 방지하는 방법을 공유합니다.


https://이사작전.com/search.html?category=1

https://이사작전.com/789

https://이사작전.com/a456751

라는 3개의 URL이 모두 같은 페이지를 향하는 경우가 있다고 가정합니다.

그렇다면, 이 3가지 중에서 고객이 접속하기를 원하는 URL을 canocial에 작성하자! 라는 것입니다.

적용 예시는 아래와 같습니다.


<!-- seo -->

<link rel="canonical" href="https://xn--vf4b17jsctv.com/search.html?category=1"/>


reference : stackoverflow, dynamic Url & Canonical meta tag issue [closed]

url : https://stackoverflow.com/questions/17873655/dynamic-url-canonical-meta-tag-issue


2. robots.txt 설정

robots.txt를 업로드하는 위치는 최상위 폴더입니다. 예시를 들자면 https://이사작전.com/robots.txt와 같습니다.

https://이사작전.com/robots.txt 를 주소창에 검색했을 때, robots.txt가 보이면 됩니다.



robots.txt는 아래와 같이 설정합니다.


1
2
User-agent: *
Allow: /
cs

조금 더 부연설명을 하고자 합니다. robots.txt라는 것을 공부하다보면 곧 Disallow라는 옵션을 알게될 것입니다. Disallow로 설정한 페이지는 검색이 안되도록 막는 것인데, 사용하면 안됩니다. 보통 관리자페이지는 검색이 되면 안되니까, Disallow에 설정하시는 분들이 있는데 사용하시면 안됩니다. 해킹을 시작할 때, robots.txt로 사이트를 파악하기 때문이지요.



...


#SEO #검색엔진 #네이버봇 #구글봇 #검색엔진최적화

반응형
Contents

포스팅 주소를 복사했습니다

이 글이 도움이 되었다면 공감 부탁드립니다.