검색엔진최적화 테크니컬

검색엔진최적화는 검색엔진의 알고리즘을 이해하여 웹사이트의 테크니컬한 요소들을 잘 갖추는 것에서부터 시작합니다. 테크니컬한 요소들은 종종 컴퓨터 코딩이나 전문적인 컴퓨터 지식을 필요로 하기 때문에 많은 사람들이 쉽게 어려움을 느끼곤 하는데요,  오늘은 검색엔진최적화를 처음 시작하는 분들이 가장 궁금해하는 기본적인 테크니컬 SEO에 대한 질문과 답변을 드리고자 합니다.

검색엔진최적화

1. 메타키워드 이외에 검색엔진최적화에 있어서 중요한 HTML 태그는 무엇인가요?

구글과 같은 검색엔진에게 메타키워드는 더 이상 중요한 요소가 아닙니다. 아래의 네가지 항목들이 더 중요하다고 볼 수 있습니다.

(1) 타이틀: 인터넷 브라우저의 제일 위에 위치한 텍스트이며, 검색엔진은 이것을 웹사이트의 타이틀이라고 인식합니다.

타이틀태그

(2) 메타 디스크립션: 웹페이지에 대한 요약된 설명글입니다.

메타디스크립션

(3) H1:   HTML에서 제목태그에 해당하며 주로 페이지의 제목이 되거나 페이지에서 강조하고자 하는 부분이 되기도 합니다.

(4) 이미지 Alt태그: 이미지에 대한 소개를 삽입하는 부분입니다.

2. URL 및 페이지 제목의 적당한 길이는 어떻게 되나요?

페이지 제목은 공란 포함 영문 기준 55~60자가 이상적입니다. URL 길이의 경우 이론적으로 정해진 제한은 없으나, 대부분의 인터넷 브라우저는 최대 2083자로 제한을 둡니다. 현실적으로 좋은 URL은 사용자가 URL을 한 눈에 확인할 수 있을 정도로 적당한 길이면서 웹페이지의 내용에 대해 대략적으로 소개해줄 수 있어야 합니다.

3. 타이틀 태그와 메타 디스크립션을 동일하게 써도 괜찮은가요?

큰 문제는 없습니다. 그러나 웹사이트의 각 페이지는 페이지의 내용과 연관된 키워드를 포함한 타이틀태그를 사용하는 것이 이상적입니다. 타이틀 태그의 길이는 영문 기준 공란포함 60자를 넘기지 않는 것을 권장합니다. 마찬가지로 웹사이트의 각 페이지는 영문 기준 공란포함 160자 이하의 메타 디스크립션을 가지는 것이 좋습니다. 잘 쓰여진 메타 디스크립션은 CTR (Click Through Rate, 클릭률) 을 높이는데 큰 도움이 됩니다.

4. 서브폴더와 서브도메인 중 어떤 구조가 더 나은가요?

서브폴더 – http://www.domain.com/blog

서브도메인- http://blog.domain.com

검색엔진최적화를 위해서는 서브폴더 구조가 더 유용합니다.

+ 새로운 블로그포스팅이 등록되면 구글의 검색로봇이 수일 내로 크롤링할 가능성이 높습니다.

+ 블로그는 상위사이트의 authority를 상속 받아 높은 크레디트를 가집니다. (보통 신규 도메인은 낮은 크레디트를 갖습니다.)

+ 블로그 콘텐츠와 관련된 백링크 및 소셜네트워크 멘션 등이 도메인 안의 다른 콘텐츠에 도움이 됩니다.

+ 더 나은 사용자경험(UX)을 제공합니다.

5. 다국어 웹사이트는 어떻게 최적화할 수 있나요?

다국어 웹사이트가 언어별 검색에서 상위에 오르도록 하는 작업을 인터네셔널 혹은 글로벌 SEO라고하는데요, 검색엔진이 웹사이트를 국가/언어별로 잘 식별할 수 있도록 해주는 작업을 일컫습니다. 기본적으로 국가별 고유도메인을 사용하면서 HTML 의 <hreflang> 태그를 이용하여 페이지별 언어와 타겟 국가를 지정할 수 있습니다.

6. 구글이 수집하지 못하는 웹사이트는 어떻게 해야하나요?

다양한 이유로 구글이 웹사이트를 수집하는데 문제가 있을 수 있습니다. 아래 나열된 9가지 체크포인트를 확인해보세요.

(1) 도메인 문제

http://www.example.com

http://example.com

위 두 가지 방식의 도메인이 모두 여러분의 GWT계정에 추가되어 색인되었는지 체크하세요.

(2) robots.txt로 웹사이트/웹페이지 접속이 막힌 경우

여러분 사이트의 robots.txt 를 확인하여 접속이 막힌 사이트 및 페이지가 없는지 확인하세요. (robots.txt란?)

(3) sitemap.xml 문제

모든 웹사이트는 구글이 웹사이트를 색인하는데 가이드라인을 제공해주는 sitemap.xml이 있어야 합니다. 만약 웹사이트에 sitemap.xml이 없다면 해당 파일을 생성하여 제출하고, 기존에 제출한 사이트맵이 있는데도 인덱싱 문제가 있다면 sitemap.xml 파일을 수정하여 재제출해보세요. (sitemap.xml란?)

(4) 크롤링 문제

종종 구글이 웹사이트의 몇몇 페이지를 발견하지 못해 색인하지 못하는 경우가 있습니다. 이럴 때에는 구글 서치콘솔 (구: 구글 웹마스터툴)에 접속해 크롤링 오류 (Crawl Errors)를 클릭하여 문제가 있는지 확인해보세요.

(5) 중복된 콘텐츠 문제

웹사이트에 지나치게 중복된 콘텐츠가 많은 경우 검색엔진이 색인하는데 어려움이 있습니다.

(6) Privacy 설정 관련

워드프레스 사이트를 이용 중이라면 Privacy settings를 켜놓지 않았는지 확인해보세요.

(7) 웹사이트의 메타태그에 NOINDEX라고 쓰여진 경우

메타태그에 NOINDEX라고 쓰는 것은 로봇에게 웹사이트를 색인하지 말라고 말하는 것입니다. 아래와 같은 라인이 있다면 이를 삭제하세요, 머지않아 로봇이 색인을 시작할 것입니다.

META NAME=”ROBOTS” CONTENT=”NOINDEX, NOFOLLOW”

(8) AJAX/JavaScript 문제

동적으로 생성되는 페이지의 경우 구글이 수집하는데 어려움을 많이 겪습니다. 되도록 해당 페이지에서 구글 크롤러가 수집할 수 있도록 링크를 제공할 필요가 있습니다.

(9) 웹사이트 로딩시간이 긴 경우

구글은 로딩시간이 긴 웹사이트들을 좋아하지 않습니다. 웹사이트 로딩에 너무 긴 시간이 걸리는 경우, 구글은 색인을 하지 않고 넘어가곤 합니다.

이 외에도 호스트 다운타임이 자주 있는 경우, 웹사이트가 .htaccess로 막혀있으면 구글이 웹사이트를 수집하는데 어려움이 있을 수 있습니다.

 

답글 남기기

이메일은 공개되지 않습니다. 필수 입력창은 * 로 표시되어 있습니다.