Como analisar um site – SEO Checklist

checklist

SEO ou Search Engine Optimization, são as ações necessárias para potencializar e melhorar o posicionamento de um site nas paginas de resultados naturais (orgânicos) do Google. O processo SEO começa por um bom estudo de palavras-chave, que tem como objetivo determinar quais são as palavras-chaves que conduzirão a um melhor resultado para o site, produto ou serviço, tomando em consideração o objetivo de posicionamento do nosso negocio e a freqüência de pesquisas realizadas no Google com as palavras-chaves escolhidas.

Além de realizar um detalhado estudo de palavras-chave é muito importante otimizar o site para que os robots do Google possam “ler” e guardar todo o conteúdo do nosso site em seus servidores. Se o Google consegue ver todo o nosso conteúdo será mais provável que os usuários possam encontrar nosso site. A otimização on-page está relacionada com dois pontos principais:

  • O conteúdo: O conteúdo tem que fazer uso das palavras-chave selecionadas no estudo. Além de ser um conteúdo original e atrativo para o usuário.
  • O código: o código tem que facilitar o trabalho do spider ou robot de busca para que este possa rastrear o site com facilidade e guardar-lo no servidor de Google.

Depois de ter otimizado o site é recomendado realizar tarefas de link building. O link building é a prática de reunir o máximo de links para seu site. Ele pode ser natural (ou seja, links de outros sites e webmasters que gostaram do seu conteúdo) ou artificial (conseguidos pela troca de links ou cadastro em diretórios e social bookmarkings).

Breve descrição de um checklist básico para analisar conteúdo:

  • Conteúdo: Ver que tem suficiente conteúdo em texto, potenciando as palavras chave selecionadas no estudo de palavras chave.
  • Títulos: Os títulos devem fazer uso das palavras chave selecionadas para esa determinada página: Estrutura ideal de um título é
    •   Palavra chave principal + Palavra chave secundaria – Marca
  • Meta descrições: Estas não afetam o posicionamento mas sim o CTR. Ter boas descrições da página pode aumentar o número de acessos. Tente escrever uma descrição real do que a página é e que convide o usuário a entrar.
  • Cabeçalhos: Tente inserir palavras chave nos encabeçados, tendo só um H1 por página.
  • Texto anchora dos links: Otimize os links internos do site inserindo palavras chave que descrevam as páginas que estão sendo linkadas.
  • Imagens: Tente escrever uma descrição “Alt” descritiva em cada imagem e se for possível utilize palavras chave nessa descrição. Evite utilizar imagens para inserir texto no site, é melhor escrever o texto diretamente. Também evite utilizar imagens para criar menus ou links, os links em texto são mais efetivos.
  • Conteúdo duplicado: É muito importante não ter problemas de conteúdo duplicado dentro do site. A continuação presentaré algumas causas de este problema:
    • Sessões de ID
    • Parametros em URLs
    • Paginação de comentarios
    • Paginas impresão
    • Canonicalização: Não se assuste com esta palavra. Simplesmente verifique que em seu site só tem uma versão de URL para cada página. Um exemplo típico é quando a home page pode ser acessada por http://www.exemplo.com ou http://exemplo.com. Si você consegue ver o mesmo conteúdo com ambas URLs, terá que fazer um redireccionamento 301 para que só uma delas funcione.
    • Index.asp e /
    • “/” vs. “sem /” no final das URLs

Breve descrição de um checklist básico para analisar aspectos técnicos do site:

  • Estrutura do site e URLs amigáveis: Utilize uma estrutura hierárquica e evite URLs dinamicas. URLs que utilizam palavras chave são mais efetivas para obter um melhor posicionamento.
  • Uso de Javascript: Tente evitar javascript obstrusivo no site. Também evite o uso dele para criar links ou menus.
  • Robots.txt: A função principal deste arquivo e bloquear a entrada de robôs no site ou em algumas paginas do site. Ele é importante porque é o primeiro arquivo que o robô de Google procura, ali ele deveria achar o endereço do teu sitemap.xml e saber que páginas ele não deve rastrear.
  • Sitemap.xml: É uma listagem de todas as paginas no teu site. Ajuda a indexação do site. Tem vários tipos de sitemap: video, imagens, geo-sitemaps e de usuarios.
  • Flash: Mesmo sendo bonitão o robô não gosta dele porque não compreende nada do que esta falando. Evite utilizar flash para mostrar conteúdo importante ou menus (links) no teu site. O uso de flash para um banner ou animação pequena esta bom.
  •  Frames / I-Frames: Evite o uso de frames ou iframes para mostrar conteúdo importante no site.
  •  Velocidade: A velocidade é muito importante para o posicionamento do site e também para a usabilidade do site. Os usuários e os robôs não tem paciência para esperar que teu site demore 8-10 segundos em carregar. Tem muitas coisas que podem ser feitas para melhorar a velocidade: Reduzir o tamanho das imagens, combinar arquivos CSS ou JS, melhorar o cache, utilizar sprites, etc…
  • Servidor: Evitar ter o site em servidores que tem sites que enviam spam, tem trojanos, malware, etc. Este tipo de servidor pode ser conhecido como um “bad neighborhood”. Também, muito importante evitar compartir ou ter vários sites no mesmo servidor que estão sendo trabalhados para posicionar para as mesmas palavras chave. O Florida Update do Google tem um filtro que não permite que mais de um site em um servidor posicione bem para as mesmas palavras chave.

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *