Como Pensa o Google

Fazer uma web otimizado para SEO

Agora que você sabe o que é SEO e quais são principais fatores que o Google leva em conta quando o posicionamento de um site,SEO BH, você precisa para aprender o que você tem que fazer para tornar a sua página tem oportunidades para posicionar-se nas SERPs .

Neste capítulo, discutiremos como para otimizar os principais fatores que levam posicionamento e SEO problemas que surgem quando se otimizar a web e as possíveis soluções.

SEObh

1. ACESSIBILIDADE

O primeiro passo para otimizar o SEO de um site é para permitir o acesso a motores de busca para o nosso conteúdo. Ou seja, você deve verificar se a web é visível aos olhos dos motores de busca e, especialmente, como eles estão visualizando a página.

Por várias razões que explicou mais tarde pode ser o caso de que os motores de busca não podem ler corretamente uma teia, um pré-requisito para o posicionamento.

Aspectos a considerar para a boa acessibilidade

  • Robots arquivo txt
  • meta tag robots
  • códigos de status HTTP
  • Mapa do Site
  • estrutura de teia
  • JavaScript e CSS
  • velocidade da web

Robots arquivo txt

O arquivo robots.txt é usada para impedir que os motores de busca doacesso e indexação de certas partes de um web. É muito útil para impedir o Google de mostrar nas páginas de resultados de pesquisa que não querem. Por exemplo, no WordPress, acesse administrador de arquivos, o arquivo robots.txt ficaria assim:

exemploagente de usuário: *

Proibir: / wp-admin

OLHO: Você deve ter muito cuidado para não para bloquear o acesso dos motores de busca para todo o seu web sem perceber como neste exemplo:

exemploagente de usuário: *

Proibir: /

Temos de verificar se o arquivo robots.txt não está bloqueando qualquer parte importante do nosso site. Nós podemos fazê-lo por visitar o www.ejemplo.com/robots.txt url ou através do Google Webmaster Tools em> “robôs Tester” Track ” .txt “

O arquivo robots.txt também pode ser utilizado para indicar onde está o nosso mapa do site adicionando a última linha do documento.

Portanto, um exemplo de full robots.txt para WordPress ficaria assim:

exemploUser-agent: *

Proibir: / wp-admin

Mapa do Site: http: //www.ejemplo.com/sitemap.xml

Se você quiser ir mais fundo em detalhes sobre este arquivo, recomendamos que você visite o web com informações sobre o padrão.

meta tag Robot

A meta tag “robots” é usado para informar os motores de robôs de busca, se puderem ou não a indexar a página e se eles devem seguir os links que ele contém.

Ao analisar uma página que você deve verificar se há qualquer meta tag de erro que está a bloquear o acesso a estes robôs. Este é um exemplo de como estes marcadores seria no código HTML:

exemplo<Meta name = “robots” content = “noindex, nofollow”>

Além disso meta tags são muito úteis para impedir o Google de indexar páginas que não lhe interessam, como páginas ou filtros, mas siga os links para continuar a acompanhar a nossa web. Neste caso, a etiqueta iria ler-se:

exemplo<Meta name = “robots” content = “noindex, siga”>

Podemos verificar as meta tags clicando com o botão direito na página e selecionar “código de visualização da página de origem.”

Ou se vamos um pouco mais longe com a ferramenta gritando sapopodemos ver de relance as páginas que têm implementado tudo sobre a web que rotular. Você pode vê-lo na aba “directivas” e no campo da “Robots Meta 1”. Depois de ter localizado todas as páginas com esta tag apenas você tem que eliminá-los.

códigos de status HTTP

No caso em que qualquer URL retorna um código de status (404, 502, etc.), os usuários e os motores de busca não podem acessar esta página. Para identificar esses URLs Também recomendamos o uso gritando sapo, porque ele mostra rapidamente o estado de todas as URLs em sua página.

IDEA: Cada vez que você faz uma nova pesquisa gritando exportações sapo resultar em um arquivo CSV. Assim, você pode reunir tudo em um Excel depois.

Mapa do Site

O mapa do site é um arquivo XML que contém uma lista das páginas do site, juntamente com algumas informações adicionais, tais como a frequência com que a página muda seu conteúdo, quando foi a última atualização, etc.

Um pequeno trecho de um mapa do site seria:

exemplo<Url>

<Loc> http://www.ejemplo.com </ loc>

<Changefreq> diário </ changefreq>

<Prioridade> 1,0 </ priority>

</ Url>

pontos importantes sobre o Sitemap deve verificar se:

  • Siga os protocolos, se não o Google não vai processá-lo corretamente
  • Ser enviados para o Google Webmaster Tools
  • Ser atualizado. Quando você atualizar o seu site, certifique-se que você tem todas as novas páginas no seu mapa do site
  • Todas as páginas estão no mapa do site estão sendo indexados pelo Google

Se a web não tem qualquer mapa do site nós criamos um, após quatro etapas:

  1. Excel gera todas as páginas que deseja que sejam indexados, vamos usar o mesmo Excel criamos, fazendo a busca de códigos de resposta HTTP
  2. Criar o mapa do site. Para fazer isso, recomendamos a ferramentaGenerators Mapa do Site (simples e abrangente)
  3. Compare suas páginas para se destacar, e que estão no mapa do site e remove excel não queremos ser indexado
  4. Faça o upload do mapa do site através do Google Webmaster Tools

estrutura de teia

Se a estrutura de um web é muito profundo para o Google vai achar que é mais difícil chegar a todas as páginas. Então isso é recomendado que a estrutura não mais de 3 níveis de profundidade (sem contar com a casa) desde que o robô do Google tem uma faixa limitada uma vez web, e os mais níveis você tem que passar por menos tempo será o de acesso a páginas mais profundas

O melhor é sempre criar uma estrutura web na horizontal e não na vertical.

estrutura vertical

 

estrutura horizontal

 

Nosso conselho é fazer um esboço de toda a web, onde você pode ver facilmente os níveis que tem, a partir de casa para a página mais profunda e calcular quantos cliques que leva para chegar a ele.

Localize a que nível é cada página e se você tem links apontando para ele novamente usando Screaming Frog.

JavaScript e CSS

Embora nos últimos anos o Google tornou-se mais inteligente ao ler essas tecnologias deve ter cuidado, porque o JavaScript pode esconder parte do nosso conteúdo e CSS pode mexer-lo mostrá-lo em outra ordem que o Google vê-lo.

Existem dois métodos para a forma como o Google lê uma página:

  • plugins
  • Comando “cache”

plugins

Plugins como Web Developer ou Disable-HTML nos ajudar a ver como “arrasta” o motor de busca da web. Para isso, você abrir uma dessas ferramentas e desativar o JavaScript. Fazemos isso porque todos nós pull-down menus, links e textos deve ser capaz de ser lido pelo Google.

Então nós desligamos o CSS, porque queremos ver a ordem real do conteúdo e CSS pode mudar isso completamente.

Comando “cache”

Outra maneira de saber como o Google vê um site está usando o “cache:” comando

Enter “cache: www.miejemplo.com” na caixa de busca e clique em “Versão para impressão”. Google irá mostrar-lhe uma foto onde você sabe como ler um site e quando foi a última vez que concordou com ele.

Sim, para a função de comando “cache” adequadamente nossas páginas já devem ser indexados nos índices do Google.

Uma vez que o Google indexa pela primeira vez uma página determina quantas vezes você visitar novamente para atualizações. Isso vai depender de a autoridade e relevância do domínio a que pertence essa página e quantas vezes ele é atualizado.

Seja através de um plug-in ou o comando “cache:” certifique-se de que satisfaz os seguintes pontos:

  • Você pode ver todos os links no menu.
  • Todos os links da web são clicáveis.
  • Nenhum texto que não é visível com CSS e Javascript habilitado.
  • Os links mais importantes estão no topo.

velocidade de carregamento

robô do Google tem um tempo limitado para navegar em nosso site, pelo menos, mais tarde, cada página carregar mais páginas conseguir obter tempo.

Você também deve observar que uma carga de site muito lento pode fazer a sua taxa de rejeição a subir rapidamente, por isso torna-se um fator vital não só para o posicionamento, mas também para uma boa experiência do usuário.

Para visualizar a velocidade de carregamento do seu site, recomendamos Google Page Speed ​​, lá você pode verificar quais são os problemas que retardam o seu site na Além de encontrar as dicas que o Google oferece para lidar com eles são. Concentre-se em pessoas com alta e média prioridade.

INDEXIBILITY

Uma vez que o robô do Google concordou em uma página o próximo passo é que a indexada, essas páginas serão incluídas em um índice onde eles são classificados de acordo com seu conteúdo, sua autoridade e sua relevância para tornar mais fácil e mais rápido para o acesso do Google -los.

Como verificar se o Google indexou o meu site corretamente?

A primeira coisa que você tem que fazer para ver se o Google indexou o seu site corretamente é a busca para o “site:” de comando, assim, o Google vai dar -lhe o número aproximado de páginas que você indexados nosso site:

 

Se você tiver vinculado o Google Webmaster Tools em seu site você também pode verificar o número real de páginas indexadas pelo Google vai Índice> Índice de Estado

Sabendo (mais ou menos) o número exato de páginas em seu site, esta informação irá ajudá-lo a comparar o número de páginas indexadas pelo Google com o número de páginas reais do seu site. Eles podem acontecer três cenários:

  1. O número em ambos os casos é muito similar. Ele significa que tudo está em ordem.
  2. O número na pesquisa do Google é menor, o que significa que o Google não está indexando muitos páginas.Esto acontece porque ele não pode acessar todas as páginas da web. Para resolver esta parte analisa a acessibilidade deste capítulo.
  3. O número na pesquisa do Google é mais elevado, o que significa que seu site tem um problema de conteúdo duplicado. Certamente a razão que há mais páginas indexadas do que realmente existe em seu site é ter conteúdo duplicado ou que o Google está indexando as páginas que não deseja ser indexado.

conteúdo duplicado

Ter conteúdo duplicado significa que, para vários URLs têm o mesmo conteúdo. Este é um problema muito comum que muitas vezes é involuntária e também pode ter efeitos negativos sobre o posicionamento no Google.

Estas são as principais razões para o conteúdo duplicado:

  • A página “canonização”
  • Parâmetros na URL
  • paginação

É a causa mais comum de conteúdo duplicado e ocorre quando a sua home page tem mais de um URL:

exemploejemplo.com

www.ejemplo.com

ejemplo.com/index.html

www.ejemplo.com/index.html

Cada um dos acima da meta mesma página com o mesmo conteúdo, se você não pode dizer ao Google o que é o correto não sabe o que tem para a posição e essa posição pode não apenas a versão que você deseja.

Solução. Não são 3 opções:

  1. Adicione um redirecionamento no servidor para garantir que existe apenas uma página apresentado aos utilizadores.
  2. Subdomínio definir o que queremos que o principal ( “www” ou “não-www”) no Google Webmaster Tools. Como a Defina o subdomínio.
  3. Adicionando uma tag “rel = canonical” em cada versão que aponta para é considerado correto.
  • Parâmetros na URL

Existem muitos tipos de parâmetros, especialmente em e-commerce: produtos de filtro (cor, tamanho, pontuação, etc.), gestão (preço mais baixo, relevância, preço mais elevado, grade, etc.) e as sessões de utilizador. o problema é que muitas dessas configurações não alteram o conteúdo da página e que cria muitas URLs para o mesmo conteúdo.

www.ejemplo.com/boligrafos?color=negro&precio-desde=5&precio-hasta=10

É este exemplo, existem três parâmetros: cor, preço preço mínimo e máximo.

soluçãoAdicionar um rótulo “rel = canonical” para a página original, e evitar qualquer confusão pelo Google com a página original.

Outra solução possível é indicado através de Google Webmaster Tools> Controlar> parâmetros de URL que parâmetros deve ignorar Google ao indexar as páginas de um website.

  • paginação

Quando um artigo, a lista de produtos ou páginas de etiquetas e categorias têm mais de uma página, as questões de conteúdo duplicado pode ocorrer mesmo que as páginas têm conteúdo diferente, porque todos estão focados no mesmo assunto. Este é um problema enorme nas páginas de e-commerce, onde existem centenas de itens na mesma categoria.

soluçãoAtualmente, o rel = próximos e rel = prev tags permitem motores de busca saber quais as páginas que pertencem à mesma categoria / publicação e, portanto, pode se concentrar posicionamento potencial na primeira página.

Usando os parâmetros Next e Prev

1. Adicione o rel = próximo na parte do código para a primeira página:

  • link rel = “next” href = “http://www.ejemplo.com/page-2.html” />

2. Adicionar em todas as páginas exceto a primeira e última rel = próximos e rel rótulos = prev

  • link rel = “prev” href = “http://www.ejemplo.com/page-1.html” />
  • link rel = “next” href = “http://www.ejemplo.com/page-3.html” />

3. Adicione à última página rel = prev

  • link rel = “prev” href = “http://www.ejemplo.com/page-4.html” />

Outra solução é a olhar para o parâmetro de paginação na URL e introduza -o no Google Webmaster Tools para não ser indexado.

canibalização

Canibalização de palavras-chave em um Web ocorre quando há várias páginas concorrentes para as mesmas palavras-chave. Isso confunde o motor de busca não saber o que é o mais relevante para a palavra-chave.

Este problema é muito comum em e-commerce, porque ter várias versões do mesmo produto “ataque” com as mesmas palavras-chave.Por exemplo, se você vender um livro em versão de bolso, capa dura e versão digital, 3 páginas com praticamente o mesmo conteúdo.

soluçãoCriar uma home page do produto, do qual você acessa as páginas de formatos diferentes, que irá incluir uma tag canônica que aponta para essa página. Idealmente, cada palavra-chave será sempre focada em uma única página para evitar qualquer problema de canibalização.

3. CONTEÚDO

Já que nos últimos anos tornou-se bastante claro que o conteúdo é rei Google. Vamos oferecer um grande trono então.

O conteúdo é a parte mais importante de um site e, tanto quanto é o nível de SEO bem otimizado, se não for relevante no que diz respeito às buscas que os usuários nunca irão aparecer nas primeiras posições.

Para fazer uma boa análise do conteúdo de nossa web você tem algumas ferramentas à sua disposição, mas o mais útil é para usar a página com o JavaScript e CSS desativado conforme explicado acima.Desta forma, você vai ver o conteúdo que você está lendo o Google realmente e em que ordem ele está pronto.

Ao analisar o conteúdo das páginas que você deve perguntar a si mesmo várias perguntas que irá guiá-lo através do processo:

  • Será que a página não tem conteúdo suficiente? Não é nenhuma medida padrão de quanto é “suficiente”, mas deve conter pelo menos 300 palavras.
  • O conteúdo é relevante? Deve ser útil para o leitor, simplesmente pergunte a si mesmo se você ler isso. Seja sincero.
  • Faça você ter palavras-chave importantes nos primeiros parágrafos?Em além destes usamos termos relacionados porque o Google é termos ligando muito eficazes.

Uma página nunca vai posicionar para algo que não contenhaTUITÉALO

  • Faça você tem palavra-chave enchimento ? Se o conteúdo da página “pecados” de palavras-chave em excesso para o Google não vai fazer nenhuma graça. Não é nenhum número exato que define umapalavra-chave densidade chave perfeita, mas o Google aconselhados a ser tão natural quanto possível.
  • Do que você tem erros de ortografia?
  • É fácil de ler? Se encontrá-lo leitura entediante, vai ficar bem.Parágrafos não deve ser muito longo, a carta não deve ser um tamanho muito pequeno e é recomendável que você tem fotos ou vídeos que reforçam o texto. Lembre-se sempre pensar sobre o que você escreve público.
  • O Google pode ler o texto da página? Temos que impedir que o texto está dentro de Flash, imagens ou Javascript. Isto irá verificar para ver a versão em texto do nosso site no Google usando o comando de cache: www. ejemplo.com e selecionando esta versão.
  • o conteúdo é bem distribuído? Tem suas tags H1, ​​H2, etc imagens correspondentes são layouts bem criados etc.
  • É passíveis de ligação? Se você não fornecer ao usuário como para compartilhar ele provavelmente vai não. Ele inclui botões para compartilhar em redes sociais em locais visíveis na página que não interfiram com visualizar o conteúdo seja um vídeo, foto ou texto.
  • É atual? O conteúdo mais-lo atualizado será a sua maior frequência de acompanhamento do Google em seu site e melhor experiência do usuário.

conselhoVocê pode criar um excel com todas as páginas, textos e palavras-chave que você deseja que apareçam neles, por isso vai ser mais fácil de ver onde você reduzir ou aumentar o número de palavras-chave em cada página.

4. META TAGS

As meta tags ou meta tags são usadas para transmitir informações aos motores de busca sobre o que a página é quando eles têm para classificar e mostrar seus resultados. Estes são os rótulos mais importantes que devemos considerar:

título

O Tag do título é o mais importante dentro do elemento meta-tag. É a primeira coisa que aparece nos resultados no Google.

Ao otimizar o título deve levar em conta que:

  • O rótulo deve estar no <head> </ head> código.
  • Cada página deve ter um título único.
  • não deve exceder 70 caracteres, se não apareça corte.
  • Deve ser descritivo sobre o conteúdo da página.
  • Ele deve conter a palavra-chave para o qual estamos a optimizar a página.

Nunca devemos abusar das palavras-chave no título, isso fará com que os usuários desconfiados e Google penso que nós estamos tentando para enganar você .

Outro aspecto a considerar é onde colocar a marca “”, ou seja: o nome da web, geralmente é geralmente colocado no final para dar mais importância às palavras-chave, separando estes o nome da web com um hífen ou uma barra vertical.

Meta-descrição

Embora não seja um fator crítico para o posicionamento de um web afeta de forma significativa para a taxa de cliques (click-through rate) nos resultados da pesquisa, aproximadamente.

Para a meta-descrição irá seguir os mesmos princípios como o título, apenas o seu comprimento não deve exceder 155 caracteres. Para ambos os títulos de meta-descrições devem evitar a duplicação, aqui podemos ver no Google Webmaster Tools > Pesquisa Appearance> Melhorias de HTML.

meta palavras-chave

No momento as palavras-chave meta foram um fator muito importante de posicionamento, mas o Google descobriu como é fácil de manipular os resultados de pesquisa por isso eliminado como um fator no posicionamento.