‘Destinatário errado?’ e ‘Lembrar do joão’.
Já incluiu o joão (seu chefe) em vez do joão (seu amigo) por engano em um e-mail? Ops! Ative ‘Destinatário errado?’ e o Gmail verificará se você deseja incluir o joão Silva em vez do joão Souza, com base nas pessoas para as quais você envia e-mails com mais frequência.
Com a função ‘Lembre-se do joão’ você pode começar a escrever um e-mail para um grupo de pessoas, e o Gmail sugerirá outros contatos para você incluir.
Confira esses recursos experimentais e muito mais na guia Labs, em Configurações do seu Gmail.
Computador flakier
Com centenas de milhares de computadores em seus centros de dados, o Google pode coletar uma abundância de dados do mundo real sobre como as máquinas realmente funcionam. Isso é exatamente o que a empresa fez para um trabalho de pesquisa que as taxas de erro encontradas são surpreendentemente altos.
"Descobrimos que a incidência de erros de memória e intervalo de taxas de erro em diferentes DIMMs (dual in-line memory modules), a ser muito superior ao relatado anteriormente," de acordo com o documento redigido em conjunto por Bianca Schroeder, professor da Universidade de Toronto , Google e Eduardo Pinheiro e Wolf-Dietrich Weber. "Erros de memória não são eventos raros."
A probabilidade de um erro de memória não corrigida vai caminho, se um módulo de memória tem experimentado um erro corrigíveis nos meses mais recentes - 431 vezes mais provável em alguns casos.
(Crédito: Bianca Schroeder, Eduardo Pinheiro, e Wolf-Dietrich Weber
Como muitos erros? Em média, um em cada três servidores do Google sofreu um erro de memória corrigível a cada ano e uma em cem um erro incorrigível, um evento que normalmente provoca um acidente.
4.000 erros por ano
Isso não pode soar como uma fração alta, mas tenha em conta estes factores, também: cada módulo de memória experimentou uma média de quase 4.000 erros corrigíveis por ano, e ao contrário de seu PC, os servidores do Google usar o código de correção de erros (ECC), que pode beliscar mais desses problemas pela raiz. Isso significa que um erro corrigível em uma máquina do Google provavelmente é um erro incorrigível em seu computador, disse Peter Glaskowsky, um analista do Envisioneering Group (e membro da rede blog da CNET).
ECC detecta quando uma célula de memória que deveria ter armazenado um terminou com um zero ou vice-versa, eo Google também usa algumas tecnologias de maior efeito de correção de erros chamado Chipkill, também, segundo o jornal. O estudo mediu a maioria dos servidores do Google, recolheu dados por quase dois anos e meio, o primeiro estudo em tal escala. eles disseram.
Pesquisas anteriores, como alguns dados de um cluster de 300 computadores, mostrou que os módulos de memória apresentavam taxas de erro corrigível de 200 a 5.000 falhas por mil horas de operação. O Google, porém, encontraram uma taxa muito mais elevada: 25.000 a 75.000 milhões de falhas por hora.
Apesar de erros de memória pode causar problemas graves, elas são muito menos graves do que PCs para servidores, Glaskowsky disse. Isso porque os servidores mantêm uma grande quantidade de dados na memória, escrevê-lo periodicamente, para o refúgio seguro em relação de um disco rígido, enquanto a maioria da memória de um PC possui apenas uma aplicação ou arquivos do sistema operacional ou, talvez, algum conteúdo que está sendo visto, mas não editado.
"Principalmente PCs de consumo não estão manipulando grandes quantidades de dados na memória", disse Glaskowsky. "Em muitos casos é apenas para visualização."
Mas os resultados do estudo estão a causar alguma a repensar a sua abordagem de software. Um programador do Google Chrome, John Abd-El-Malek, sugeriu que o código do navegador de banco de dados ser cindido em um processo separado do resto do código do navegador para reduzir os problemas de corrupção.
"Mesmo que apenas uma pequena fração deles são prejudiciais, distribuídos ao longo de milhões de usuários que muita corrupção", escreveu ele. Ele não conseguiu convencer pelo menos alguns dos seus pares de sua abordagem em particular, mas um cético, Scott Hess, respondeu: "Eu posso ver como seria torná-lo útil para minimizar a quantidade de dados SQLite mantém a memória, independentemente de onde vive SQLite ".
Outros mitos debunked
O documento também desafiou algumas outras crenças sobre a memória.
• A temperatura não é um negócio tão grande.
Temperaturas mais altas geralmente causam mais taxas de erro, mas as diferenças de temperatura no centro de dados do Google "teve um impacto marginal sobre a incidência de erros de memória." No entanto, a utilização do sistema, que tende a andar de mãos dadas com a temperatura alta, não causa mais erros.
• Erros de "Hard" são mais comuns do "pequenos erros".
Hard erros, que são irreparáveis problemas com hardware são mais propensos a culpa do que pequenos erros, que as questões são transitórias causadas por eventos aleatórios, tais como raios cósmicos. Este achado é interessante ", já que o trabalho anterior muito tem-se que erros de software são o modo de erro dominante na DRAM," os autores, referindo-se a memória de acesso aleatório dinâmico comum usada para a memória dos computadores principais.
• Novas gerações de módulos de memória, como DDR2, não são piores do que os mais velhos.
Houve a preocupação de que novos módulos de memória, que pack eletrônicos mais firmemente, sofrem maiores taxas de erro. "Na verdade, DIMMs utilizados nos mais três plataformas recentes apresentam menores taxas de erro corrigíveis que as duas plataformas mais antigas, apesar das capacidades em geral, superiores DIMM", escreveram os autores. "Isto indica que as melhorias na tecnologia são capazes de acompanhar as tendências do contraditório na ampliação DIMM."
Os investigadores basearam esta conclusão, em parte, a evidência de que um erro em um módulo de memória é um bom indicador da outra para vir - quer corrigíveis ou incorrigível. Pior, as taxas de erro subir com o tempo:
"Nós vemos um efeito surpreendentemente forte e início da idade sobre as taxas de erro", disse o jornal. "O envelhecimento sob a forma de aumento das taxas de erro corrigíveis estabelece depois de apenas 10 a 18 meses no campo."
Google substitui erro módulos de memória de bruços, mas é mais difícil para os usuários regulares do computador sem memória ECC para detectar problemas. Nos velhos tempos da computação pessoal e na década de 1990, a memória não era confiável o suficiente para que as pessoas realizaram testes de confiabilidade.
Mas pode ser que os testes poderiam voltar, talvez construído em software de sistema operacional, Glaskowsky disse: "Se as taxas de erro são altos o suficiente, pode haver um argumento para a execução de testes de memória novamente."
livraria
|
Google esta desenvolvendo paineis solares
O Google está decepcionado com a falta de ideias de investimento inovador no setor de tecnologia verde, mas a empresa está trabalhando para desenvolver o seu próprio paineis nova tecnologia que pode reduzir o custo de construção de usinas termelétricas por um quarto ou mais.
"Nós temos olhado materiais muito incomum para os espelhos, tanto para a superfície reflexiva, assim como o substrato que o painel está montado", da empresa Green Energy Czar Bill Weihl Reuters Global Climate and Alternative Energy Summit em São Francisco quarta-feira.
Google, conhecida pelo seu motor de busca na Internet, no final de 2007, disse que vai investir nas empresas e fazer investigação própria para produzir energia renovável disponível dentro de poucos anos.
Os engenheiros da empresa têm sido focados na tecnologia solar térmica, em que a energia do sol é usada para aquecer uma substância que produz vapor para girar uma turbina. Mirrors concentrar os raios do sol sobre a substância aquecida.
Weihl disse que o Google está à procura de reduzir o custo de fazer heliostats, os campos de paineis que tem que seguir o sol, por pelo menos um fator de dois ", de preferência um fator de três ou quatro."
"Normalmente o que estamos vendo é de R $ 2,50 a US $ 4 por watt (para) o custo de capital", disse Weihl. "Portanto, uma instalação de 250 megawatts, seria de R $ 600 milhões para US $ 1 bilhão. É muito dinheiro."
Que trabalha fora de 12 a 18 centavos um quilowatt-hora.
Google espera ter uma tecnologia viável para mostrar internamente em um par de meses, Weihl disse. Será necessário fazer testes acelerados para mostrar o impacto de décadas de desgaste dos novos paineis em condições de deserto.
"Nós não estamos lá ainda", disse ele. "Estou muito esperançoso que teremos espelhos que são mais baratas do que as empresas estão usando o espaço ..."
Outra tecnologia que o Google está trabalhando é de turbinas a gás que funcionam com energia solar, em vez de gás natural, uma idéia que tem o potencial de reduzir ainda mais o custo da eletricidade, Weihl disse.
"Em dois a três anos, nós poderíamos estar demonstrando um sistema-piloto de escala significativas que iria gerar uma grande quantidade de energia e seria claramente manufaturada a um custo que nos daria um custo anual de energia que seria no 5 cêntimos ou 5 sub centavos de dólar por quilowatt-hora escala ", disse Weihl.
Google está investido em duas empresas de energia solar térmica, eSolar e BrightSolar, mas não está trabalhando com essas empresas no desenvolvimento de paineis ou turbinas mais baratos.
Em observações de grande envergadura, Weihl também disse que os Estados Unidos precisam de levantar apoiada pelo governo, a investigação de forma significativa, especialmente nas fases iniciais de incentivar idéias inovadoras no setor.
A empresa tem vindo a avançar em questões de mudança climática como um esforço através de seu braço filantrópico do Google.org.
Weihl disse que há uma falta de empresas que têm idéias que possam ser consideradas avanços no setor de tecnologia verde. Depois de anunciar seus planos para criar a energia renovável a um preço inferior ao poder a partir do carvão, tem investido menos de US $ 50 milhões em outras empresas.
Weihl disse que o Google não tinha intenção de investir muito mais nos primeiros anos, mas que havia pouco para comprar.
"Eu diria que é razoável que poderia ser um pouco desanimado lá e do meu ponto de vista, não é direito de ser desencorajados a sério", disse ele. "Não há investimento suficiente entrando em fases iniciais do pipeline de investimento antes de fundos de entrar no jogo."
O governo E.U. precisa fornecer mais verbas para desenvolver idéias em fase de laboratório, disse ele.
"Eu gostaria de ver $ 20 bilhões ou $ 30 bilhões para 10 anos (para o setor)", disse Weihl. "Isso seria fabuloso. É muito claro o que temos visto não é suficiente."
"Nós temos olhado materiais muito incomum para os espelhos, tanto para a superfície reflexiva, assim como o substrato que o painel está montado", da empresa Green Energy Czar Bill Weihl Reuters Global Climate and Alternative Energy Summit em São Francisco quarta-feira.
Google, conhecida pelo seu motor de busca na Internet, no final de 2007, disse que vai investir nas empresas e fazer investigação própria para produzir energia renovável disponível dentro de poucos anos.
Os engenheiros da empresa têm sido focados na tecnologia solar térmica, em que a energia do sol é usada para aquecer uma substância que produz vapor para girar uma turbina. Mirrors concentrar os raios do sol sobre a substância aquecida.
Weihl disse que o Google está à procura de reduzir o custo de fazer heliostats, os campos de paineis que tem que seguir o sol, por pelo menos um fator de dois ", de preferência um fator de três ou quatro."
"Normalmente o que estamos vendo é de R $ 2,50 a US $ 4 por watt (para) o custo de capital", disse Weihl. "Portanto, uma instalação de 250 megawatts, seria de R $ 600 milhões para US $ 1 bilhão. É muito dinheiro."
Que trabalha fora de 12 a 18 centavos um quilowatt-hora.
Google espera ter uma tecnologia viável para mostrar internamente em um par de meses, Weihl disse. Será necessário fazer testes acelerados para mostrar o impacto de décadas de desgaste dos novos paineis em condições de deserto.
"Nós não estamos lá ainda", disse ele. "Estou muito esperançoso que teremos espelhos que são mais baratas do que as empresas estão usando o espaço ..."
Outra tecnologia que o Google está trabalhando é de turbinas a gás que funcionam com energia solar, em vez de gás natural, uma idéia que tem o potencial de reduzir ainda mais o custo da eletricidade, Weihl disse.
"Em dois a três anos, nós poderíamos estar demonstrando um sistema-piloto de escala significativas que iria gerar uma grande quantidade de energia e seria claramente manufaturada a um custo que nos daria um custo anual de energia que seria no 5 cêntimos ou 5 sub centavos de dólar por quilowatt-hora escala ", disse Weihl.
Google está investido em duas empresas de energia solar térmica, eSolar e BrightSolar, mas não está trabalhando com essas empresas no desenvolvimento de paineis ou turbinas mais baratos.
Em observações de grande envergadura, Weihl também disse que os Estados Unidos precisam de levantar apoiada pelo governo, a investigação de forma significativa, especialmente nas fases iniciais de incentivar idéias inovadoras no setor.
A empresa tem vindo a avançar em questões de mudança climática como um esforço através de seu braço filantrópico do Google.org.
Weihl disse que há uma falta de empresas que têm idéias que possam ser consideradas avanços no setor de tecnologia verde. Depois de anunciar seus planos para criar a energia renovável a um preço inferior ao poder a partir do carvão, tem investido menos de US $ 50 milhões em outras empresas.
Weihl disse que o Google não tinha intenção de investir muito mais nos primeiros anos, mas que havia pouco para comprar.
"Eu diria que é razoável que poderia ser um pouco desanimado lá e do meu ponto de vista, não é direito de ser desencorajados a sério", disse ele. "Não há investimento suficiente entrando em fases iniciais do pipeline de investimento antes de fundos de entrar no jogo."
O governo E.U. precisa fornecer mais verbas para desenvolver idéias em fase de laboratório, disse ele.
"Eu gostaria de ver $ 20 bilhões ou $ 30 bilhões para 10 anos (para o setor)", disse Weihl. "Isso seria fabuloso. É muito claro o que temos visto não é suficiente."
Google propõe sistema de pagamento para ler noticias na web
jornais dos estados unidos querem cobrar por artigos na internet
O Google elaborou uma proposta para estabelecer um sistema de pagamentos por acesso a notícias na internet que pode ajudar a atenuar os problemas financeiros de diversos veículos de comunicação, informou a imprensa americana.
Um plano de cobrança para ler artigos jornalísticos, foi um pedido da associação de jornais dos Estados Unidos.
O Google aposta por uma internet "aberta", mas não necessariamente "de graça", na qual a publicidade continuaria sendo a maior fonte de receitas para os veículos de comunicação, embora reconheça que um serviço de assinatura representaria "uma importante fonte de renda adicional".
Para a empresa americana, "um bem-sucedido sistema de pagamento por conteúdo pode aumentar as oportunidades publicitárias, em vez de substituí-las”.
De acordo com o Google, as buscas por informação deverão continuar gratuitas, seja o conteúdo pago ou não. No caso de assinaturas, se recomendaria estabelecer uma conta única que desse acesso a diferentes artigos de diferentes veículos de imprensa.
O sistema é similar ao estudado por diversas empresas do setor jornalístico nos EUA.
A News Corporation, do magnata Rupert Murdoch, já entrou em contato com os principais jornais do país para iniciar um programa de cobrança pela leitura de artigos na internet.
O plano da News Corporation consistiria em criar um consórcio integrado por líderes no setor como "The New York Times", "Washington Post" e Hearst Corporation a fim de estabelecer um mecanismo comum para seus conteúdos digitais, tanto para a web, quanto para dispositivos portáteis.
Acredito que a proposta da google podera otmizar o mercado de publicidade online criando novas oportunidade de negocios o problema é como o plano sera gerido pelos portais de noticias
O Google elaborou uma proposta para estabelecer um sistema de pagamentos por acesso a notícias na internet que pode ajudar a atenuar os problemas financeiros de diversos veículos de comunicação, informou a imprensa americana.
Um plano de cobrança para ler artigos jornalísticos, foi um pedido da associação de jornais dos Estados Unidos.
O Google aposta por uma internet "aberta", mas não necessariamente "de graça", na qual a publicidade continuaria sendo a maior fonte de receitas para os veículos de comunicação, embora reconheça que um serviço de assinatura representaria "uma importante fonte de renda adicional".
Para a empresa americana, "um bem-sucedido sistema de pagamento por conteúdo pode aumentar as oportunidades publicitárias, em vez de substituí-las”.
De acordo com o Google, as buscas por informação deverão continuar gratuitas, seja o conteúdo pago ou não. No caso de assinaturas, se recomendaria estabelecer uma conta única que desse acesso a diferentes artigos de diferentes veículos de imprensa.
O sistema é similar ao estudado por diversas empresas do setor jornalístico nos EUA.
A News Corporation, do magnata Rupert Murdoch, já entrou em contato com os principais jornais do país para iniciar um programa de cobrança pela leitura de artigos na internet.
O plano da News Corporation consistiria em criar um consórcio integrado por líderes no setor como "The New York Times", "Washington Post" e Hearst Corporation a fim de estabelecer um mecanismo comum para seus conteúdos digitais, tanto para a web, quanto para dispositivos portáteis.
Acredito que a proposta da google podera otmizar o mercado de publicidade online criando novas oportunidade de negocios o problema é como o plano sera gerido pelos portais de noticias
Como montar um site
É Principiante na Criação de Sites e Blogs?
Se nunca criou um site ou um blog na internet e quer aprender a criar um site rapidamente, é melhor ler o artigo COMO CRIAR SITE PARA PRINCIPIANTES que lhe explicará, passo a passo, o que precisa de fazer.Procurar alojamento grátis
É preciso procurarmos uma empresa que ofereça alojamento gratuito, mas para isso necessitamos de saber como é que essa empresa ganha o dinheiro.Não há almoços grátis por isso eles têm de estar a ganhar dinheiro de outra forma, normalmente através de publicidade.
Se optarmos por fazer um blog, podemos escolher alguns alojamentos grátis facilmente.
Registar o sub-domínio
Como não queremos pagar nada, precisamos de registar um sub-domínio dentro do site de alojamento.A forma como o sub-domínio aparece varia um pouco, por exemplo:
- www.nome-escolhido.alojamento.com
- www.alojamento.com/nome-escolhido
Configuração do site
Para montar um site não precisamos de ter grandes conhecimentos técnicos, ao nível da informática, porque existem templates que permitem escolher facilmente os objectos que queremos utilizar para termos um site à nossa medida.Como publicitar o site
Depois de estar feito é necessário saber como divulgar o site, para atrairmos visitantes para o nosso projecto.Não precisamos de pagar para conseguir mais tráfego, embora com algum investimento seja possível ter visitantes muito mais rápido.
É importantíssimo submeter o site aos motores de busca, para que o conteúdo comece a aparecer nas pesquisas dos seus utilizadores.
O mais importante é o Google.com.
Escrever conteúdo para o site
A parte mais importante em montar um site é a parte do conteúdo porque é através dele que os visitantes decidem se vale a pena continuar a visitar-nos, ou não.Devemos escolher um tópico familiar e interessante para mais pessoas ou então estamos destinados ao fracasso.
Depois disto, está feito. Saber como montar um site é apenas a fase inicial do projecto, o difícil é pôr tudo em prática. poren a maioria dos provedores possuem construtores de sites onde com o conhecimento minimo você podera criar, editar e publicar seu site sem problemas
Gmail agora funciona offline com o Google Gears
O Google lançou o que todo mundo já esperava: o o Gmail agora funciona offline com o Google Gears.
Parte do pacote Labs - e, portanto, deve ser habilitada na aba correspondente - a funcionalidade ainda é bem beta e ainda está sendo disponibilizada aos poucos para os usuários, então se você ainda não tem, fique tranquilo que logo você terá.
Embora hoje em dia numa grande metrópole seja possível encontrar conexão em praticamente qualquer lugar - seja em um shopping ou café, seja numa LAN house, seja na wifi liberada do vizinho que emprestamos como nossas mães emprestavam uma colher de fermento para terminar o bolo.
Aliás, esse pode ser o fermento ou funcionalidade que faltava para a adoção do Gmail como cliente de e-mail e maior case de web app que existe crescer exponencialmente. Muita gente ainda insiste em clientes offline - principalmente no Mac, que tem o ótimo Mail - para poder ter acesso a tudo sem precisar de internet.
Um bom amigo dessa novidade são os navegadores-de-um-site-só, que assim como o samba de uma nota só do Jobim, são tão bonitos quanto simples. Tanto o Fluid para Mac quanto o Prism da Fundação Mozilla para PC e o Chrome do Google fazem um web app como o Gmail funcionar como se fosse uma aplicação independente do navegador, com sua própria alocação de memória e tudo.
Assim será possível usar o Gmail da mesma maneira que se usa um cliente desktop de e-mail: clicando a qualquer momento num bonito icone e usando com ou sem conexão à internet.
Parte do pacote Labs - e, portanto, deve ser habilitada na aba correspondente - a funcionalidade ainda é bem beta e ainda está sendo disponibilizada aos poucos para os usuários, então se você ainda não tem, fique tranquilo que logo você terá.
Embora hoje em dia numa grande metrópole seja possível encontrar conexão em praticamente qualquer lugar - seja em um shopping ou café, seja numa LAN house, seja na wifi liberada do vizinho que emprestamos como nossas mães emprestavam uma colher de fermento para terminar o bolo.
Aliás, esse pode ser o fermento ou funcionalidade que faltava para a adoção do Gmail como cliente de e-mail e maior case de web app que existe crescer exponencialmente. Muita gente ainda insiste em clientes offline - principalmente no Mac, que tem o ótimo Mail - para poder ter acesso a tudo sem precisar de internet.
Um bom amigo dessa novidade são os navegadores-de-um-site-só, que assim como o samba de uma nota só do Jobim, são tão bonitos quanto simples. Tanto o Fluid para Mac quanto o Prism da Fundação Mozilla para PC e o Chrome do Google fazem um web app como o Gmail funcionar como se fosse uma aplicação independente do navegador, com sua própria alocação de memória e tudo.
Assim será possível usar o Gmail da mesma maneira que se usa um cliente desktop de e-mail: clicando a qualquer momento num bonito icone e usando com ou sem conexão à internet.
SEO, motores de busca
Search Engine Optimization
optimizador para motores de busca,
Como estratégia de marketing Para aumentar a relevância de um site, SEO considera como algoritmos de busca de trabalho e que as pessoas pesquisam. Esforços de SEO pode envolver a codificação de um site, apresentação e estrutura, bem como corrigir problemas que possam impedir que programas de indexação do motor de busca da plena spidering um site. Esforços de SEO pode envolver uma codificação de um site, estrutura e apresentação, bem como corrigir problemas que POSSAM avert que programas de indexação do motor de busca da plena spidering um site. Outros, mais visíveis os esforços podem incluir a adição de conteúdo exclusivo a um site, garantindo que o conteúdo é facilmente indexado pelos robôs de busca, e tornando o local mais atraente para os usuários. Outros, mais Visíveis os Esforços pueden incluir a adição de conteúdo exclusivo do site um um, Garantindo que o conteúdo é facilmente indexado pelos robôs de busca, e mais Tornando o local atraente para os usuários. Outra classe de técnicas, conhecida como chapéu preto SEO ou spamdexing, métodos de utilização, tais como fazendas da ligação e enchendo-chave que tendem a prejudicar a experiência do usuário do motor de busca. Outra classe de técnicas, conhecido como Chapéu Preto SEO spamdexing ou, métodos de utilização, tais como fazendas e ligação da palavra-chave enchimento, Tendem que uma prejudicar a experiência do usuário do motor de busca. Os motores de busca procurar por sites que utilizam estas técnicas e poderá removê-los de seus índices. Os motores de busca procurar por sites que Utilizam estas técnicas e PODERÁ removê-los de seus índices.
As iniciais "SEO" também pode se referir a "otimizadores de motores de busca", um termo adotado por uma indústria dos consultantes que realizam projetos de otimização em nome de clientes, e pelos trabalhadores que executam serviços de SEO in-house. O initialism "SEO" também pode se referir a "Otimizadores de motores de busca", um termo adotado por uma indústria de consultores que Realizam projetos de otimização em nome de clientes, e pelos trabalhadores que executam serviços de SEO in-house. Otimizadores de mecanismos de pesquisa podem oferecer SEO como um serviço autônomo ou como parte de uma ampla campanha de marketing. Otimizadores de Mecanismos de Pesquisa pueden Oferecer SEO como um serviço autônomo ou como parte de uma ampla campanha de marketing. Porque SEO eficaz pode requerer alterações ao código-fonte HTML de um site, táticas de SEO podem ser incorporadas no desenvolvimento web site e do design. Porque SEO to claim pode eficaz Alterações no código fonte HTML de um site, Táticas de SEO pueden ser incorporadas no Desenvolvimento e design web site. O termo "motor de busca amigável" pode ser utilizado para descrever projetos web site, menus, sistemas de gerenciamento de conteúdo e carrinhos de compras que são fáceis de optimizar. O termo "motor de busca amigável" pode ser utilizado para descrever projetos web site, menus, sistemas de gerenciamento de conteúdo e carrinhos de compras que são fáceis de optimizar.
Webmasters e provedores de conteúdo começaram um Otimização de sites para motores de busca, em meados da década de 1990, como os primeiros motores de busca foram catalogando um Web cedo. Inicialmente, todo o um webmaster necessitado fazer era apresentar uma página, ou URL, para vários motores que iria enviar uma aranha para "rastrear" a página, extrato de ligações para outras páginas a partir dele, e retornam informações encontradas na página a ser indexado . O processo envolve uma aranha do Search Engine download de uma página e armazená-lo no próprio servidor do mecanismo de pesquisa, onde um segundo programa, conhecido como um indexador, extrai informações diversas sobre a página, como as palavras que ele contém e onde estes são localizados, bem como qualquer peso por palavras específicas e todos os links da página contém, que são então colocados em um agendador para rastejar em uma data posterior. Inicialmente, todos os webmaster um precisava fazer era Apresentar uma página, ou URL, para vários motores que iria enviar uma aranha para "Vasculhar" uma página, extrato de ligações para outras páginas a partir dele, retornam e informações encontradas na página a ser indexada . O processo envolvem uma aranha do Search Engine download de uma página e armazena-lo no próprio servidor do mecanismo de pesquisa, onde um segundo programa, conhecido como um indexador, Extrai informações diversas sobre a página, como as palavras que ele Contém E onde estas estão localizadas, bem como qualquer peso por palavras específicas e Contém todos os links da página, que são então um Colocados em Agendador para rastejar em uma data posterior.
Os proprietários do site começaram a reconhecer o valor de ter seus sites espesso altamente visíveis e de resultados de pesquisas, criando uma oportunidade para ambas as chapéu branco e os profissionais de SEO chapéu preto. Proprietários Os do site começaram uma Reconhecer o valor de ter seus sites Visíveis altamente espesso e de resultados de pesquisas, criando uma oportunidade para ambas as chapéu branco e praticantes de SEO chapéu preto. Segundo o analista do setor Danny Sullivan, o mais conhecido uso da expressão "search engine optimization" foi uma mensagem de spam postada na Usenet em 26 de julho de 1997. Segundo o analista do setor Danny Sullivan, o mais conhecido uso da expressão "search engine optimization" foi uma mensagem de spam postada na Usenet em 26 de julho de 1997.
As primeiras versões de algoritmos de pesquisa baseou-webmaster fornecidas informações como a meta tag de palavras-chave, ou arquivos de índice em motores como Aliweb. As primeiras versões de algoritmos de pesquisa baseou-Informações fornecidas webmaster como uma meta tag de palavras-chave, ou arquivos de motores em índice Aliweb como. Meta-tags, desde um guia para o conteúdo de cada página. Meta-tags, desde um guia para o conteúdo de cada página. Mas o uso de meta-dados de páginas do índice foi encontrado para ser menos confiáveis, pois alguns webmasters abusado meta tags, incluindo palavras-chave irrelevantes para aumentar artificialmente as impressões de página para o seu site e aumentar sua receita publicitária. Custo por mil impressões na época era comum os meios de monetizar sites de conteúdo. Mas o uso de meta-dados de páginas do índice foi encontrado para ser menos Confiáveis, webmasters pois alguns abusado meta tags, incluindo palavras-chave irrelevantes para aumentar artificialmente as impressões de página para o seu site e aumentar sua receita publicitária. Custo por mil impressões na época era comum o Meios de monetizar sites de conteúdo. Imprecisos, incompletos e inconsistentes dados de meta em meta tags causados páginas classificar para pesquisas irrelevantes, e não para classificar em pesquisas relevantes. provedores de conteúdo da Web também manipulou um número de atributos dentro do código HTML de uma página em uma tentativa de classificar bem no motores de busca. Imprecisos, incompletos e inconsistentes dados de meta em meta tags causados páginas Classificar para pesquisas irrelevantes, e não para pesquisas relevantes em Classificar. provedores de conteúdo da Web também manipulou um número de atributos dentro do código HTML de uma página em uma tentativa de espesso bem nos motores de busca. [
Ao confiar tanto em factores exclusivamente no controle de um webmaster, motores de busca precoce sofreu abuso e manipulação de ranking. Ao confiar tanto em factores exclusivamente nenhum controle de um webmaster, motores de busca precoce Sofreu abuso e manipulação de ranking. Para fornecer melhores resultados para seus usuários, os motores de busca tiveram que se adaptar para garantir suas páginas de resultados mostraram os resultados mais relevantes, ao invés de páginas recheadas com palavras-chave relacionadas numerosos por webmasters inescrupulosos. Para fornecer melhores resultados para seus usuários, os motores de busca Tiveram que se adaptar para Garantir páginas de seus resultados mostraram os resultados mais relevantes, ao invés de páginas recheadas com palavras-chave relacionadas Numerosos por webmasters inescrupulosos. Os motores de busca em desenvolvimento responderam por mais complexos algoritmos de classificação, levando em consideração fatores adicionais que foram mais difíceis para os webmasters de manipular. Os motores de busca em desenvolvimento responderam por mais complexos algoritmos de classificação, levando em Consideração fatores adicionais que foram mais difíceis para os webmasters de manipular.
Estudantes de Pós-Graduação na Universidade de Stanford, Larry Page e Sergey Brin, desenvolveu o "backrub", um motor de busca que se baseava em um algoritmo matemático para avaliar a importância das páginas web. Estudantes de graduação da Universidade de Stanford, Larry Page e Sergey Brin Desenvolveram "backrub", um motor de busca que se baseava em um algoritmo matemático para Avaliar a importância das páginas web. O número calculado pelo algoritmo, PageRank, é uma função da quantidade e da força das ligações inbound. Links PageRank estima a probabilidade de que uma determinada página será alcançado por um usuário da web que aleatoriamente surfa na web, e segue em uma página para outra. O número calculado pelo algoritmo, PageRank, é uma Função da quantidade e da força de ligações de entrada. PageRank estima uma probabilidade de que surfa uma Determinada página será ATINGIDO POR um usuário da web que aleatoriamente na web e segue, como ligações de um para outra página. Na prática, isso significa que algumas ligações são mais fortes do que outros, como uma página PageRank mais elevado é mais provável de ser alcançado pelo surfista aleatória. Na prática, isso significa que algumas ligações são mais fortes do que outros, como uma página PageRank mais elevado é mais provável de ser alcançado pelo surfista aleatória.
Google abre sede em Buenos Aires, Argentina Google abre sede em Buenos Aires, Argentina Page e Brin fundaram o Google em 1998. Page e Brin fundaram o Google em 1998. Google atraiu um público fiel entre o número crescente de utilizadores da Internet, que gostava de seu desenho simples. Off-página fatores como PageRank ea análise de hiperlink foram considerados, bem como sobre os factores de página, para permitir que o Google para evitar o tipo de manipulação visto nos motores de busca que apenas considerados em factores de página para os seus rankings. Google atraiu um público sentir entre o Crescente número de utilizadores da Internet, que gostava de seu desenho simples. [6] Off-página fatores como PageRank ea análise de Considerados foram hiperlink, bem como sobre os factores de página, para Permitir que o Google para Evitar o tipo de manipulação de visita em motores de busca que Considerados apenas em factores de página para os seus rankings. Embora o PageRank era mais difícil do jogo, webmasters já tinham desenvolvido ferramentas de links e esquemas para influenciar o mecanismo de busca Inktomi, e estes métodos revelaram igualmente aplicáveis a ganhar PageRank. Embora o PageRank era mais difícil do jogo, webmasters já tinham desenvolvido ferramentas e links de esquemas para influenciar o mecanismo de busca Inktomi, métodos e estes revelaram aplicáveis Igualmente um PageRank ganhar. Muitos sites focados em trocar, comprar e vender links, muitas vezes em uma escala maciça. Muitos sites focados em trocar, comprar e vender links, muitas vezes em uma escala maciça. Alguns destes esquemas, ou link fazendas, envolveu a criação de milhares de sites com o único propósito de "spam" link. Alguns destes esquemas, ou link fazendas, envolveu uma criação de Milhares de sites com o único propósito de "spam" link.
Para reduzir o impacto dos sistemas de ligação, a partir de 2007, os motores de busca consideram uma ampla gama de fatores reservadas para os seus algoritmos de classificação. Para Reduzir o impacto dos sistemas de ligação, a partir de 2007, os motores de busca Consideram uma ampla gama de fatores reservadas para os seus algoritmos de classificação. Google diz que classifica sites usando mais de 200 sinais diferentes. Os três principais motores de busca, Google, Yahoo e Microsoft 's Live Search, não divulgar os algoritmos que eles usam para classificar as páginas. Google diz que classifica sites usando mais de 200 diferentes sinais. Os três principais motores de busca, Google, Yahoo e Microsoft é o Live Search, não divulgar os algoritmos que eles usam para Classificar as páginas. Notáveis SEOs, como Rand Fishkin, Barry Schwartz, Aaron Wall e Jill Whalen, estudaram diferentes abordagens para search engine optimization, e publicou suas opiniões em fóruns online e blogs. praticantes de SEO pode também estudar as patentes detidas por vários motores de busca para obter insights sobre os algoritmos. Notáveis SEOs, como Rand Fishkin, Barry Schwartz, Aaron Wall e Jill Whalen, estudaram diferentes abordagens para otimização de mecanismos de busca, e publicou suas opiniões em fóruns online e blogs. praticantes de SEO estudar também pode patentes Detidas por vários motores de busca para Obter insights sobre os algoritmos.
Em 1997, os motores de busca reconhecer que alguns webmasters estavam fazendo esforços para classificar bem em seus motores de busca, e até mesmo manipular os rankings da página nos resultados de pesquisa. Em 1997, os motores de busca Reconhecer alguns webmasters que Estavam fazendo Esforços para Classificar bem em seus motores de busca, e até mesmo manipular os rankings da página nos resultados de pesquisa. Early motores de busca, como o Infoseek, ajustaram os seus algoritmos para evitar webmasters de manipular rankings enchendo páginas com palavras-chave excessivo ou irrelevante. Early motores de busca, como o Infoseek, ajustado seus webmasters algoritmos para Evitar manipular rankings de enchendo páginas com palavras-chave Excessivo ou irrelevante.
Devido ao alto valor de comercialização de resultados de pesquisa orientada, há potencial para um relacionamento adversarial entre os motores de busca e SEOs. Devido ao alto valor de Comercialização de resultados de pesquisa orientada, há potencial para um relacionamento contraditório entre os motores de busca e SEOs. Em 2005, uma conferência anual, AIRWEB, Adversarial Information Retrieval on the Web ,foi criado para discutir e minimizar os efeitos nocivos dos fornecedores de conteúdos agressivos da web. Em 2005, uma conferência anual, AIRWEB, Adversarial Information Retrieval on the Web ,foi criado para discutir e Minimizar os efeitos nocivos dos Fornecedores de conteúdos agressivos da web.
SEO empresas que empregam técnicas excessivamente agressivo pode começar seu cliente sites proibidos a partir dos resultados de pesquisa. Técnicas de SEO Empresas que Empregam excessivamente agressivo pode começar seu cliente sites proibidos a partir dos resultados de pesquisa. Em 2005, o Wall Street Journal perfilado uma empresa, a Traffic Power, que supostamente usavam técnicas de alto risco e não divulgou os riscos para seus clientes. A revista Wired informou que a mesma empresa processou blogger Aaron Wall por escrever sobre a proibição. Google, Matt Cutts confirmou mais tarde que o Google fez, de facto, proibição de circulação de energia e alguns de seus clientes. Em 2005, o Wall Street Journal perfilado uma empresa, o Tráfego de energia, que usavam técnicas Supostamente de alto risco e não divulgou os riscos para seus clientes. revista Wired obteve a mesma empresa que processou blogger por Aaron Wall escrever sobre a Proibição. Google Matt Cutts Confirmou mais tarde que o Google fez, de facto, Proibição de circulação de energia e alguns de seus clientes.
Alguns motores de busca também estendeu a mão para a indústria de SEO, e são freqüentes os patrocinadores e convidados em conferências e seminários de SEO. Alguns motores de busca também estendeu a mão para uma Indústria de SEO, e são freqüentes os patrocinadores e convidados em conferências e seminários de SEO. Na verdade, com o advento da inclusão paga, alguns motores de busca agora têm um interesse na saúde da comunidade de otimização. Na verdade, com o advento da inclusão paga, alguns motores de busca agora Tem um interesse na saúde da comunidade de otimização. Importantes motores de busca fornecem informações e orientações para ajudar na otimização do site. O Google tem um programa Sitemaps para ajudar os webmasters a saber se o Google está tendo algum problema de indexação seu site e também fornece dados sobre o tráfego do Google para o site. Importantes motores de busca fornecem informações e orientações para ajudar na otimização do site. O Google Sitemaps tem um programa para ajudar os webmasters a saber se o Google está tendão algum problema de indexação e seu site também fornece dados sobre o Tráfego do Google para o site. Yahoo! Yahoo! Site Explorer fornece uma maneira para os webmasters para enviar URLs, determinar quantas páginas estão no Yahoo! Site Explorer fornece uma maneira para os webmasters para enviar URLs, quantas páginas Determinar estão no Yahoo! índice de ligação e informação vista. Índice ligação de vista e informação.
Os principais motores de busca, Google, Yahoo! Os principais motores de busca, Google, Yahoo! e Microsoft, rastreadores usam para encontrar páginas de seus resultados de busca algorítmica. e Microsoft, Rastreadores usam para encontrar páginas de seus resultados de busca Algorítmica. Páginas que estão linkadas de outro mecanismo de busca de páginas indexadas não precisa ser apresentado, porque eles são encontrados automaticamente. Páginas que estão linkadas de outro mecanismo de busca de páginas indexadas não precisa ser apresentado, Porque eles são encontrados automaticamente. Alguns motores de busca, nomeadamente Yahoo!, Operar uma apresentação serviço pago que garante o rastreamento de uma taxa do jogo ou custo por clique. Tais programas geralmente garante a inclusão no banco de dados, mas não garantem a classificação específica dentro dos resultados de pesquisa. Yahoo programa de inclusão paga tem atraído críticas de anunciantes e concorrentes. Dois diretórios principais, o Yahoo Directory eo Open Directory Project ambos exigem a submissão manual e revisão editorial humana. Google oferece o Google Sitemaps, para que um tipo de feed XML pode ser criado e apresentado gratuitamente para garantir que todas as páginas são encontradas, principalmente páginas que não são detectáveis pelos seguintes links automaticamente. Alguns motores de busca, nomeadamente Yahoo!, Operar uma apresentação serviço pago que garante o rastreamento de uma taxa do jogo ou custo por clique. Tais programas Geralmente garante uma inclusão no banco de dados, mas não Garantem uma classificação específica dentro dos resultados de pesquisa. Yahoo programa de inclusão paga gerou críticas dos anunciantes e dos Concorrentes. Diretórios principais Dois, o diretório do Yahoo e do Open Directory Project ambos exigem uma submissão manual e humana revisão editorial. Google bue o Google Sitemaps, para o qual um XML tipo de alimentação pode ser criado e apresentado gratuitamente para todas Garantir que as páginas são encontradas, principalmente páginas que não são detectáveis pelos seguintes links automatically.
Motor de pesquisa indexadores pode olhar para um número de fatores diferentes ao rastrear um site. Esteiras rolantes do Search Engine pode olhar para um número de fatores diferentes, quando o rastreamento de um site. Não cada página é indexada pelos motores de busca. Não cada página é indexada pelos motores de busca. Distância de páginas a partir do diretório raiz de um site também pode ser um fator em se deve ou não receber páginas indexadas. [27] Distância de páginas a partir do diretório raiz de um site também pode ser um fator em se DEVE ou não Receber páginas indexadas.
Robots Exclusion Standard Ver artigo principal: Robots Exclusion Standard
Para evitar conteúdos indesejáveis nos índices de pesquisa, os webmasters podem instruir aranhas para rastrear certos arquivos ou diretórios através do arquivo padrão robots.txt no diretório raiz do domínio. Para Evitar conteúdos indesejáveis nos índices de pesquisa, también webmasters instruir os aranhas para Rastrear Certos arquivos ou Diretórios Através do arquivo robots.txt padrão nenhum diretório raiz do dominio. Além disso, uma página pode ser expressamente excluídos do banco de dados de um motor de busca usando uma meta tag específica para robôs. Além disso, uma página pode ser expressamente excluídos do banco de dados de um motor de busca usando uma meta tag específica para robôs. Quando um motor de busca visita um site, o robots.txt localizado no diretório raiz é o primeiro arquivo rastreado. Quando um motor de busca visita um site, o robots.txt localizado nenhum diretório raiz é o primeiro arquivo RasTreaDo. O arquivo robots.txt é então analisado e irá instruir o robô a qual as páginas não devem ser rastreados. O arquivo robots.txt é então analisado e Ira instruir o robô Qual a páginas como não Devem ser rastreados. Como um indexador motor de busca pode manter uma cópia em cache desse arquivo, ele pode rastrear páginas de vez em quando um webmaster não deseja rastreados. Como indexador um motor de busca pode Manter uma cópia desse arquivo em cache, ele pode Rastrear páginas de vez em quando um webmaster não Deseja rastreados. Páginas tipicamente impedidos de serem rastreados incluem login páginas específicas, tais como carrinhos de compras do usuário e conteúdo específico, tais como resultados de pesquisa a partir de pesquisas internas. Páginas tipicamente rastreados Impedidos de Serem Incluem login páginas específicas, tais como carrinhos de compras do usuário e conteúdo específico, tais como resultados de pesquisa a partir de pesquisas internas. Em março de 2007, o Google webmasters alertou que devem evitar a indexação da pesquisa interna, pois essas páginas são consideradas spam pesquisa. Em março de 2007, o Google webmasters Devem Evitar que alertou uma indexação da pesquisa interna, pois essas páginas são consideradas spam pesquisa.
Técnicas de SEO são classificados por alguns em duas grandes categorias: as técnicas que os motores de pesquisa recomendam como parte de um bom design, e as técnicas que os motores de busca não aprovam e tentar minimizar o efeito, referido como spamdexing. Técnicas de SEO são classificados por alguns grandes em duas categorias: as técnicas que os motores de pesquisa recomendam como parte de um bom design, e as técnicas que os motores de busca não aprovam e tentar Minimizar o efeito, referido spamdexing como. Alguns analistas da indústria classificar esses métodos, e os profissionais que os empregam, como quer SEO de chapéu branco, ou chapéu preto SEO. chapéus brancos tendem a produzir resultados que duram muito tempo, enquanto chapéus pretos antecipar que seus sites serão eventualmente banido uma vez que os motores de busca descobrir o que eles estão fazendo. Alguns analistas da indústria Classificar esses métodos, e os profissionais que Empregam os, como quer SEO de chapéu branco, ou chapéu preto SEO. chapéus brancos Tendem a produzir resultados que duram muito tempo, enquanto chapéus pretos que antecipar seus sites Serão eventualmente banido uma vez os motores de busca descobrir o que eles estão fazendo.
Uma tática SEO, técnica ou método é considerado chapéu branco se estiver em conformidade com as orientações da motores de busca "e não envolve nenhum engano. Uma SEO tática, técnica ou método é considerado chapéu branco se Estiver em Conformidade com as orientações da motores de busca "e não envolvem nenhum engano. Conforme as orientações motor de busca não são escritas como uma série de regras ou mandamentos, esta é uma distinção importante a nota. Como as orientações do motor de busca não são gravadas como uma série de regras ou mandamentos, esta é uma distinção importante uma nota. SEO de chapéu branco não é apenas sobre as seguintes orientações, mas consiste em garantir que o teor de um motor de busca de índices e posteriormente classifica é o mesmo conteúdo que um usuário verá. chapéu branco SEO não é apenas sobre as seguintes orientações em, mas Consiste Garantir que o teor de um motor de busca de índices e posteriormente classificação é o mesmo conteúdo que um usuário verá.
White hat conselho é geralmente resumida da criação de conteúdo para os usuários, não para os motores de busca, e em seguida, fazendo que o conteúdo de fácil acesso para as aranhas, ao invés de tentar o jogo algoritmo. Chapéu branco e Conselho Geralmente resumida da criação de conteúdo para os usuários, não para os motores de busca, e em seguida, fazendo que o conteúdo de fácil acesso para as aranhas, ao invés de tentar o jogo algoritmo. White Hat SEO é em muitos aspectos semelhante ao desenvolvimento web que promove a acessibilidade ,embora os dois não são idênticos. White Hat SEO é em muitos aspectos semelhante ao Desenvolvimento da Web que promove uma acessibilidade ,embora os dois não são idênticos.
O chapéu preto SEO tenta melhorar a classificação de formas que são reprovados pelos motores de pesquisa, ou envolver fraude. O chapéu preto SEO tenta melhorar uma classificação de formas que são reprovados pelos motores de pesquisa, ou envolver fraude. Uma técnica que usa chapéu preto de texto que está oculto, quer como texto colorido semelhante ao fundo, em uma div invisível, ou posicionado fora da tela. Uma técnica que E.U.A. Chapéu Preto de texto que está oculto, quer como texto colorido semelhante ao fundo, em uma div invisível, ou posicionado fora da tela. Outro método dá uma página diferente, dependendo se a página está sendo pedida por um visitante humano ou um motor de busca, uma técnica conhecida como camuflagem. Outro método dá uma página diferente, Dependendo se a página está sendo pedida por um visitante humano ou um motor de busca, uma técnica conhecida como disfarce.
Os motores de busca podem penalizar os sites que descobrir através de métodos chapéu preto, quer reduzindo ou eliminando os seus rankings seus anúncios em suas bases de dados completamente. Os motores de busca os pueden penalizar sites que descobrir Através de métodos Chapéu Preto, quer Reduzindo ou Eliminando os seus rankings seus anúncios em suas bases de dados completamente. Tais sanções podem ser aplicadas, automaticamente por algoritmos dos motores de busca ", ou por uma revisão do site manual. Tais sanções aplicadas también, automatically por algoritmos dos motores de busca ", ou por uma revisão do site manual.
Um exemplo famoso foi a fevereiro 2006 Google a remoção de ambos os BMW da Alemanha ea Alemanha Ricoh para o uso de práticas enganosas. Ambas as empresas, no entanto, rapidamente se desculpou, fixa as páginas em falta, e foram restaurados a lista do Google. Um exemplo famoso foi a fevereiro 2006 Google um Remoção de ambos os BMW da Alemanha e Alemanha Ricoh para o uso de práticas enganosas. Ambas as empresas, no entanto, rapidamente se desculpou, fixa como em falta páginas, foram restaurados e uma lista do Google.
Estudos de monitoramento dos olhos têm mostrado que os pesquisadores digitalizar uma página de resultados, de cima para baixo e da esquerda para a direita (para a esquerda para a direita línguas), procurando um resultado relevante. Estudos de monitoramento dos olhos Têm mostrado que os pesquisadores digitalizar uma página de resultados, de cima para baixo e da esquerda para a direita (para a esquerda para a direita línguas), procurando um resultado relevante. Colocação em ou perto do topo do ranking, por conseguinte, aumenta o número de pesquisadores que visitam um site. No entanto, mais referências motor de busca não garante mais vendas. Colocação em ou perto do topo do conseguinte, por ranking, aumenta o número de pesquisadores que visitam um site. No entanto, mais referências motor de busca não garante mais vendas. SEO não é necessariamente uma estratégia adequada para cada site, e outras estratégias de marketing na Internet pode ser muito mais eficaz, dependendo dele o operador do site. A campanha de marketing bem sucedido do Internet pode conduzir resultados orgânicos da busca para páginas, mas também pode envolver o uso de publicidade paga nos motores de busca e outras páginas, construção de páginas web de alta qualidade para envolver e persuadir, abordando questões técnicas que podem manter pesquisa mecanismos de rastreamento e indexação dos sites, a criação de programas de análise para permitir que os proprietários do local para avaliar os seus sucessos, e uma melhoria da taxa de conversão do site. SEO Necessariamente não é uma Estratégia Adequada para cada local, e outras estratégias de marketing na Internet pode ser muito mais eficaz, Dependendo dele o operador do site. A campanha de marketing bem sucedido do Internet pode Conduzir resultados orgânicos da busca para páginas, mas pode envolver também o uso de publicidade paga nos motores de busca e outras páginas, construção de páginas web de alta qualidade para envolver e persuadir, abordando questões técnicas que os pueden Manter motores de busca de rastreamento e indexação dos sites, a criação de programas de análise para Permitir que os sites de Proprietários para medir os seus êxitos, e Melhorar a taxa de um site de conversão.
SEO pode gerar um retorno sobre o investimento. SEO pode Gerar um retorno sobre o investimento. No entanto, os motores de busca não são pagos para o tráfego de busca orgânica, a sua mudança de algoritmos, e não há garantias de referências continuou. No entanto, os motores de busca não são pagos para o Tráfego de busca orgânica, a sua mudança de algoritmos, e não há Garantias de Referências Continuou. Devido a esta falta de garantias e de segurança, um negócio que depende muito do tráfego motor de busca pode sofrer grandes perdas se os motores de busca parar de enviar os visitantes. Considera-se prática empresarial sábio para operadores de sites para se libertar da dependência do tráfego motor de busca. A topo do ranking SEO blog Seomoz.org relatou, "Pesquisa de marketing, em um toque de ironia, receber uma parte muito pequena do seu tráfego dos motores de busca". Devido a esta falta de Garantias e de segurança, um negócio que depende muito do Tráfego motor de busca pode sofrer grandes perdas se os motores de busca parar de enviar os visitantes. Considera-se prudente uma prática de negócios para Operadores de sites para se libertar da dependência do motor de busca Tráfego. A topo do ranking SEO blog Seomoz.org relatou, "Pesquisa de marketing, em um toque de ironia, muito Receber uma pequena parte do seu Tráfego dos motores de busca". Em vez disso, suas principais fontes de tráfego são links de outros sites. Em vez disso, suas principais fontes de Tráfego de São links de outros sites.
A página de resultados de busca Baidu partes de motores de busca do mercado variam de mercado para mercado, como faz a concorrência. Partes de motores de busca do mercado variam de mercado para mercado faz, como a concorrência. Em 2003, Danny Sullivan afirma que o Google representa cerca de 75% de todas as pesquisas. Nos mercados fora dos Estados Unidos, a participação do Google é muitas vezes maior, eo Google continua a ser dominante no mundo inteiro motor de busca a partir de 2007. Em 2006, o Google realizou cerca de 40% do mercado nos Estados Unidos, mas o Google teve um 85-90% de market share na Alemanha. Embora houvesse centenas de empresas de SEO em os E.U. naquela época, havia apenas cerca de cinco na Alemanha. Em 2003, Danny Sullivan afirma que o Google representa cerca de 75% de todas as pesquisas. em mercados fora dos Estados Unidos, a participação do Google é muitas vezes maior, eo Google continua um ser dominante mundo inteiro nenhum motor de busca a partir de 2007. A partir de 2006, o Google realizou cerca de 40% do mercado nos Estados Unidos, mas o Google teve um 85-90% de quota de mercado na Alemanha. Embora houvesse Centenas de empresas de SEO em os EU Naquela época, havia apenas cerca de cinco em Alemanha.
Na Rússia, a situação é inversa. Na Rússia, a situação é inversa. Yandex motor de busca local controla 50% das receitas de publicidade paga, enquanto o Google tem menos de 9%. Na China, o Baidu continua a liderar a quota de mercado, embora o Google tem vindo a ganhar quota-parte, de 2007. Local das Yandex motor de busca controla 50% receitas de publicidade paga, enquanto o Google tem menos de 9%. Na China, o Baidu Continua a liderar uma quota de mercado, embora o Google tem vindo a ganhar quota-parte, de 2007.
Otimização de sucesso para os mercados internacionais pode exigir profissionais de tradução de páginas da web, registo de um nome de domínio com um domínio de nível superior no mercado-alvo, e hospedagem na web que fornece um endereço IP local. Otimização de sucesso para os mercados internacionais pode to claim tradução profissional de páginas web, registo de um nome de um com dominio dominio de Nível Superior nenhum mercado-alvo, e hospedagem na web que fornece um endereço IP local. Caso contrário, os elementos fundamentais da pesquisa otimização são essencialmente os mesmos, independentemente do idioma. Caso contrário, OS ELEMENTOS FUNDAMENTAIS DA PESQUISA otimização Essencialmente são os mesmos, Independentemente do idioma.
Em 2002, SearchKing entrou com uma ação em um tribunal de Oklahoma contra o motor de busca Google. Em 2002, SearchKing entrou com uma ação em um tribunal de Oklahoma contra o motor de busca Google. SearchKing alegação era a de que as táticas do Google para impedir spamdexing constituía uma prática comercial desleal. SearchKing era uma alegação de que as Táticas spamdexing avert do Google para Constituià uma prática comercial desleal. Em maio de 2003, o tribunal pronunciou um julgamento sumário em favor do Google. Em maio de 2003, pronunciou o tribunal um julgamento sumário em favor do Google.
Em março de 2006, KinderStart.com, LLC arquivou uma Primeira denúncia apresentada contra o Google e também tentou incluir potenciais membros da classe dos demandantes em uma ação de classe. O site web do autor foi removido do índice do Google antes da ação judicial e da quantidade de tráfego para o site despencou. Em março de 2006, KinderStart.com, LLC Apresentou uma primeira queixa apresentada contra o Google e também tentou incluir Potenciais membros da classe dos demandantes em uma ação de classe. O web site do autor foi removido do índice do Google antes da ação ea quantidade de Tráfego despencou para o site. On March 16 , 2007 the United States District Court dismissed KinderStart's complaint without leave to amend, and partially granted Google's motion for Rule 11 sanctions against KinderStart's attorney, requiring him to pay part of Google's legal expenses. Em 16 de março, 2007 no Tribunal Distrital dos Estados Unidos rejeitou a denúncia KinderStart sem deixar de emendar, e deferiu parcialmente o movimento do Google para o artigo 11 as sanções contra o advogado KinderStart, obrigando-o a pagar parte das despesas legais do Google.
optimizador para motores de busca,
Como estratégia de marketing Para aumentar a relevância de um site, SEO considera como algoritmos de busca de trabalho e que as pessoas pesquisam. Esforços de SEO pode envolver a codificação de um site, apresentação e estrutura, bem como corrigir problemas que possam impedir que programas de indexação do motor de busca da plena spidering um site. Esforços de SEO pode envolver uma codificação de um site, estrutura e apresentação, bem como corrigir problemas que POSSAM avert que programas de indexação do motor de busca da plena spidering um site. Outros, mais visíveis os esforços podem incluir a adição de conteúdo exclusivo a um site, garantindo que o conteúdo é facilmente indexado pelos robôs de busca, e tornando o local mais atraente para os usuários. Outros, mais Visíveis os Esforços pueden incluir a adição de conteúdo exclusivo do site um um, Garantindo que o conteúdo é facilmente indexado pelos robôs de busca, e mais Tornando o local atraente para os usuários. Outra classe de técnicas, conhecida como chapéu preto SEO ou spamdexing, métodos de utilização, tais como fazendas da ligação e enchendo-chave que tendem a prejudicar a experiência do usuário do motor de busca. Outra classe de técnicas, conhecido como Chapéu Preto SEO spamdexing ou, métodos de utilização, tais como fazendas e ligação da palavra-chave enchimento, Tendem que uma prejudicar a experiência do usuário do motor de busca. Os motores de busca procurar por sites que utilizam estas técnicas e poderá removê-los de seus índices. Os motores de busca procurar por sites que Utilizam estas técnicas e PODERÁ removê-los de seus índices.
As iniciais "SEO" também pode se referir a "otimizadores de motores de busca", um termo adotado por uma indústria dos consultantes que realizam projetos de otimização em nome de clientes, e pelos trabalhadores que executam serviços de SEO in-house. O initialism "SEO" também pode se referir a "Otimizadores de motores de busca", um termo adotado por uma indústria de consultores que Realizam projetos de otimização em nome de clientes, e pelos trabalhadores que executam serviços de SEO in-house. Otimizadores de mecanismos de pesquisa podem oferecer SEO como um serviço autônomo ou como parte de uma ampla campanha de marketing. Otimizadores de Mecanismos de Pesquisa pueden Oferecer SEO como um serviço autônomo ou como parte de uma ampla campanha de marketing. Porque SEO eficaz pode requerer alterações ao código-fonte HTML de um site, táticas de SEO podem ser incorporadas no desenvolvimento web site e do design. Porque SEO to claim pode eficaz Alterações no código fonte HTML de um site, Táticas de SEO pueden ser incorporadas no Desenvolvimento e design web site. O termo "motor de busca amigável" pode ser utilizado para descrever projetos web site, menus, sistemas de gerenciamento de conteúdo e carrinhos de compras que são fáceis de optimizar. O termo "motor de busca amigável" pode ser utilizado para descrever projetos web site, menus, sistemas de gerenciamento de conteúdo e carrinhos de compras que são fáceis de optimizar.
Webmasters e provedores de conteúdo começaram um Otimização de sites para motores de busca, em meados da década de 1990, como os primeiros motores de busca foram catalogando um Web cedo. Inicialmente, todo o um webmaster necessitado fazer era apresentar uma página, ou URL, para vários motores que iria enviar uma aranha para "rastrear" a página, extrato de ligações para outras páginas a partir dele, e retornam informações encontradas na página a ser indexado . O processo envolve uma aranha do Search Engine download de uma página e armazená-lo no próprio servidor do mecanismo de pesquisa, onde um segundo programa, conhecido como um indexador, extrai informações diversas sobre a página, como as palavras que ele contém e onde estes são localizados, bem como qualquer peso por palavras específicas e todos os links da página contém, que são então colocados em um agendador para rastejar em uma data posterior. Inicialmente, todos os webmaster um precisava fazer era Apresentar uma página, ou URL, para vários motores que iria enviar uma aranha para "Vasculhar" uma página, extrato de ligações para outras páginas a partir dele, retornam e informações encontradas na página a ser indexada . O processo envolvem uma aranha do Search Engine download de uma página e armazena-lo no próprio servidor do mecanismo de pesquisa, onde um segundo programa, conhecido como um indexador, Extrai informações diversas sobre a página, como as palavras que ele Contém E onde estas estão localizadas, bem como qualquer peso por palavras específicas e Contém todos os links da página, que são então um Colocados em Agendador para rastejar em uma data posterior.
Os proprietários do site começaram a reconhecer o valor de ter seus sites espesso altamente visíveis e de resultados de pesquisas, criando uma oportunidade para ambas as chapéu branco e os profissionais de SEO chapéu preto. Proprietários Os do site começaram uma Reconhecer o valor de ter seus sites Visíveis altamente espesso e de resultados de pesquisas, criando uma oportunidade para ambas as chapéu branco e praticantes de SEO chapéu preto. Segundo o analista do setor Danny Sullivan, o mais conhecido uso da expressão "search engine optimization" foi uma mensagem de spam postada na Usenet em 26 de julho de 1997. Segundo o analista do setor Danny Sullivan, o mais conhecido uso da expressão "search engine optimization" foi uma mensagem de spam postada na Usenet em 26 de julho de 1997.
As primeiras versões de algoritmos de pesquisa baseou-webmaster fornecidas informações como a meta tag de palavras-chave, ou arquivos de índice em motores como Aliweb. As primeiras versões de algoritmos de pesquisa baseou-Informações fornecidas webmaster como uma meta tag de palavras-chave, ou arquivos de motores em índice Aliweb como. Meta-tags, desde um guia para o conteúdo de cada página. Meta-tags, desde um guia para o conteúdo de cada página. Mas o uso de meta-dados de páginas do índice foi encontrado para ser menos confiáveis, pois alguns webmasters abusado meta tags, incluindo palavras-chave irrelevantes para aumentar artificialmente as impressões de página para o seu site e aumentar sua receita publicitária. Custo por mil impressões na época era comum os meios de monetizar sites de conteúdo. Mas o uso de meta-dados de páginas do índice foi encontrado para ser menos Confiáveis, webmasters pois alguns abusado meta tags, incluindo palavras-chave irrelevantes para aumentar artificialmente as impressões de página para o seu site e aumentar sua receita publicitária. Custo por mil impressões na época era comum o Meios de monetizar sites de conteúdo. Imprecisos, incompletos e inconsistentes dados de meta em meta tags causados páginas classificar para pesquisas irrelevantes, e não para classificar em pesquisas relevantes. provedores de conteúdo da Web também manipulou um número de atributos dentro do código HTML de uma página em uma tentativa de classificar bem no motores de busca. Imprecisos, incompletos e inconsistentes dados de meta em meta tags causados páginas Classificar para pesquisas irrelevantes, e não para pesquisas relevantes em Classificar. provedores de conteúdo da Web também manipulou um número de atributos dentro do código HTML de uma página em uma tentativa de espesso bem nos motores de busca. [
Ao confiar tanto em factores exclusivamente no controle de um webmaster, motores de busca precoce sofreu abuso e manipulação de ranking. Ao confiar tanto em factores exclusivamente nenhum controle de um webmaster, motores de busca precoce Sofreu abuso e manipulação de ranking. Para fornecer melhores resultados para seus usuários, os motores de busca tiveram que se adaptar para garantir suas páginas de resultados mostraram os resultados mais relevantes, ao invés de páginas recheadas com palavras-chave relacionadas numerosos por webmasters inescrupulosos. Para fornecer melhores resultados para seus usuários, os motores de busca Tiveram que se adaptar para Garantir páginas de seus resultados mostraram os resultados mais relevantes, ao invés de páginas recheadas com palavras-chave relacionadas Numerosos por webmasters inescrupulosos. Os motores de busca em desenvolvimento responderam por mais complexos algoritmos de classificação, levando em consideração fatores adicionais que foram mais difíceis para os webmasters de manipular. Os motores de busca em desenvolvimento responderam por mais complexos algoritmos de classificação, levando em Consideração fatores adicionais que foram mais difíceis para os webmasters de manipular.
Estudantes de Pós-Graduação na Universidade de Stanford, Larry Page e Sergey Brin, desenvolveu o "backrub", um motor de busca que se baseava em um algoritmo matemático para avaliar a importância das páginas web. Estudantes de graduação da Universidade de Stanford, Larry Page e Sergey Brin Desenvolveram "backrub", um motor de busca que se baseava em um algoritmo matemático para Avaliar a importância das páginas web. O número calculado pelo algoritmo, PageRank, é uma função da quantidade e da força das ligações inbound. Links PageRank estima a probabilidade de que uma determinada página será alcançado por um usuário da web que aleatoriamente surfa na web, e segue em uma página para outra. O número calculado pelo algoritmo, PageRank, é uma Função da quantidade e da força de ligações de entrada. PageRank estima uma probabilidade de que surfa uma Determinada página será ATINGIDO POR um usuário da web que aleatoriamente na web e segue, como ligações de um para outra página. Na prática, isso significa que algumas ligações são mais fortes do que outros, como uma página PageRank mais elevado é mais provável de ser alcançado pelo surfista aleatória. Na prática, isso significa que algumas ligações são mais fortes do que outros, como uma página PageRank mais elevado é mais provável de ser alcançado pelo surfista aleatória.
Google abre sede em Buenos Aires, Argentina Google abre sede em Buenos Aires, Argentina Page e Brin fundaram o Google em 1998. Page e Brin fundaram o Google em 1998. Google atraiu um público fiel entre o número crescente de utilizadores da Internet, que gostava de seu desenho simples. Off-página fatores como PageRank ea análise de hiperlink foram considerados, bem como sobre os factores de página, para permitir que o Google para evitar o tipo de manipulação visto nos motores de busca que apenas considerados em factores de página para os seus rankings. Google atraiu um público sentir entre o Crescente número de utilizadores da Internet, que gostava de seu desenho simples. [6] Off-página fatores como PageRank ea análise de Considerados foram hiperlink, bem como sobre os factores de página, para Permitir que o Google para Evitar o tipo de manipulação de visita em motores de busca que Considerados apenas em factores de página para os seus rankings. Embora o PageRank era mais difícil do jogo, webmasters já tinham desenvolvido ferramentas de links e esquemas para influenciar o mecanismo de busca Inktomi, e estes métodos revelaram igualmente aplicáveis a ganhar PageRank. Embora o PageRank era mais difícil do jogo, webmasters já tinham desenvolvido ferramentas e links de esquemas para influenciar o mecanismo de busca Inktomi, métodos e estes revelaram aplicáveis Igualmente um PageRank ganhar. Muitos sites focados em trocar, comprar e vender links, muitas vezes em uma escala maciça. Muitos sites focados em trocar, comprar e vender links, muitas vezes em uma escala maciça. Alguns destes esquemas, ou link fazendas, envolveu a criação de milhares de sites com o único propósito de "spam" link. Alguns destes esquemas, ou link fazendas, envolveu uma criação de Milhares de sites com o único propósito de "spam" link.
Para reduzir o impacto dos sistemas de ligação, a partir de 2007, os motores de busca consideram uma ampla gama de fatores reservadas para os seus algoritmos de classificação. Para Reduzir o impacto dos sistemas de ligação, a partir de 2007, os motores de busca Consideram uma ampla gama de fatores reservadas para os seus algoritmos de classificação. Google diz que classifica sites usando mais de 200 sinais diferentes. Os três principais motores de busca, Google, Yahoo e Microsoft 's Live Search, não divulgar os algoritmos que eles usam para classificar as páginas. Google diz que classifica sites usando mais de 200 diferentes sinais. Os três principais motores de busca, Google, Yahoo e Microsoft é o Live Search, não divulgar os algoritmos que eles usam para Classificar as páginas. Notáveis SEOs, como Rand Fishkin, Barry Schwartz, Aaron Wall e Jill Whalen, estudaram diferentes abordagens para search engine optimization, e publicou suas opiniões em fóruns online e blogs. praticantes de SEO pode também estudar as patentes detidas por vários motores de busca para obter insights sobre os algoritmos. Notáveis SEOs, como Rand Fishkin, Barry Schwartz, Aaron Wall e Jill Whalen, estudaram diferentes abordagens para otimização de mecanismos de busca, e publicou suas opiniões em fóruns online e blogs. praticantes de SEO estudar também pode patentes Detidas por vários motores de busca para Obter insights sobre os algoritmos.
Em 1997, os motores de busca reconhecer que alguns webmasters estavam fazendo esforços para classificar bem em seus motores de busca, e até mesmo manipular os rankings da página nos resultados de pesquisa. Em 1997, os motores de busca Reconhecer alguns webmasters que Estavam fazendo Esforços para Classificar bem em seus motores de busca, e até mesmo manipular os rankings da página nos resultados de pesquisa. Early motores de busca, como o Infoseek, ajustaram os seus algoritmos para evitar webmasters de manipular rankings enchendo páginas com palavras-chave excessivo ou irrelevante. Early motores de busca, como o Infoseek, ajustado seus webmasters algoritmos para Evitar manipular rankings de enchendo páginas com palavras-chave Excessivo ou irrelevante.
Devido ao alto valor de comercialização de resultados de pesquisa orientada, há potencial para um relacionamento adversarial entre os motores de busca e SEOs. Devido ao alto valor de Comercialização de resultados de pesquisa orientada, há potencial para um relacionamento contraditório entre os motores de busca e SEOs. Em 2005, uma conferência anual, AIRWEB, Adversarial Information Retrieval on the Web ,foi criado para discutir e minimizar os efeitos nocivos dos fornecedores de conteúdos agressivos da web. Em 2005, uma conferência anual, AIRWEB, Adversarial Information Retrieval on the Web ,foi criado para discutir e Minimizar os efeitos nocivos dos Fornecedores de conteúdos agressivos da web.
SEO empresas que empregam técnicas excessivamente agressivo pode começar seu cliente sites proibidos a partir dos resultados de pesquisa. Técnicas de SEO Empresas que Empregam excessivamente agressivo pode começar seu cliente sites proibidos a partir dos resultados de pesquisa. Em 2005, o Wall Street Journal perfilado uma empresa, a Traffic Power, que supostamente usavam técnicas de alto risco e não divulgou os riscos para seus clientes. A revista Wired informou que a mesma empresa processou blogger Aaron Wall por escrever sobre a proibição. Google, Matt Cutts confirmou mais tarde que o Google fez, de facto, proibição de circulação de energia e alguns de seus clientes. Em 2005, o Wall Street Journal perfilado uma empresa, o Tráfego de energia, que usavam técnicas Supostamente de alto risco e não divulgou os riscos para seus clientes. revista Wired obteve a mesma empresa que processou blogger por Aaron Wall escrever sobre a Proibição. Google Matt Cutts Confirmou mais tarde que o Google fez, de facto, Proibição de circulação de energia e alguns de seus clientes.
Alguns motores de busca também estendeu a mão para a indústria de SEO, e são freqüentes os patrocinadores e convidados em conferências e seminários de SEO. Alguns motores de busca também estendeu a mão para uma Indústria de SEO, e são freqüentes os patrocinadores e convidados em conferências e seminários de SEO. Na verdade, com o advento da inclusão paga, alguns motores de busca agora têm um interesse na saúde da comunidade de otimização. Na verdade, com o advento da inclusão paga, alguns motores de busca agora Tem um interesse na saúde da comunidade de otimização. Importantes motores de busca fornecem informações e orientações para ajudar na otimização do site. O Google tem um programa Sitemaps para ajudar os webmasters a saber se o Google está tendo algum problema de indexação seu site e também fornece dados sobre o tráfego do Google para o site. Importantes motores de busca fornecem informações e orientações para ajudar na otimização do site. O Google Sitemaps tem um programa para ajudar os webmasters a saber se o Google está tendão algum problema de indexação e seu site também fornece dados sobre o Tráfego do Google para o site. Yahoo! Yahoo! Site Explorer fornece uma maneira para os webmasters para enviar URLs, determinar quantas páginas estão no Yahoo! Site Explorer fornece uma maneira para os webmasters para enviar URLs, quantas páginas Determinar estão no Yahoo! índice de ligação e informação vista. Índice ligação de vista e informação.
Os principais motores de busca, Google, Yahoo! Os principais motores de busca, Google, Yahoo! e Microsoft, rastreadores usam para encontrar páginas de seus resultados de busca algorítmica. e Microsoft, Rastreadores usam para encontrar páginas de seus resultados de busca Algorítmica. Páginas que estão linkadas de outro mecanismo de busca de páginas indexadas não precisa ser apresentado, porque eles são encontrados automaticamente. Páginas que estão linkadas de outro mecanismo de busca de páginas indexadas não precisa ser apresentado, Porque eles são encontrados automaticamente. Alguns motores de busca, nomeadamente Yahoo!, Operar uma apresentação serviço pago que garante o rastreamento de uma taxa do jogo ou custo por clique. Tais programas geralmente garante a inclusão no banco de dados, mas não garantem a classificação específica dentro dos resultados de pesquisa. Yahoo programa de inclusão paga tem atraído críticas de anunciantes e concorrentes. Dois diretórios principais, o Yahoo Directory eo Open Directory Project ambos exigem a submissão manual e revisão editorial humana. Google oferece o Google Sitemaps, para que um tipo de feed XML pode ser criado e apresentado gratuitamente para garantir que todas as páginas são encontradas, principalmente páginas que não são detectáveis pelos seguintes links automaticamente. Alguns motores de busca, nomeadamente Yahoo!, Operar uma apresentação serviço pago que garante o rastreamento de uma taxa do jogo ou custo por clique. Tais programas Geralmente garante uma inclusão no banco de dados, mas não Garantem uma classificação específica dentro dos resultados de pesquisa. Yahoo programa de inclusão paga gerou críticas dos anunciantes e dos Concorrentes. Diretórios principais Dois, o diretório do Yahoo e do Open Directory Project ambos exigem uma submissão manual e humana revisão editorial. Google bue o Google Sitemaps, para o qual um XML tipo de alimentação pode ser criado e apresentado gratuitamente para todas Garantir que as páginas são encontradas, principalmente páginas que não são detectáveis pelos seguintes links automatically.
Motor de pesquisa indexadores pode olhar para um número de fatores diferentes ao rastrear um site. Esteiras rolantes do Search Engine pode olhar para um número de fatores diferentes, quando o rastreamento de um site. Não cada página é indexada pelos motores de busca. Não cada página é indexada pelos motores de busca. Distância de páginas a partir do diretório raiz de um site também pode ser um fator em se deve ou não receber páginas indexadas. [27] Distância de páginas a partir do diretório raiz de um site também pode ser um fator em se DEVE ou não Receber páginas indexadas.
Robots Exclusion Standard Ver artigo principal: Robots Exclusion Standard
Para evitar conteúdos indesejáveis nos índices de pesquisa, os webmasters podem instruir aranhas para rastrear certos arquivos ou diretórios através do arquivo padrão robots.txt no diretório raiz do domínio. Para Evitar conteúdos indesejáveis nos índices de pesquisa, también webmasters instruir os aranhas para Rastrear Certos arquivos ou Diretórios Através do arquivo robots.txt padrão nenhum diretório raiz do dominio. Além disso, uma página pode ser expressamente excluídos do banco de dados de um motor de busca usando uma meta tag específica para robôs. Além disso, uma página pode ser expressamente excluídos do banco de dados de um motor de busca usando uma meta tag específica para robôs. Quando um motor de busca visita um site, o robots.txt localizado no diretório raiz é o primeiro arquivo rastreado. Quando um motor de busca visita um site, o robots.txt localizado nenhum diretório raiz é o primeiro arquivo RasTreaDo. O arquivo robots.txt é então analisado e irá instruir o robô a qual as páginas não devem ser rastreados. O arquivo robots.txt é então analisado e Ira instruir o robô Qual a páginas como não Devem ser rastreados. Como um indexador motor de busca pode manter uma cópia em cache desse arquivo, ele pode rastrear páginas de vez em quando um webmaster não deseja rastreados. Como indexador um motor de busca pode Manter uma cópia desse arquivo em cache, ele pode Rastrear páginas de vez em quando um webmaster não Deseja rastreados. Páginas tipicamente impedidos de serem rastreados incluem login páginas específicas, tais como carrinhos de compras do usuário e conteúdo específico, tais como resultados de pesquisa a partir de pesquisas internas. Páginas tipicamente rastreados Impedidos de Serem Incluem login páginas específicas, tais como carrinhos de compras do usuário e conteúdo específico, tais como resultados de pesquisa a partir de pesquisas internas. Em março de 2007, o Google webmasters alertou que devem evitar a indexação da pesquisa interna, pois essas páginas são consideradas spam pesquisa. Em março de 2007, o Google webmasters Devem Evitar que alertou uma indexação da pesquisa interna, pois essas páginas são consideradas spam pesquisa.
Técnicas de SEO são classificados por alguns em duas grandes categorias: as técnicas que os motores de pesquisa recomendam como parte de um bom design, e as técnicas que os motores de busca não aprovam e tentar minimizar o efeito, referido como spamdexing. Técnicas de SEO são classificados por alguns grandes em duas categorias: as técnicas que os motores de pesquisa recomendam como parte de um bom design, e as técnicas que os motores de busca não aprovam e tentar Minimizar o efeito, referido spamdexing como. Alguns analistas da indústria classificar esses métodos, e os profissionais que os empregam, como quer SEO de chapéu branco, ou chapéu preto SEO. chapéus brancos tendem a produzir resultados que duram muito tempo, enquanto chapéus pretos antecipar que seus sites serão eventualmente banido uma vez que os motores de busca descobrir o que eles estão fazendo. Alguns analistas da indústria Classificar esses métodos, e os profissionais que Empregam os, como quer SEO de chapéu branco, ou chapéu preto SEO. chapéus brancos Tendem a produzir resultados que duram muito tempo, enquanto chapéus pretos que antecipar seus sites Serão eventualmente banido uma vez os motores de busca descobrir o que eles estão fazendo.
Uma tática SEO, técnica ou método é considerado chapéu branco se estiver em conformidade com as orientações da motores de busca "e não envolve nenhum engano. Uma SEO tática, técnica ou método é considerado chapéu branco se Estiver em Conformidade com as orientações da motores de busca "e não envolvem nenhum engano. Conforme as orientações motor de busca não são escritas como uma série de regras ou mandamentos, esta é uma distinção importante a nota. Como as orientações do motor de busca não são gravadas como uma série de regras ou mandamentos, esta é uma distinção importante uma nota. SEO de chapéu branco não é apenas sobre as seguintes orientações, mas consiste em garantir que o teor de um motor de busca de índices e posteriormente classifica é o mesmo conteúdo que um usuário verá. chapéu branco SEO não é apenas sobre as seguintes orientações em, mas Consiste Garantir que o teor de um motor de busca de índices e posteriormente classificação é o mesmo conteúdo que um usuário verá.
White hat conselho é geralmente resumida da criação de conteúdo para os usuários, não para os motores de busca, e em seguida, fazendo que o conteúdo de fácil acesso para as aranhas, ao invés de tentar o jogo algoritmo. Chapéu branco e Conselho Geralmente resumida da criação de conteúdo para os usuários, não para os motores de busca, e em seguida, fazendo que o conteúdo de fácil acesso para as aranhas, ao invés de tentar o jogo algoritmo. White Hat SEO é em muitos aspectos semelhante ao desenvolvimento web que promove a acessibilidade ,embora os dois não são idênticos. White Hat SEO é em muitos aspectos semelhante ao Desenvolvimento da Web que promove uma acessibilidade ,embora os dois não são idênticos.
O chapéu preto SEO tenta melhorar a classificação de formas que são reprovados pelos motores de pesquisa, ou envolver fraude. O chapéu preto SEO tenta melhorar uma classificação de formas que são reprovados pelos motores de pesquisa, ou envolver fraude. Uma técnica que usa chapéu preto de texto que está oculto, quer como texto colorido semelhante ao fundo, em uma div invisível, ou posicionado fora da tela. Uma técnica que E.U.A. Chapéu Preto de texto que está oculto, quer como texto colorido semelhante ao fundo, em uma div invisível, ou posicionado fora da tela. Outro método dá uma página diferente, dependendo se a página está sendo pedida por um visitante humano ou um motor de busca, uma técnica conhecida como camuflagem. Outro método dá uma página diferente, Dependendo se a página está sendo pedida por um visitante humano ou um motor de busca, uma técnica conhecida como disfarce.
Os motores de busca podem penalizar os sites que descobrir através de métodos chapéu preto, quer reduzindo ou eliminando os seus rankings seus anúncios em suas bases de dados completamente. Os motores de busca os pueden penalizar sites que descobrir Através de métodos Chapéu Preto, quer Reduzindo ou Eliminando os seus rankings seus anúncios em suas bases de dados completamente. Tais sanções podem ser aplicadas, automaticamente por algoritmos dos motores de busca ", ou por uma revisão do site manual. Tais sanções aplicadas también, automatically por algoritmos dos motores de busca ", ou por uma revisão do site manual.
Um exemplo famoso foi a fevereiro 2006 Google a remoção de ambos os BMW da Alemanha ea Alemanha Ricoh para o uso de práticas enganosas. Ambas as empresas, no entanto, rapidamente se desculpou, fixa as páginas em falta, e foram restaurados a lista do Google. Um exemplo famoso foi a fevereiro 2006 Google um Remoção de ambos os BMW da Alemanha e Alemanha Ricoh para o uso de práticas enganosas. Ambas as empresas, no entanto, rapidamente se desculpou, fixa como em falta páginas, foram restaurados e uma lista do Google.
Estudos de monitoramento dos olhos têm mostrado que os pesquisadores digitalizar uma página de resultados, de cima para baixo e da esquerda para a direita (para a esquerda para a direita línguas), procurando um resultado relevante. Estudos de monitoramento dos olhos Têm mostrado que os pesquisadores digitalizar uma página de resultados, de cima para baixo e da esquerda para a direita (para a esquerda para a direita línguas), procurando um resultado relevante. Colocação em ou perto do topo do ranking, por conseguinte, aumenta o número de pesquisadores que visitam um site. No entanto, mais referências motor de busca não garante mais vendas. Colocação em ou perto do topo do conseguinte, por ranking, aumenta o número de pesquisadores que visitam um site. No entanto, mais referências motor de busca não garante mais vendas. SEO não é necessariamente uma estratégia adequada para cada site, e outras estratégias de marketing na Internet pode ser muito mais eficaz, dependendo dele o operador do site. A campanha de marketing bem sucedido do Internet pode conduzir resultados orgânicos da busca para páginas, mas também pode envolver o uso de publicidade paga nos motores de busca e outras páginas, construção de páginas web de alta qualidade para envolver e persuadir, abordando questões técnicas que podem manter pesquisa mecanismos de rastreamento e indexação dos sites, a criação de programas de análise para permitir que os proprietários do local para avaliar os seus sucessos, e uma melhoria da taxa de conversão do site. SEO Necessariamente não é uma Estratégia Adequada para cada local, e outras estratégias de marketing na Internet pode ser muito mais eficaz, Dependendo dele o operador do site. A campanha de marketing bem sucedido do Internet pode Conduzir resultados orgânicos da busca para páginas, mas pode envolver também o uso de publicidade paga nos motores de busca e outras páginas, construção de páginas web de alta qualidade para envolver e persuadir, abordando questões técnicas que os pueden Manter motores de busca de rastreamento e indexação dos sites, a criação de programas de análise para Permitir que os sites de Proprietários para medir os seus êxitos, e Melhorar a taxa de um site de conversão.
SEO pode gerar um retorno sobre o investimento. SEO pode Gerar um retorno sobre o investimento. No entanto, os motores de busca não são pagos para o tráfego de busca orgânica, a sua mudança de algoritmos, e não há garantias de referências continuou. No entanto, os motores de busca não são pagos para o Tráfego de busca orgânica, a sua mudança de algoritmos, e não há Garantias de Referências Continuou. Devido a esta falta de garantias e de segurança, um negócio que depende muito do tráfego motor de busca pode sofrer grandes perdas se os motores de busca parar de enviar os visitantes. Considera-se prática empresarial sábio para operadores de sites para se libertar da dependência do tráfego motor de busca. A topo do ranking SEO blog Seomoz.org relatou, "Pesquisa de marketing, em um toque de ironia, receber uma parte muito pequena do seu tráfego dos motores de busca". Devido a esta falta de Garantias e de segurança, um negócio que depende muito do Tráfego motor de busca pode sofrer grandes perdas se os motores de busca parar de enviar os visitantes. Considera-se prudente uma prática de negócios para Operadores de sites para se libertar da dependência do motor de busca Tráfego. A topo do ranking SEO blog Seomoz.org relatou, "Pesquisa de marketing, em um toque de ironia, muito Receber uma pequena parte do seu Tráfego dos motores de busca". Em vez disso, suas principais fontes de tráfego são links de outros sites. Em vez disso, suas principais fontes de Tráfego de São links de outros sites.
A página de resultados de busca Baidu partes de motores de busca do mercado variam de mercado para mercado, como faz a concorrência. Partes de motores de busca do mercado variam de mercado para mercado faz, como a concorrência. Em 2003, Danny Sullivan afirma que o Google representa cerca de 75% de todas as pesquisas. Nos mercados fora dos Estados Unidos, a participação do Google é muitas vezes maior, eo Google continua a ser dominante no mundo inteiro motor de busca a partir de 2007. Em 2006, o Google realizou cerca de 40% do mercado nos Estados Unidos, mas o Google teve um 85-90% de market share na Alemanha. Embora houvesse centenas de empresas de SEO em os E.U. naquela época, havia apenas cerca de cinco na Alemanha. Em 2003, Danny Sullivan afirma que o Google representa cerca de 75% de todas as pesquisas. em mercados fora dos Estados Unidos, a participação do Google é muitas vezes maior, eo Google continua um ser dominante mundo inteiro nenhum motor de busca a partir de 2007. A partir de 2006, o Google realizou cerca de 40% do mercado nos Estados Unidos, mas o Google teve um 85-90% de quota de mercado na Alemanha. Embora houvesse Centenas de empresas de SEO em os EU Naquela época, havia apenas cerca de cinco em Alemanha.
Na Rússia, a situação é inversa. Na Rússia, a situação é inversa. Yandex motor de busca local controla 50% das receitas de publicidade paga, enquanto o Google tem menos de 9%. Na China, o Baidu continua a liderar a quota de mercado, embora o Google tem vindo a ganhar quota-parte, de 2007. Local das Yandex motor de busca controla 50% receitas de publicidade paga, enquanto o Google tem menos de 9%. Na China, o Baidu Continua a liderar uma quota de mercado, embora o Google tem vindo a ganhar quota-parte, de 2007.
Otimização de sucesso para os mercados internacionais pode exigir profissionais de tradução de páginas da web, registo de um nome de domínio com um domínio de nível superior no mercado-alvo, e hospedagem na web que fornece um endereço IP local. Otimização de sucesso para os mercados internacionais pode to claim tradução profissional de páginas web, registo de um nome de um com dominio dominio de Nível Superior nenhum mercado-alvo, e hospedagem na web que fornece um endereço IP local. Caso contrário, os elementos fundamentais da pesquisa otimização são essencialmente os mesmos, independentemente do idioma. Caso contrário, OS ELEMENTOS FUNDAMENTAIS DA PESQUISA otimização Essencialmente são os mesmos, Independentemente do idioma.
Em 2002, SearchKing entrou com uma ação em um tribunal de Oklahoma contra o motor de busca Google. Em 2002, SearchKing entrou com uma ação em um tribunal de Oklahoma contra o motor de busca Google. SearchKing alegação era a de que as táticas do Google para impedir spamdexing constituía uma prática comercial desleal. SearchKing era uma alegação de que as Táticas spamdexing avert do Google para Constituià uma prática comercial desleal. Em maio de 2003, o tribunal pronunciou um julgamento sumário em favor do Google. Em maio de 2003, pronunciou o tribunal um julgamento sumário em favor do Google.
Em março de 2006, KinderStart.com, LLC arquivou uma Primeira denúncia apresentada contra o Google e também tentou incluir potenciais membros da classe dos demandantes em uma ação de classe. O site web do autor foi removido do índice do Google antes da ação judicial e da quantidade de tráfego para o site despencou. Em março de 2006, KinderStart.com, LLC Apresentou uma primeira queixa apresentada contra o Google e também tentou incluir Potenciais membros da classe dos demandantes em uma ação de classe. O web site do autor foi removido do índice do Google antes da ação ea quantidade de Tráfego despencou para o site. On March 16 , 2007 the United States District Court dismissed KinderStart's complaint without leave to amend, and partially granted Google's motion for Rule 11 sanctions against KinderStart's attorney, requiring him to pay part of Google's legal expenses. Em 16 de março, 2007 no Tribunal Distrital dos Estados Unidos rejeitou a denúncia KinderStart sem deixar de emendar, e deferiu parcialmente o movimento do Google para o artigo 11 as sanções contra o advogado KinderStart, obrigando-o a pagar parte das despesas legais do Google.
Assinar:
Postagens (Atom)
-
A guerra na Ucrânia, iniciada em fevereiro de 2022 com a invasão em larga escala da Rússia, representa um dos conflitos mais significativos ...
-
http://tecnologia.terra.com.br/galerias/0,,OI98842-EI4795,00.html A Sony Ericsson esta lançando no brasil celular com utilitarios para nogo...