internet banda larga conquista europeus

O relatório da Comissão Europeia indica que o mercado da banda larga tem vindo a conquistar cada vez mais os consumidores europeus. Os dados mostram que Portugal sofreu um crescimento de cerca de 11%, uma das mais altas taxas de acesso a banda larga móvel. A Comissão Europeia divulgou um relatório que mostra que Portugal ocupa o terceiro lugar na utilização da banda larga móvel na União Europeia.
Os dados são relativos a Julho de 2009 que referem que um em cada quatro europeus tem acesso a linha da banda larga. Em Portugal 17,6% têm esse acesso, valor ligeiramente inferior.
O documento revela que, este ano, Portugal teve um aumento de 11,7%, no que diz respeito à taxa de acesso a banda larga móvel, realidade que surge numa fase de abrandamento económico. A Comissão Europeia destaca a força que a banda larga tem vindo a conquistar no mercado europeu, com um crescimento de 54% desde Janeiro.
Este tipo de tecnologia está a ganhando forças na Áustria, Suécia, Portugal e Irlanda. A instituição refere que houve um crescimento no acesso da banda larga na Europa que não era previsto, dado que no mês de Julho de 2008 a taxa situava-se nos 21,6%.

De 2005 para 2008, acesso à Internet aumenta e mais da metade dos brasileiros passa a ter telefone celular




Em três anos, o percentual de brasileiros de dez anos ou mais de idade que acessaram ao menos uma vez a Internet pelo computador aumentou 75,3%, passando de 20,9% para 34,8% das pessoas nessa faixa etária, ou 56 milhões de usuários, em 2008. No mesmo período, a proporção dos que tinham telefone celular para uso pessoal passou de 36,6% para 53,8% da população de dez anos ou mais de idade, sendo que, para 44,7% dessas pessoas (ou cerca de 38,6 milhões de brasileiros), o celular era o único telefone para uso pessoal.
Os números são do Suplemento da Pesquisa Nacional por Amostra de Domicílios (Pnad) 2008 sobre Acesso à Internet e Posse de Telefone Móvel Celular para Uso Pessoal.
Os mais jovens acessam mais a Rede mundial de computadores, assim como os mais escolarizados – embora, entre 2005 e 2008, o acesso tenha crescido mais entre aqueles com menos anos de estudo. As diferenças regionais no uso da Internet permanecem, sendo que o percentual de usuários era menor no Norte (27,5%) e Nordeste (25,1%) e maior no Sudeste (40,3%), Centro-Oeste (39,4%) e Sul (38,7%). O local de onde mais se acessava a Internet continuava sendo, em 2008, o próprio domicílio, mas em segundo lugar vinham os centros públicos de acesso pago – ou lan houses -, que superaram o local de trabalho (segundo local de acesso em 2005). Também houve mudança no principal motivo que leva as pessoas a usarem a Internet: 83,2% acessaram a Rede em 2008 principalmente para se comunicar com outras pessoas – em 2005, o principal motivo era educação ou aprendizado, que caiu para o terceiro lugar em 2008. Nesses três anos, o acesso à Internet por conexão de banda larga duplicou, mas, em 2008, 32,8% dos que não acessaram a Rede ainda diziam que não queriam ou não achavam necessário usá-la.
Em relação à posse de celular, entre 2005 e 2008 diminuiu diferença entre os percentuais de homens e mulheres que tinham o aparelho. As pessoas que tinham celular apresentavam um número médio de anos de estudo superior (9,2) ao das que não tinham (5,2), e o percentual dos que tinham celular crescia conforme aumentava a faixa de rendimento domiciliar per capita.
A seguir os principais destaques do Suplemento da Pnad 2008.
Em 2008, 56 milhões de pessoas de dez anos ou mais de idade acessaram a Internet pelo menos uma vez1, por meio de um computador, contingente que representava 34,8% dessa população e mostrou um aumento expressivo nos últimos três anos - em 2005, o percentual era de 20,9%. O aumento no acesso à Internet se deu tanto para os homens (de 21,9% em 2005 para 35,8% em 2008) quanto para as mulheres (de 20,1% para 33,9%).
As regiões Sudeste (40,3%), Centro-Oeste (39,4%) e Sul (38,7%) registravam os maiores percentuais de usuários, e as regiões Norte (27,5%) e Nordeste (25,1%), os menores. Entre as unidades da federação, Distrito Federal (56,1%), São Paulo (43,9%) e Rio de Janeiro (40,9%) tinham os maiores percentuais de pessoas que acessaram a Internet; enquanto Alagoas (17,8%), Piauí (20,2%) e Maranhão (20,2%) apresentaram os menores percentuais.
A utilização da Internet era, em 2008, maior entre os mais jovens. O grupo de 15 a 17 anos de idade registrou o maior percentual (62,9%) de pessoas que acessaram a rede e, além disso, teve o maior aumento em relação a 2005 (quando era de 33,7%). A partir dessa faixa etária, o percentual de usuários diminuía com a idade, chegando a 11,2% das pessoas de 50 anos ou mais. Esse grupo representava, em 2008, 24,8% da população total, mas correspondia a apenas 8,0% do total dos que tinham acessado a Internet. A proporção de pessoas que acessaram a Internet no grupo de 10 a 14 anos de idade (51,1%) ficou acima das percentagens de usuários em todas as faixas etárias a partir de 25 anos, em todas as regiões.

larrabee

A Intel promete revolucionar a computação grafica,tornando as imagens ainda mais reais o sonho de todos que trabalham com construção 3D.


HACKERS PLANEJAM INVADIR URNAS ELETRONICA NAS ELEIÇOÊS DE 2010


 


    A urna eletrônica e dos softwares de votação que serão usados nas eleições de 2010 serão colocados a prova por 32 hackers, no auditório do Tribunal Superior Eleitoral (TSE), em Brasília.
O período de quatro dias de testes, que será aberto ao público e a representantes de partidos políticos, foi considerado insuficiente pelo engenheiro especializado em segurança Amilcar Brunazo Filho, que acompanha o desenvolvimento da urna eletrônica desde 2000.
“Os hackers terão quatro dias para tentar invadir o sistema, mas a urna eletrônica
fica vulnerável durante 20 dias”, afirma o engenheiro referindo-se ao período em que 14 mil técnicos contratados temporariamente pelo TSE recebem a versão final do sistema de votação para instalar o programa nas urnas e distribuí-las nas zonas eleitorais.
Como representante técnico do Partido Democrático Trabalhista (PDT), Brunazo encaminhou ao TSE, em 2006, um pedido de testes públicos de segurança da urna eletrônica, ao lado dos representantes do Partido dos Trabalhadores (PT) e do Partido da República (PR). O grupo decidiu não participar do teste por não concordar com as condições estabelecidas para o teste, explica Brunazo.
Planos de invasão
A ideia dos testes públicos de
segurança no sistema eletrônico de votação é verificar possíveis vulnerabilidades no sistema e propor melhorias, informou a assessoria de comunicação do TSE. O grupo de 32 pessoas pode ser formado tanto por especialistas independentes, como de empresas ou de partidos políticos.
Entre os planos de testes apresentados pelos candidatos, destaca-se a inserção de um software malicioso no cartão de memória flash da urna para alterar o funcionamento do sotfware de inicialização do equipamento, com o objetivo de promover desvios nos votos digitados. Outra proposta envolve a investigação de ondas eletromagnéticas que permitem a identificação das teclas apertadas pelo eleitor, quebrando o sigilo do voto.
O TSE aprovou todas as 26 inscrições recebidas com propostas de tentativas de invasão da urna eletrônica. “Os participantes que apresentarem as três ideias mais relevantes para o aprimoramento do sistema serão premiados em 5 mil reais, 3 mil reais e 2 mil reais”, informa o órgão em seu site.
O grupo será dividido em cinco e os testes serão monitorados por uma comissão técnica indicada pelo próprio TSE, fato que também foi criticado por Brunazo. “A Comissão Avaliadora [formada por membros externos à Justiça Eleitoral e a Regulamentadora não foram indicadas pelos partidos”, afirma.

google lidera pesquisas




Um estudo realizado pela Serasa Experian Hitwise, consultoria que promove pesquisas e fornece informações sobre as interações de 90 mil pessoas em 60 mil sites brasileiros, confirmou que o Google é o líder absoluto das buscas feitas no País.
Segundo a pesquisa, a ferramenta foi utilizada em 95,37% das buscas brasileiras na internet, no período de quatro semanas (de 3 de setembro até 3 de outubro de 2009), enquanto seus concorrentes mais próximos, Yahoo! Search e Bing conseguiram a média de 1,86% e 1,69% de visitas, respectivamente.


Outros 37 sites de busca foram listados na análise do Hitwise, mas estes detiveram apenas 0,8% das buscas feitas no Brasil.




Comparando setembro de 2009 com abril do mesmo ano, os setores portais, entretenimento e esportes apresentaram o maior crescimento de tráfego vindo diretamente de ferramentas de buscas.


Nos Estados Unidos, as buscas realizadas por meio do Google, no mesmo período, contabilizaram 71%. A pesquisa completa pode ser encontrada na página da Serasa Experian Hitwise, pelo atalho tinyurl.com/yf6mzzk.

Transferencia de fotons na computação quantica

Você já imaginou que um computador pode ser construído a partir do cafezinho que você toma diariamente?


É isso mesmo, as moléculas da cafeína são compostos fundamentais dos computadores quânticos, um novo tipo de computador que pretende revolucionar todo que você já viu sobre informática.

Em virtude de suas propriedades físico-químicas, as moléculas da cafeína seriam usadas na fabricação de biochips, microcircuitos que usam moléculas como unidades de informações.

O grande segredo do avanço computacional é a miniaturização dos componentes eletrônicos, como os diodos, os transistores, os resistores e os capacitores, presentes nos microprocessadores e microcircuitos. Porém, essa redução nas dimensões dos componentes está chegando ao limite.

Se tais componentes tornarem-se muito pequenos, fenômenos quânticos passarão a interferir em seu funcionamento.
O chamado teletransporte quântico, que é a possibilidade de transferência de informações entre dois elétrons – através de um quanta de energia (fóton) – sem que haja interação entre esses elétrons, está sendo utilizado para o processo de fabricação de um supercomputador.

Nos modelos convencionais, os computadores trabalham com sistemas binários, chamados bits, que assumem valores definidos 0 ou 1, enquanto nos computadores quânticos são utilizados os quantum bits (qubits). Esses qubits podem estar em sobreposições quânticas de 0 e 1, assim como um fóton pode estar em sobreposição de polarização horizontal ou vertical. De fato, ao enviar um fóton individual, um teletransportador quântico básico transmite um único qubit de informação quântica.

O computador quântico consegue trabalhar com uma sobreposição de várias informações diferentes ao mesmo tempo. Ele poderia executar um algoritmo simultaneamente em um milhão de dados, usando uma quantidade em qubits igual à quantidade de bits que um computador convencional usaria para executar o mesmo algoritmo em um dado individual.
Simplificando; esse estado quântico aumenta muito a capacidade de manipulação das informações, permitindo que o computador quântico realize em frações de tempo o trabalho requerido pelos computadores convencionais.
Por exemplo: Estima-se que um computador comum levaria vários milhões de anos para decompor em fatores primos um número com mil algarismos. No entanto, o computador quântico levaria, para realizar a mesma tarefa, cerca de vinte minutos.

Até agora, apenas os elementos mais rudimentares dos computadores quânticos foram construídos: portas lógicas capazes de armazenar um ou dois qubits. A concretização de um computador quântico, mesmo de pequena escala, ainda está bem distante. Um problema chave é transferir dados quânticos com segurança entre diferentes portas lógicas ou processadores, seja em um único computador ou em redes.

Novos recurso no Gmail (labs)

‘Destinatário errado?’ e ‘Lembrar do joão’.

Já incluiu o joão (seu chefe) em vez do joão (seu amigo) por engano em um e-mail? Ops! Ative ‘Destinatário errado?’ e o Gmail verificará se você deseja incluir o joão Silva em vez do joão Souza, com base nas pessoas para as quais você envia e-mails com mais frequência.

Com a função ‘Lembre-se do joão’ você pode começar a escrever um e-mail para um grupo de pessoas, e o Gmail sugerirá outros contatos para você incluir.

Confira esses recursos experimentais e muito mais na guia Labs, em Configurações do seu Gmail.

Computador flakier

Querendo saber por que o computador só caiu de novo? Sua memória pode ser o culpado, de acordo com pesquisa do mundo real que o Google considera as taxas de erro maior do que trabalhos anteriores mostraram.

Com centenas de milhares de computadores em seus centros de dados, o Google pode coletar uma abundância de dados do mundo real sobre como as máquinas realmente funcionam. Isso é exatamente o que a empresa fez para um trabalho de pesquisa que as taxas de erro encontradas são surpreendentemente altos.
"Descobrimos que a incidência de erros de memória e intervalo de taxas de erro em diferentes DIMMs (dual in-line memory modules), a ser muito superior ao relatado anteriormente," de acordo com o documento redigido em conjunto por Bianca Schroeder, professor da Universidade de Toronto , Google e Eduardo Pinheiro e Wolf-Dietrich Weber. "Erros de memória não são eventos raros."

A probabilidade de um erro de memória não corrigida vai caminho, se um módulo de memória tem experimentado um erro corrigíveis nos meses mais recentes - 431 vezes mais provável em alguns casos.
(Crédito: Bianca Schroeder, Eduardo Pinheiro, e Wolf-Dietrich Weber
Como muitos erros? Em média, um em cada três servidores do Google sofreu um erro de memória corrigível a cada ano e uma em cem um erro incorrigível, um evento que normalmente provoca um acidente.
4.000 erros por ano
Isso não pode soar como uma fração alta, mas tenha em conta estes factores, também: cada módulo de memória experimentou uma média de quase 4.000 erros corrigíveis por ano, e ao contrário de seu PC, os servidores do Google usar o código de correção de erros (ECC), que pode beliscar mais desses problemas pela raiz. Isso significa que um erro corrigível em uma máquina do Google provavelmente é um erro incorrigível em seu computador, disse Peter Glaskowsky, um analista do Envisioneering Group (e membro da rede blog da CNET).
                                                                                                        
ECC detecta quando uma célula de memória que deveria ter armazenado um terminou com um zero ou vice-versa, eo Google também usa algumas tecnologias de maior efeito de correção de erros chamado Chipkill, também, segundo o jornal. O estudo mediu a maioria dos servidores do Google, recolheu dados por quase dois anos e meio, o primeiro estudo em tal escala. eles disseram.
Pesquisas anteriores, como alguns dados de um cluster de 300 computadores, mostrou que os módulos de memória apresentavam taxas de erro corrigível de 200 a 5.000 falhas por mil horas de operação. O Google, porém, encontraram uma taxa muito mais elevada: 25.000 a 75.000 milhões de falhas por hora.
Apesar de erros de memória pode causar problemas graves, elas são muito menos graves do que PCs para servidores, Glaskowsky disse. Isso porque os servidores mantêm uma grande quantidade de dados na memória, escrevê-lo periodicamente, para o refúgio seguro em relação de um disco rígido, enquanto a maioria da memória de um PC possui apenas uma aplicação ou arquivos do sistema operacional ou, talvez, algum conteúdo que está sendo visto, mas não editado.
"Principalmente PCs de consumo não estão manipulando grandes quantidades de dados na memória", disse Glaskowsky. "Em muitos casos é apenas para visualização."
Mas os resultados do estudo estão a causar alguma a repensar a sua abordagem de software. Um programador do Google Chrome, John Abd-El-Malek, sugeriu que o código do navegador de banco de dados ser cindido em um processo separado do resto do código do navegador para reduzir os problemas de corrupção.
"Mesmo que apenas uma pequena fração deles são prejudiciais, distribuídos ao longo de milhões de usuários que muita corrupção", escreveu ele. Ele não conseguiu convencer pelo menos alguns dos seus pares de sua abordagem em particular, mas um cético, Scott Hess, respondeu: "Eu posso ver como seria torná-lo útil para minimizar a quantidade de dados SQLite mantém a memória, independentemente de onde vive SQLite ".
Outros mitos debunked
O documento também desafiou algumas outras crenças sobre a memória.
• A temperatura não é um negócio tão grande.
Temperaturas mais altas geralmente causam mais taxas de erro, mas as diferenças de temperatura no centro de dados do Google "teve um impacto marginal sobre a incidência de erros de memória." No entanto, a utilização do sistema, que tende a andar de mãos dadas com a temperatura alta, não causa mais erros.
• Erros de "Hard" são mais comuns do "pequenos erros".
Hard erros, que são irreparáveis problemas com hardware são mais propensos a culpa do que pequenos erros, que as questões são transitórias causadas por eventos aleatórios, tais como raios cósmicos. Este achado é interessante ", já que o trabalho anterior muito tem-se que erros de software são o modo de erro dominante na DRAM," os autores, referindo-se a memória de acesso aleatório dinâmico comum usada para a memória dos computadores principais.
• Novas gerações de módulos de memória, como DDR2, não são piores do que os mais velhos.
Houve a preocupação de que novos módulos de memória, que pack eletrônicos mais firmemente, sofrem maiores taxas de erro. "Na verdade, DIMMs utilizados nos mais três plataformas recentes apresentam menores taxas de erro corrigíveis que as duas plataformas mais antigas, apesar das capacidades em geral, superiores DIMM", escreveram os autores. "Isto indica que as melhorias na tecnologia são capazes de acompanhar as tendências do contraditório na ampliação DIMM."
Os investigadores basearam esta conclusão, em parte, a evidência de que um erro em um módulo de memória é um bom indicador da outra para vir - quer corrigíveis ou incorrigível. Pior, as taxas de erro subir com o tempo:
"Nós vemos um efeito surpreendentemente forte e início da idade sobre as taxas de erro", disse o jornal. "O envelhecimento sob a forma de aumento das taxas de erro corrigíveis estabelece depois de apenas 10 a 18 meses no campo."
Google substitui erro módulos de memória de bruços, mas é mais difícil para os usuários regulares do computador sem memória ECC para detectar problemas. Nos velhos tempos da computação pessoal e na década de 1990, a memória não era confiável o suficiente para que as pessoas realizaram testes de confiabilidade.
Mas pode ser que os testes poderiam voltar, talvez construído em software de sistema operacional, Glaskowsky disse: "Se as taxas de erro são altos o suficiente, pode haver um argumento para a execução de testes de memória novamente."

livraria







































































































































































































































































































































































































































































































Sinopse

Este livro busca apresentar uma fundamentação teórica que relacione as seguintes áreas - oratória, neurolinguística, psicologia, linguagem corporal, argumentação, confeccção de PowerPoint, marketing pessoal etc. Leva ao leitor exemplos reais que podem ser aplicados em uma apresentação.













































Este livro segue duas linhas distintas- a da Comunicação, que é a profissional e abarca a comunicação externa e interna das organizações, e a que segue os estudos de Língua Portuguesa dos cursos que não de Comunicação. Como os manuais da área recomendam aos profissionais que a comunicação deve ser clara e direta mas silenciam sobre como obter esse tipo de desempenho, este livro ocupa-se do uso da linguagem e entende que a comunicação que se faz com apoio no conhecimento lingüístico alcança objetivamente a eficácia. O presente texto é resultado de pesquisa dos principais temas tratados em sala de aula no que se refere à disciplina Comunicação Empresarial. Ocupando-se de temas diretamente relacionados à Lingüística e à Comunicação, este livro poderá ser uma ferramenta de ensino e aprendizagem. Enfatiza, também, o uso tanto da modalidade escrita da língua quanto da modalidade oral.




Comunicaçao Empresarial -Politicas E Estrategias



Politicas e estrategias

Neste livro, o autor destaca a importância da comunicação para o equilíbrio e a sobrevivência das organizações.Traz os conceitos básicos da comunicação empresarial, mostrando o papel estratégico que a comunicação desempenha dentro das empresas, além de tratar de temas atuais, como - governança corporativa, sustentabilidade, responsabilidade socioambiental e a ampliação do espaço de atuação das empresas devido às novas tecnologias.




Comunicaçao Empresarial E Planos De Comunicaçao

Integrando Teoria E Pratica

Sinopse

Este livro objetiva oferecer material que possa agregar valor aos profissionais e estudantes relacionados direta ou indiretamente com as áreas de comunicação e marketing. O conteúdo trata de forma abrangente e prática a comunicação empresarial com suas vertentes- comunicação interna, comunicação institucional e comunicação de marketing. É complementado com planos de comunicação, do básico ao avançado. Dos planos gerais aos específicos.




Comunicaçao Empresarial Na Pratica


Este livro objetiva auxiliar estudantes e profissionais que desejam aperfeiçoar sua comunicação com o público interno e externo das organizações. Além de focar no processo de comunicação, a obra apresenta os aspectos para construir um bom texto e tornar a linguagem mais agradável e didática aos leitores. Livro com material de apoio.




Comunicaçao Organizacional














Sobrevivencia Empresarial


Neste livro, a autora destaca a importância do componente de marketing Comunicação para equilíbrio essencial e a sobrevivência das organizações. No esforço de criar uma marca forte, os gestores de processos comunicacionais desempenham um papel fundamental. Cabendo-lhes definir as estratégias corretas e escolher as ações mais eficazes. Neste sentido, o livro apresenta os principais instrumentos da Comunicação Organizacional e ferramentas de Marketing, com ênfase na área de Relações Públicas e seus desdobramentos. Trata-se dos temas capitais para que um planejamento estratégico de Comunicação de Marketing seja estruturado e implementado de forma a trazer os resultados pretendidos para as organizações dentro do tempo previsto.



















Comunicaçao Organizacional, V.1

Historico, Fundamentos E Processos


Sinopse

O livro apresenta os fundamentos teóricos e aplicados da comunicação organizacional e os impactos exercidos sobre ela pelas novas tecnologias da informação. Trata-se de um panorama da evolução da comunicação organizacional no País.























E Melhor Contar Tudo

Sinopse

Como conseguir chamar atenção em um universo abarrotado de meios de comunicação? O que faz que algumas mensagens se propaguem e atinjam exatamente o seu alvo, tornando-se um sucesso? O autor nos traz, neste livro, um estudo sobre a forma de transmitir uma mensagem e ser ouvido - contar uma história. Como conseguir ouvintes na Era da Economia da Atenção? Exemplos extraídos de filmes, séries de TV, comerciais de sucesso, livros, e de personalidades, como políticos, atores ou personagens de filmes e de livros, mostram o caminho para a construção de uma história.


















Falhas Na Comunicaçao

os melhores titulos

Baseada em experiência de 25 anos ensinando em universidades e atuando como 'coach' de empresas e executivos, a autora desenvolveu um método para facilitar conversas difíceis e delicadas no ambiente de trabalho. Ao longo dos doze capítulos, Holly Weeks descreve situações e conversas com difíceis desdobramentos e, através da análise de intenções e estratagemas de cada um dos lados, mostra como obter melhores resultados a partir de estratégias e uma metodologia próprias. As estratégias descritas em 'Falhas na comunicação' têm caráter geral e podem ser usadas em situações do dia-a-dia. Este livro é destinado as pessoas que buscam constante aprimoramento pessoal e profissional e habilidade para lidar com situações desconfortáveis.