This is default featured slide 1 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 2 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 3 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 4 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 5 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

domingo, 5 de dezembro de 2010

Para Ler!

Estudioso investiga condições ideais para gerar inovação

Para Steven Johnson, autor do livro "Where Good Ideas Come From", momentos "eureca" são raros. Autor, que analisou 200 invenções, defende que a inovação aparece em meios colaborativos e com fluxo de ideias
Charles Darwin não criou a teoria da seleção natural em um momento "eureca" ao ler "Ensaio sobre a População", de Thomas Malthus, em uma manhã de setembro de 1838. Suas anotações de um ano antes já tinham esboços da teoria.

Thomas Edison também não inventou a luz elétrica sozinho, mas tinha um colaborador. Johannes Gutenberg só inventou a impressão depois de pegar emprestada uma ideia crucial do processo de fabricação de vinhos.

Em "Where Good Ideas Come From" (De Onde Vêm as Grandes Ideias), ainda sem tradução no Brasil, o autor Steven Johnson derruba alguns mitos sobre as grandes invenções, como a do gênio solitário em seu "momento eureca".

Para Johnson, não é preciso se isolar numa casa no campo em busca de inspiração. Ao contrário, quanto mais exposição a diferentes ideias e situações, maiores as chances de inovar.

Autor de best-sellers como "Surpreendente!" -no qual defende o acesso irrestrito dos jovens a videogames-, Johnson revisita a história de quase 200 invenções científicas, tecnológicas e culturais.

MOTIVAÇÃO

Ao contrário do que se costuma pensar, a inovação não é movida pelo lucro, pela competição entre empresas, diz ele. "Se você olhar a história, a inovação aparece em ambientes colaborativos onde há fluxo de ideias", conclui. "São raros os casos de inovações criadas por empreendedores geniais."

O livro de Johnson, colaborador da "Wired" e do "New York Times" com mais de 1,5 milhão de seguidores no Twitter, não é exatamente um guia de inovação para empresas.

Sobretudo por seu argumento de que a inovação não é movida pelas grandes companhias.

Mas o autor descreve alguns padrões comuns que podem ajudar a criar ambientes mais criativos.

Como facilitar o fluxo casual de informações entre pessoas com formações diferentes, seja no bar ou nas redes sociais na internet.

Dar tempo ao tempo. As ideias precisam de tempo para amadurecer.

E algumas invenções só são possíveis a partir de outras. O YouTube teria sido um fracasso se tivesse sido inventado antes da web, por exemplo.

Já erros são importantes. É importante arriscar.

"Ambientes pouco inovadores são um sinal de que está faltando alguns desses sistemas", diz o autor, que conversou com a Folha por telefone de Dallas, nos EUA, em meio a uma turnê de lançamento do livro.

Fonte: Mariana Barbosa, Folha de S.Paulo.Os assinantes Folha/UOL, podem ler mais ao clicar aqui.

quinta-feira, 2 de dezembro de 2010

Tecnologia da IBM combina luz e elétrons para turbinar supercomputador


(http://idgnow.uol.com.br/mercado/2010/11/02/tecnologia-da-ibm-combina-luz-e-eletrons-para-turbinar-supercomputador)
Por IDG News Service/New York
Publicada em 02 de dezembro de 2010 às 08h35
Integração da fotônica ao silício poderá ser a base dos sistemas de milhões de trilhões de cálculos por segundo prometidos para 2020.
Pesquisadores da IBM fizeram uma descoberta inovadora ao usar pulsos de luz para acelerar a transferência de dados entre chips - uma técnica que pode aumentar mais de mil vezes o desempenho dos supercomputadores, afirma a empresa.
A nova tecnologia, chamada de Nanofotônica Integrada ao Silício CMOS, combina módulos ópticos e elétricos em uma única pastilha de silício. Isso permite que os sinais elétricos criados em nível de transistor sejam convertidos em pulsos de luz, o que permite que os chips se comuniquem a velocidades maiores, explicou o cientista pesquisador de fotônica em silício da IBM, Will Green.
A tecnologia poderá levar a avanços maciços no poder dos supercomputadores, de acordo com a IBM. Os mais rápidos supercomputadores da atualidade chegam a cerca de 2 petaflops, ou 2 mil trilhões de cálculos por segundo.
A tecnologia fotônica poderia elevar essa marca à casa do milhão de trilhão de cálculos por segundo, ou um exaflop. Com isso, a IBM poderia cumprir seu objetivo de construir um computador em escala exa em 2020, disse Green.
“Em um sistema de escala exa, as interconexões precisam ser capazes de entregar dados pela rede ao ritmo de exabytes por segundo”, explicou Green. “Este é um marco importante para projetistas de sistemas que buscam construir sistemas desse tipo dentro de dez anos.”
Comunicação simultânea
Múltiplos módulos fotônicos poderão ser integrados em um único substrato ou numa placa-mãe, detalhou Green. Os supercomputadores mais recentes já usam tecnologia óptica para comunicação entre chips, mas geralmente em nível de rack e na maior parte das vezes utilizando um único comprimento de onda. O avanço obtido pela IBM permitirá a comunicação óptica simultânea em diferentes comprimentos de onda, acrescentou.
A tecnologia pode ser produzida em uma linha de produção de chips padrão e não requer ferramentas especiais, o que a torna vantajosa em termos de custo, de acordo com a IBM. A demonstração realizada pela empresa foi baseada em um nó de fabricação CMOS de 130 nanômetros, mas a IBM tem como meta a integração em “processos CMOS profundamente miniaturizados, de menos de 100 nanômetros’, disse Green.
A tecnologia visa substituir as trilhas de cobre popularmente utilizadas hoje para transferência de dados entre chips. Soluções ópticas podem ser mais rápidas para distâncias que variam de centímetros a algumas milhas, e consome menos energia.
A IBM espera um dia usar a tecnologia óptica para comunicações entre transistores dentro dos chips. “Há planos para o nível do chip, mas não é o que estamos demonstrando hoje”, explicou Green.
A Intel também pesquisa a tecnologia nanofotônica em silício, mas ainda não demonstrou a integração entre fotônica e eletrônica, de acordo com Green.
O anúncio de nanofotônica da IBM é resultado de uma década de trabalho nessa área em vários de seus laboratórios ao redor do mundo. Além da computação de alto desempenho, a empresa imagina que a tecnologia possa ser usada em outras áreas, como a de redes.
“A beleza da coisa é que nós temos uma plataforma que pode ser aplicada em muitos e diferentes lugares ao mesmo tempo”, concluiu Green.

(Agam Shah)

quinta-feira, 18 de novembro de 2010

artigos

http://idgnow.uol.com.br/blog/plural/2010/10/06/10-coisas-que-um-firewall-deve-fazer/
http://idgnow.uol.com.br/mercado/2010/11/18/as-10-expressoes-mais-exageradas-da-ti/
http://idgnow.uol.com.br/computacao_pessoal/2010/11/17/5-problemas-comuns-com-impressoras-e-como-resolve-los/ 
http://idgnow.uol.com.br/computacao_corporativa/2010/11/19/10-programas-gratis-que-voce-pode-obter-da-microsoft/

winoptimizer

http://info.abril.com.br/noticias/blogs/download-da-hora/2010/11/18/deixe-o-pc-mais-veloz-com-clean-n-optimize/
http://info.abril.com.br/noticias/blogs/download-da-hora/2010/11/26/10-programas-para-melhorar-seu-windows/

terça-feira, 9 de novembro de 2010

IPv6 - O que você precisa saber para sua empresa entrar no mundo do IPv6


(http://idgnow.uol.com.br/computacao_corporativa/2010/07/08/o-que-voce-precisa-saber-para-sua-empresa-entrar-no-mundo-do-ipv6)
Por PC World/EUA
Publicada em 12 de julho de 2010 às 08h00
Versão mais atual do principal protocolo da Internet resolve o gargalo representado pelo 'quarentão' IPv4; como sempre, planejamento é a chave.
A Internet promete conectividade ilimitada. Mas, para essa promessa virar realidade, é necessário que um computador ou dispositivo conectado na rede encontre os outros por meio de um sistema comum de endereços.
O sistema atual de endereços virtuais, fruto de desenvolvimento dos anos 70, está ficando lotado e há um número reduzido de números à disposição. Para dar conta dessa contingência, entra em ação o esquema de distribuição de endereços IP chamado de IPv6.
O que é o IPv6?Em 1981, os únicos computadores ligados na Internet eram terminais de instituições de pesquisa militar. Ambientados em um mundo de 8 bits, os endereços IP de 32 bits do IPv4 significavam endereçamento praticamente ilimitado (4 bilhões de endereços) para a estrutura da época.
Ao avançar o filme até os dias de hoje, vários milhões de usuários depois, chega-se próximo ao final da disponibilidade de endereços. Em teoria, quando todos os IPs estiverem ocupados será impossível conectar qualquer dispositivo novo na rede.
Há uma série de artifícios capaz de arrumar a casa e possibilitar a existência da Internet seguindo o endereçamento atual. Determinados provedores podem abrigar redes extensas sob um endereço IP público único, usando o esquema NAT, comum em redes de pequenas empresas e até na casa de quem usa um roteador wireless para dar acesso à rede para mais de um computador.
Apesar de economizar endereços IP, essas manobras influenciam no desempenho da rede. Em alguns países, principalmente nos em desenvolvimento, os provedores estão realizando leilões de endereços IP no “paralelo”.
Endereços IPv4 são compostos por conjuntos de quatro números, como 127.0.0.1. Isso é diferente de uma URL do tipo  www.idgnow.com.br, que é traduzido por servidores do serviço de nomes de domínio (Domain Name System, ou DNS). Uma única URL pode apontar para vários endereços IP, assim como várias URLs podem estar direcionadas para um IP único.
Homologado em 1998 pela ICANN (Internet Corporation for Assigned Names and Numbers – Corporação da Internet para designação de nomes e números, em tradução livre do inglês), o IPv6 oferece um endereçamento de 128 bits, o que literalmente expande a base de endereços para o "modesto" volume de 340 multiplicado por 10 elevado a 36.ª potência. isso permite oferecer bilhões de IP para cada pessoa da Terra e vai desafogar o crítico e iminente esgotamento de endereços IP.
Benefícios do IPv6O protocolo IPv6 abriga alguns itens de segurança. Como a versão 4 do IP foi desenvolvida em uma época de poucos acessos à rede, ela foi desenvolvida para uma rede “ingênua”. Já o IPv6, de caráter mais cínico, realiza diversas verificações antes de sair conectando loucamente qualquer endereço apresentado.
Os ataques chamados de Internet spoofing, por exemplo - aquele em que o sujeito envia uma mensagem jurando que quem envia é outra entidade -, estão com os dias contados.
Baseados em conexões mais robustas e seguras, os roteadores e firewalls da era IPv6 poderão oferecer maior proteção contra ataques anônimos. E a proteção de dados confidenciais será maior do que se pode ter hoje em dia.
Outra característica do IP versão 6 será a segurança de aplicativos essenciais, críticos. Entrada automatizada de pedidos e manutenção de contas de clientes e parceiros por sistemas de gestão de relacionamento estão entre os recursos beneficiados pelo IPv6.
Por oferecer mais controle na maneira em que informações são roteadas entre computadores, o IPv6 dá às empresas pequenas a oportunidade de aumentar sua segurança e equiparar-se aos esquemas brutais anti-invasão instalados em grandes corporações.
Aplicativos críticos, rich media, VPN e VoIP também irão usufruir de maior segurança e robustez. Uma conversa via VoIP, por exemplo, terá maior prioridade que um download ou acesso a qualquer outro arquivo.
Quem deve estar atento?
Às p
equenas e médias empresas com o mínimo de visão, essa alteração pode trazer vários benefícios, principalmente no que se refere à segurança, disponibilidade e performance de aplicativos. Esperar até o último minuto vai acarretar investimentos de última hora em atualização de equipamentos e transformar o que poderia ser um incremento na funcionalidade dos negócios em um pesadelo da modernidade.
Anunciada há vários anos, a chegada da versão 6 do protocolo IP continua a assombrar a perspectiva dos usuários e programadores da web. A data final de sua implantação ainda está em branco nos calendários do imprevisível mundo tecnológico. Determinadas localidades do mundo, especialmente na Ásia, vêm liderando a migração, junto com outros provedores de acesso.
O que parece inevitável é que, nos próximos dois anos, o IPv6 chegará.
Primeiros passosLembra do Y2K, a terrível passagem para o século XXI que acabaria com todos os sistemas informatizados e faria as cidades mergulhar no caos? Então, a maior parte do trabalho de adequação às imposições da nova era foi assumida por fornecedores e provedores de acesso.
Pequenas empresas terão, assim que o IPv6 começar a funcionar, que estar prontas em termos de software e de equipamento. Estar pronto para essa mudança é tarefa a ser levada a sério. Isso irá garantir que as tarefas essenciais atreladas ao funcionamento da web não parem.
Este trabalho também vai dar a oportunidade, às companhias, de negociar a compra de soluções agora, de maneira planejada e com margem para preços melhores; melhor que ter de comprar “já, pelo amor de deus, não importa o preço”.
Faça uma lista de todos os componentes da rede atuais e verifique a habilidade de eles interagirem com o IPv6. Fique atento. Existe fabricante por aí anunciando equipamento com possibilidade de suporte a processos ligados ao IPv6; dê preferência aos hardwares com suporte nativo.
No movimento migratório para o modelo IPv6, fique atento ao provedor de acessos, à estrutura da rede, ao servidor e às estações de trabalho.
De qualquer maneira a maior parte do trabalho pesado ficará a cargo do provedor. Assim que este estiver pronto para o admirável mundo novo, as estações de trabalho e o servidor irão embarcar de pronto na onda.
Os sistemas operacionais, como Windows, Linux, e Mac OS, já estão prontos para trabalhar em redes IPv6. O Windows 7, por exemplo, já inclui as configurações dessa modalidade de IP nas interfaces de rede. As questões mais críticas estão localizadas em nível de infraestrutura de rede.
IPv6 na rede internaÀ medida que provedores de acesso começarem a oferecer serviços e endereços no formato 6, justificar a adesão ao novo formato de endereçamento será bastante fácil.
Roteadores, switches, dispositivos de segurança, impressoras e aparelhos de fax com menos de dois anos de idade provavelmente estão prontos para decifrar o IPv6.
Se o equipamento tiver entre dois e cinco anos, talvez possa oferecer suporte ao novo esquema. Com hardware de cinco anos ou mais velho, a aderência ao IPv6 será bastante incerta, e a migração para o IPv6 será uma boa razão para trocar de equipamento.
Infelizmente não existe um programa de certificação de hardware com adesivos do tipo “Pronto para o IPv6”, o que demanda que você investigue, na documentação do fabricante, se o hardware em questão “gosta” ou não de endereços IP com 128 bits. Realizar um levantamento de atualizações de hardware ou de firmware é a sugestão do dia.
Se a infraestrutura ainda não estiver redonda para trabalhar com o modelo 6 de IPs, o uso de protocolos de transição é uma saída temporariamente possível. Há várias dessas “muletas” para usar; 6to4, Teredo, 6over4 e ISATAP são só algumas delas. Cada um dsses programas,”embrulha”, por assim dizer, endereços que vêm em formato IPv6 em pacotes IPv4. Dada a pouca estabilidade e segurança também limitada, essa muleta não deve ser utilizada ad infinitum.
Vai logo, ou...Caso decida manter parte do equipamento antigo, prepare-se para o dia em que ele não será mais capaz de se integrar aos outros dispositivos da rede. Os formatos de endereçamento são muito diferentes; equivale tentar ensinar libras a um Tamanduá-bandeira.
Quando sua empresa estiver pronta para o IPv6, você poderá usar alguns sites para verificar se a conectividade está OK. Alguns casos de teste são os sites da Google ipv6.google.com e ipv6.youtube.com. O teste é simples: se você digitar "ipv6" antes de um nome de domínio (como "google.com") e o site aparecer no navegador, então você tem conectividade IPv6. Caso contrário, ainda haverá trabalho a ser feito.
Comece agora, faça um inventário, e elabore um plano para a transição. Dessa forma, sua empresa estará preparada para tirar proveito do IPv6, sem sofrer no processo.

(Curtis Franklin)

Virtualização - 9 dicas sobre virtualização de desktops


(http://idgnow.uol.com.br/computacao_corporativa/2010/11/08/9-dicas-sobre-virtualizacao-de-desktops)
Por Redação da Computerworld
Publicada em 08 de novembro de 2010 às 09h00
Tudo o que uma empresa precisa saber antes de optar pela adoção desta tecnologia.
A virtualização de desktops é considerada por especialistas a união de duas das tecnologias mais bem sucedidas: a computação centralizada em torno do mainframe e a tradição de desktop de conceder poder ao usuário. Cada posto de trabalho mantém sua própria instância de sistema operacional e aplicações, na tradição do desktop, mas que rodam em um servidor virtualizado, resultando em menores custos.
Os argumentos vão além: o acesso remoto às máquinas faz com que os técnicos não precisem mais expulsar usuários de seus lugares para resolver problemas ou fazer atualizações. Sem contar que cada desktop ou laptop físico é um alvo para crackers e oferece oportunidade para vazamento de dados.
O argumento contra, no entanto, também é forte. A virtualização de desktops acarreta custos maiores de licença com softwares de virtualização. As licenças tradicionais, como as da Microsoft, não sofrem redução significativa. Além disso, há custos adicionais de tráfego de rede e de servidores mais poderosos. E, finalmente: o que acontece se o usuário for desconectado da rede?
Para reduzir as dúvidas sobre o conceito e facilitar a decisão entre adotar ou não, é importante entender as variantes básicas e as tecnologias envolvidas com a virtualização de desktops.

1 – Reprodução fiel do desktop físico
Assim como ocorrem com os servidores, a virtualização de desktops depende de uma camada de software, conhecida como hypervisor, que roda em um hardware e oferece uma plataforma onde os administradores podem implementar e gerenciar máquinas virtuais. Na tecnologia, cada usuário recebe uma máquina virtual que contém uma instância separada de um sistema operacional (quase sempre Windows) e de qualquer aplicação que precise ser instalada. Com toda essa estrutura, a máquina virtual faz um bom trabalho em reproduzir uma máquina real.

2 – Thin client não é desktop virtual
A forma mais popular de computação baseada em servidor depende de uma tecnologia que permite que múltiplos usuários compartilhem a mesma instância do sistema operacional. Essa é a tecnologia dos thin clientes, na qual não existem hypervisors ou máquinas virtuais. A desvantagem dela é o desempenho ruim de algumas aplicações e a pouca personalização na experiência do usuário. No entanto, algumas pessoas ainda confundem as tecnologias porque o objetivo básico é o mesmo: consolidar a computação dos desktops em um servidor.
3 – Virtualização de desktops e VDI são a mesma coisa
A VMware foi a primeira empresa a promover o termo VDI (infraestrutura de desktop virtual), mas outras companhias, como Microsoft, com seu Hyper-V e a Citrix, com seu XenServer, preferem outras terminologias. Todas com o mesmo princípio e a mesma finalidade.
4 – Não confunda duas tecnologias diferentes denominadas virtualização de desktops
Se o termo pode se referir ao sistema de computação de desktops centralizada no servidor com a implantação de máquinas virtuais com sistemas separados, ela também pode se referir à outra tecnologia também oferecida por Microsoft e VMware, que permite rodar uma instância de sistema em cima de outro sistema operacional. É possível rodar o Windows a partir de uma instância do Mac OS, por exemplo. Nada a ver com computação baseada em servidor.
5 – Nenhum sistema de computação baseada em servidor será compatível com a mesma quantidade de hardware quanto um desktop físicoO trabalho para tornar o Windows compatível com uma gama muito grande de impressoras, placas gráficas, placas de som, scanner, dispositivos USB, entre outros, foi extenso e já tem mais de 20 anos. Os terminais que acessam máquinas virtuais simplesmente não funcionarão com certos tipos de hardware. Além disso, como a interação ocorre via rede, a transmissão de multimídia, vídeos e aplicativos Flash pode ser complicada.
6 – Soluções de desktops virtuais são mais caras que soluções thin clientes, mas entregam mais
No desktop virtual, cada máquina precisa de sua própria fatia de memória, armazenamento e poder de processamento para rodar o sistema operacional e aplicativos. Além disso, ele precisa de uma coleção de licenças de sistema e software próprias e geram grande tráfego de rede. No sistema de terminais, tudo é compartilhado.
O retorno do desktop virtual, além da melhor experiência do usuário, é a disponibilidade e metodologia de gerenciamento. A migração de um desktop virtual ocorre sem a derrubada da máquina, assim como ocorre nos servidores. Além disso, se uma máquina virtual trava, só ela será afetada, as demais continuarão operantes. Sem contar que elas podem ser rapidamente recuperadas com o uso de snapshots.
7 – Soluções dinâmicas de desktop virtual melhoram a eficiência
Em uma instalação dinâmica de desktops virtuais, os desktops compartilham dados, como patches e outras atualizações, mantendo personalizações relativas a usuários. Isso facilita significativamente o gerenciamento do ambiente.
8 – Virtualização de aplicações aumenta vantagens do VDI
Quando uma aplicação é virtualizada, ela é empacotada com todos os pequenos arquivos e entradas de registros do sistema que são necessárias para execução. Isso significa que ela pode rodar sem ser instalada.
Nesse cenário, os administradores podem entregar aplicações sem adicioná-las à imagem mestre das máquinas virtuais, reduzindo as pegadas das máquinas virtuais e simplificando o gerenciamento das aplicações. Somada à uma tecnologia de aplicações por streaming, elas se iniciam ainda mais rápido do que se tivessem sido instaladas em cada máquina virtual.
9 – Clientes hypervisors  deixarão que a máquina virtual seja executada offline
Um cliente hypervisor pode ser instalado em um desktop ou laptop tradicional de forma que a empresa consiga rodar uma máquina virtual sem conexão com a rede e contendo tudo o que é necessário. Porque fazer isso? Todas as vantagens da virtualização são mantidas, incluindo as snapshots, portabilidade, recuperação rápida. Além disso, a máquina pode circular em ambientes desconectados, para aqueles usuários que precisam de portabilidade de forma mais ampla. Quando conectada, as informações são sincronizadas.

segunda-feira, 18 de outubro de 2010

Grafeno - Tecnologia elimina necessidade de boots em computadores

(http://idgnow.uol.com.br/computacao_pessoal/2010/10/18/tecnologia-elimina-necessidade-de-boots-em-computadores)
Por IDG News Service
Publicada em 18 de outubro de 2010 às 12h19
Nova técnica de transistores reduziria o consumo de energia de tal maneira que PCs e outros dispositivos eletrônicos poderão permanecer ligados o tempo todo.
Físicos da Universidade da Califórnia, nos Estados Unidos (EUA), fizeram uma descoberta significativa para o desenvolvimento de um tecnologia que libertaria os usuários da necessidade de realizar boot em computadores, combinando assim a lógica com a memória de leitura não volátil.
Segundo o cientista chefe que conduz a pesquisa, a nova tecnologia de transistores poderia se tornar uma realidade em cerca de cinco anos, reduzindo o consumo de energia de tal maneira que computadores, telefones celulares e outros dispositivos eletrônicos poderão permanecer ligados o tempo todo.
A descoberta ocorreu quando os pesquisadores injetaram com sucesso, um elétron girando ao redor do seu eixo, em um material chamado de grafeno, que é essencialmente uma camada muito fina de grafite, semelhante a encontrada em um lápis, com a espessura de um átomo.
O processo é conhecido em inglês como "Tunneling Spin Injection", e trata-se de colocar um elétron no grafeno, representando um bit de dados. Ao injetar vários bits no grafeno, ele podem ser armazenados em um estado não-volátil (sem a necessidade de eletricidade).
spintronic.jpg
Fluxo de elétrons segundo universidade norte-americana
A imagem de cima mostra o fluxo de elétrons (linha pontilhada) quando nenhum isolante é usado. Como demonstrado na imagem abaixo, o fluxo do elétrons polarizados é muito melhor quando um isolante de óxido de magnésio é utilizado. (Crédito da imagem: laboratório Kawakami, UC Riverside). Se bem sucedido, os pesquisadores criaram um chip que elimina as operações de entrada / saída (I/O).
"Se você pode diminuir a energia necessária, então você pode diminuir o tamanho dos circuitos de apoio", afirmou Kawakami. "Estamos trabalhando em um conceito totalmente novo", comentou ele.
O Grafeno recebeu ampla notoriedade no início deste mês, quando os pesquisadores russos Andre Geim e Konstantin Novoselov venceram o Prêmio Nobel de Física 2010 por novas descobertas sobre o material.

(Lucas Mearian)

domingo, 17 de outubro de 2010

10 inovações que mudarão os negócios

 "Financial Times" mapeia tendências de consumo e de gestão diante de um cenário que concilia o pós-crise a novas tecnologias


Daniel Mihailescu - 2.mar.10/France Presse

Visitantes da feira de tecnologia CeBIT, em Hannover, na Alemanha, são retratados em tela que detecta, em tempo real, gênero, idade e humor dos passantes

A CRISE econômica que se alastrou pelo mundo no fim de 2008 e causou transtornos só superados, nos últimos cem anos, pelo crash de 1929 pôs em xeque dogmas de gestão. A obsessão pelo lucro, simbolizada por empresas como o Lehman Brothers, o uso insustentável de recursos naturais, materiais e humanos e mesmo a noção de que é preciso esconder os fracassos de uma companhia mostraram-se técnicas ineficientes, quando não prejudiciais, de administração.
Paralelamente, novos comportamentos, associados a tecnologias inovadoras nas áreas financeira, energética e computacional, sinalizam transformações profundas na maneira de fazer negócios em todo o planeta.
Esses fenômenos, alguns dos quais já perceptíveis, foram mapeados por colunistas e repórteres do diário britânico "Financial Times", que nestas páginas apresentam tendências que devem se disseminar até o final da próxima década.
1 - Computação em céu aberto

Portáteis serão como supercomputadores
DO "FINANCIAL TIMES"
O assunto quente do setor de tecnologia, nos últimos anos, vem sendo a ascensão da "computação em nuvem". Mas o que exatamente é esse novo desdobramento, e de que maneira influenciará as nossas vidas? São necessárias duas coisas para compreender a plataforma. A primeira se relaciona ao poder de processamento e de armazenagem de dados, que vem se transferindo de máquinas individuais para grandes centrais remotas de processamento de dados.
Isso permite que números sejam processados em escala industrial e que o poderio de um supercomputador seja aplicado a tarefas cotidianas: analisar os padrões de tráfego de uma cidade, por exemplo, e prever onde surgirão congestionamentos.
A segunda parte se relaciona aos bilhões de aparelhos pessoais inteligentes -por exemplo, netbooks e celulares inteligentes- capazes de se conectar a esse recurso centralizado de computação via internet. Isso significa que indivíduos (e não apenas empresas ou governos) poderão tirar vantagem dessas "nuvens" de informações.
Assim, para onde isso nos conduz? Duas previsões gerais surgem rapidamente. Uma é a de que oferecer tanto poder de processamento e armazenagem a baixo custo resultará em novos avanços.
A ciência, por exemplo, poderia ser revolucionada, já que os pesquisadores ganhariam acesso a montanhas inimagináveis de dados e desenvolveriam maneiras de produzir referências cruzadas entre as diferentes disciplinas.
A segunda previsão é a de que os aparelhos pessoais de computação se tornarão superinteligentes, à medida que puderem aproveitar a inteligência da "nuvem". O Google já está falando sobre adicionar tradução de voz instantânea aos recursos de seus celulares. As grandes mudanças que esses avanços da computação representarão podem não estar concluídas ao final da próxima década, mas estarão a caminho.

RICHARD WATERS, chefe da sucursal de San Francisco

2 - Trabalhar por mais tempo

Aposentadoria dá lugar à gestão de empresas
DO "FINANCIAL TIMES"
A próxima década verá pessoas mais velhas trabalhando por mais tempo. Não surpreende: além da elevação da idade mínima de aposentadoria pelos governos do Reino Unido e da Grécia, as baixas taxas de juros e a morte das aposentadorias de valor fixo significam que muita gente não terá dinheiro bastante, aos 65 anos, para desfrutar de lazer nos anos de ocaso. Essas pessoas terão de trabalhar para bancar suas contas.
O que considero interessante -e pode mudar o mundo dos negócios- é o fato de que elas talvez prefiram trabalhar por conta própria. Um recente estudo conduzido pela seguradora Standard Life sugeriu que um em cada seis britânicos dos 46 aos 65 anos planeja abrir um negócio novo, em lugar de se aposentar.
Isso representa sete vezes mais potenciais empresários do que na geração precedente -e pode significar o surgimento de milhões de novas empresas no Reino Unido.
A experiência, os contatos e a sabedoria dessas pessoas serão suas armas secretas. Mas é igualmente provável que elas tenham mais tempo e dinheiro a gastar do que a atual geração de empresários. Hoje, a idade típica em que uma pessoa abre sua empresa fica entre os 30 e os 45 anos. Um aspecto inconveniente desse fato é que, nessa idade, as pessoas também costumam ter filhos pequenos e hipotecas a pagar.
Os empresários mais velhos, enquanto isso, estarão em muitos casos próximos de liquidar essas responsabilidades, bem como ávidos por encontrar maneiras de se manter em contato com pessoas de todas as gerações, como clientes, parceiros, fornecedores ou funcionários. Prevejo que muitas companhias importantes serão criadas nos próximos anos. A geração de mais de 50 anos bem pode se tornar a maior responsável por acelerar a recuperação.

LUKE JOHNSON escreve uma coluna sobre empresários e dirige a Risk Capital Partners, uma empresa de capital privado

3 - A geração X chega ao topo

Após crise, geração X ganha espaço
DO "FINANCIAL TIMES"
No final dos anos 90, as regras usuais de senioridade no trabalho não pareciam se aplicar aos trabalhadores na casa dos 20 e começo dos 30 anos. O boom da internet transferiu poder a esses jovens -a geração X- e permitiu que seus líderes enriquecessem.
Mas o estouro da bolha da internet expôs a ilusão e forçou os jovens a aceitar papéis subalternos. O fim do castigo, porém, parece estar próximo. Hoje, com 30 ou 40 anos, muitos dos membros da geração X devem chegar ao apogeu de seu poderio profissional até 2020 -e sua falta de ideologia pode ser vantajosa diante dos desafios modernos.
Mas há um novo grupo que já tenta conquistar espaço. Confortáveis no uso de tecnologias digitais, os membros da geração Y não gostam de hierarquias. A crise prejudicou sua ascensão, mas a recuperação pode complicar a retomada da geração X.

ADAM JONES, repórter especial de empresas
4 - Energia mais inteligente

Novas tecnologias racionalizam a geração e o uso da eletricidade
DO "FINANCIAL TIMES"
Já estamos vendo algumas das maneiras pelas quais as fontes de energia mudarão nos próximos dez anos. Leitores inteligentes de eletricidade nos EUA, por exemplo, oferecem aos consumidores e às empresas de energia informações detalhadas sobre o seu uso e não só contam com o apoio do presidente Barack Obama como devem substituir os medidores "burros" convencionais.
Isso significa que uma pessoa em breve poderá saber quanta energia está sendo usada em sua casa e quanto dinheiro está sendo gasto, por meio de uma divisão aparelho a aparelho -o que permitirá que a iluminação e o aquecimento sejam ajustados para reduzir custos.
Eletrodomésticos inteligentes, enquanto isso, vão se comunicar com a rede elétrica. Assim, uma secadora de roupas pode se desligar nos horários de pico (e tarifa mais elevada) e ligar de novo quando o preço da eletricidade for mais baixo. As empresas de energia mesmo poderiam interferir ao reduzir um pouco o ar-condicionado no auge da demanda.
Também estamos vendo as vantagens dos diodos emissores de luz (LEDs) como substitutos das velhas lâmpadas incandescentes (e novas fluorescentes, que economizam mais energia). Enquanto as lâmpadas incandescentes geram calor para produzir luz, os LEDs a criam com movimentos de elétrons em chips de silício. A luz é mais natural, pode mudar de cor, pode ser mais precisa e pode ser atenuada ou intensificada sem dificuldade.
A próxima década verá as cidades substituírem sua iluminação pública por LEDs, que duram anos a mais e podem reduzir sua intensidade de forma inteligente quando não houver tráfego, minimizando o uso de energia e a poluição luminosa.
Já que 20% da demanda mundial de eletricidade se relaciona à iluminação, a capacidade dos LEDs para reduzir em 75% o uso de energia pode ter efeito dramático sobre as emissões de dióxido de carbono.
As fontes de energia também podem mudar, especialmente no que tange a aparelhos de pequeno porte. Energia gratuita pode ser capturada de fontes como o calor do corpo ou ondas de rádio de torres de telefonia móvel e Wi-Fi. Girar o controlador para ler um e-mail em um BlackBerry gerará energia suficiente para aumentar a duração da bateria.

CHRIS NUTTALL, correspondente de tecnologia
 5 - A informação tem valor

Dogma do conteúdo gratuito perde força
DO "FINANCIAL TIMES"
Se existe uma ortodoxia dos últimos dez anos que o setor de mídia tem todos os motivos para amaldiçoar é aquela que surgiu em 1984, quando Stewart Brand declarou, em palestra na Hackers" Conference, que "a informação deseja ser livre".
As pessoas ainda discordam sobre o que ele quis dizer, mas a frase oferece uma capa de respeitabilidade intelectual a diversas coisas, da pirataria de música à ideia de que não pagar pelo acesso a notícias é traço imutável da cultura da web.
Quando as pessoas ainda falavam em "via expressa da informação", desdenhavam a ideia de que a estrada proposta precisasse de pedágios. A publicidade on-line supostamente cobriria os custos incorridos pelos donos da informação.
Mas o conteúdo grátis para todos erodiu os modelos de negócios das companhias de mídia e acarreta o risco de sobrecarga das redes de informação. Agora, os proprietários de conteúdo, de editoras de revistas a emissoras de TV imaginam por que teriam depositado toda a sua confiança em uma só fonte de receita, a publicidade.
É hora de relermos a citação completa de Brand: "Por um lado, a informação deseja ser dispendiosa, porque é muito valiosa. Por outro lado, ela deseja ser livre [ou gratuita], porque o custo de obtê-la não para de cair. Por isso, temos essas duas tendências em permanente combate".
Na primeira década digital do novo século, esse combate muitas vezes não aconteceu, mas agora o lema de que "a informação quer ser dispendiosa" vem ganhando força. As editoras pressionaram a Amazon.com a elevar os preços dos livros eletrônicos. A "economia dos aplicativos" criada pela Apple está permitindo que até mesmo sites gratuitos cobrem pelo acesso via iPods e iPads, e o "New York Times" está seguindo o exemplo de publicações especializadas como o "Financial Times" e o "Wall Street Journal" de cobrar pelo acesso on-line às suas notícias.
Para os consumidores que desfrutavam de todo esse conteúdo gratuitamente, isso parece ameaçador. Por outro lado, acabamos de passar uma década nos fartando de conteúdo excessivo e de muito baixo valor nutritivo. Talvez o conteúdo pago se prove mais denso. Quanto à máxima de Brand, é melhor que tentemos uma nova, na próxima década: o conteúdo quer ser valioso.

ANDREW EDGECLIFFE-JOHNSON, editor de mídia nos Estados Unidos
6 - Ganhando com o fracasso

Tentativa e erro viram técnica de negócios
DO "FINANCIAL TIMES"
O fracasso sempre foi parte fundamental da economia de mercado. Se os mercados funcionam, fazem-no porque novas ideias são constantemente tentadas. A maioria fracassa. As que encontram o sucesso podem causar o fracasso de ideias mais antigas.
Nos Estados Unidos, cerca de 10% das empresas existentes desaparecem a cada ano. Trata-se de percepção desconfortável -mas tentativa e erro podem enfim estar assumindo o papel que merecem como técnica de negócios, em lugar de serem vistos como um segredinho sujo do capitalismo.
Existem alguns sinais positivos. Stefan Thomke, da escola de administração de empresas da Universidade Harvard, argumenta que os avanços na computação tornaram possível conduzir experiências com novos produtos sem maiores dificuldades, com a tentativa de muitas ideias e a expectativa de grande número de fracassos.
Agora é fácil, por exemplo, experimentar mudanças no layout de um site, mostrando diferentes versões a diferentes usuários e acompanhando as reações em tempo real. O Google, enquanto isso, costuma lançar seus produtos novos com o rótulo "beta", ou experimental. E superastros do mundo acadêmico, tais como Stephen Levitt, o coautor de "Freakonomics", vêm fazendo palestras a executivos sobre o papel da experimentação no mundo dos negócios.
Também estamos começando a aprender mais sobre a psicologia de aprender com os erros. Richard Thaler, o economista comportamental que criou a Nudge, cunhou a frase "edição hedonista" para descrever nosso hábito de combinar pequenas derrotas a grandes vitórias, a fim de mascarar as dores das derrotas. Esconder os fracassos é humano, mas também significa não aprender com eles. Thaler e seus colegas chegaram a estudar o comportamento dos participantes em game shows televisivos. Ele constatou que as pessoas que faziam escolhas desafortunadas começavam a aceitar riscos insensatos, o que muitas vezes resultava em agravar perdas.
A crise nos conscientizou de que um sistema incapaz de tolerar certa dose de fracasso é muito perigoso. A ideia de que uma instituição fosse "grande demais para falir" costumava parecer reconfortante. Não é mais esse o caso.

TIM HARFORD, colunista e autor do livro "Undercover Economist"
7 - A cobiça não é tão boa

Obsessão pelo lucro pode quebrar empresas
DO "FINANCIAL TIMES"
Nos anos 80, o economista Al Rapaport capturou o espírito da era ao desenvolver um novo objetivo para as empresas: a maximização de valor para os acionistas. A medida das realizações de um executivo seria o retorno total conquistado pelos acionistas em seu mandato.
Bill Allen, o lendário líder da Boeing entre 1945 e 1968, descreveu o espírito de sua companhia assim: "Beber, respirar e dormir o mundo da aeronáutica". Por volta de 1998, o novo presidente da companhia, Phil Condit, dizia: "Vamos avançar para um ambiente cuja base é o valor e no qual o custo unitário, o retorno sobre o investimento e os retornos dos acionistas serão as medidas sob as quais seremos avaliados".
Isso aconteceu em múltiplos setores. Quando John Reed e Sandy Weill, que eram copresidentes do Citigroup no final dos anos 90, descreveram os propósitos do conglomerado recém-criado, Reed, banqueiro tradicionalista, declarou que "o modelo que tenho em mente é o de uma companhia global de serviços ao consumidor, que ajude a classe média com algo em que não foi bem servida". Weill, mais sintonizado no espírito do tempo, interrompeu: "Meu objetivo é aumentar o valor para os acionistas". Tudo isso terminaria mal.
Sob Allen, a Boeing conquistou a liderança do setor aeronáutico; sob Condit, a empresa não só perdeu sua liderança como se envolveu em escândalos.
Weill forçou a saída de Reed, mas se envolveu em problemas de reputação que abalaram a empresa. Em 2008, quase todo o valor do Citigroup para os acionistas foi destruído.
A Enron, paradigma do novo modelo, quebrou de forma espetacular em 2001. Em 2008, o colapso do Lehman Brothers, banco cujo foco obsessivo era o lucro, quase derrubou o sistema financeiro mundial. Essas duas quebras abriram e encerrarão a década com uma lição: concentração obsessiva nos lucros faz com que uma empresa corra o risco de perder a oportunidade de lucrar.
JOHN KAY, colunista
8 - Livrai-nos das contas

Internet agora muda a forma de lojas físicas
DO "FINANCIAL TIMES"
Da mesma forma que a chegada das prateleiras que permitiam self-service mudou a disposição física das lojas nos cem últimos anos, as compras on-line o farão no novo século. Já vimos o comércio via internet se tornar concorrente sério das lojas físicas. Agora ele fará com que mudem de forma. No Walmart, por exemplo, mais de 40% dos pedidos pelo site da cadeia de varejo nos EUA são enviados a uma loja local da rede para retirada, porque os clientes preferem evitar os custos e a incerteza de horários das entregas domiciliares.
A empresa, como resposta, está testando opções "drive-through" de retirada e alterando suas unidades de forma a instalar balcões de retirada. No Reino Unido, a rede de supermercados Tesco adotou arranjo semelhante (mas por enquanto sem "drive-through").
Em uma loja piloto perto de Chicago, chamada MyGofer, a Sears Holdings foi além, e 80% do espaço serve como armazém de estoque, com um quinto da área reservada a clientes que retiram compras ou usam terminais de computador para pedir o que desejam da loja.
Eis outra variante: o Kmart também está tentando persuadir outras redes de varejo a usar suas lojas como ponto central para retirada de pedidos feitos on-line. Alguns analistas do setor de varejo especulam que até mesmo a Amazon, que só opera on-line, poderia um dia estabelecer pontos de retirada.
A web também mudará os produtos presentes nas prateleiras. Um cliente que vá a uma loja com seu celular inteligente pode obter preços comparativos de lojas rivais -a menos que o produto em questão só esteja à venda naquela loja específica.
Assim, haverá mais pressão da parte do varejo por acordos seletivos com marcas líderes -ou pelo desenvolvimento de mais produtos com marca própria, em todas as categorias.

JONATHAN BIRCHAIL, correspondente de varejo nos Estados Unidos
9 - Fazer mais com menos

Concorrência força ganho de eficiência DO "FINANCIAL TIMES"
O triunfo inevitável dos Brics (Brasil, Rússia, Índia e China) se tornou quase um lugar-comum no mundo empresarial. Mesmo que alguns ovos exóticos estejam sendo contados antes que sejam chocados, a ameaça que representam está mudando o modo como as empresas pensam.
Com a concorrência, as empresas hoje dominantes terão de ser mais eficientes. É por isso que, ao longo dos próximos anos, será comum ouvir variações do seguinte lema: fazer mais com menos. Outro fator de estímulo será a sustentabilidade ambiental: produzir mais usando menos recursos.
Mas uma demanda permanente para que produzamos mais com menos pode se revelar prejudicial e resultar em um mundo de trabalho permanente, que por sua vez poderia afetar a qualidade do trabalho realizado. O ímpeto de fazer mais pode conter as sementes de sua própria derrota.

STEFAN STERN, repórter de gestão
 10 - O hedge, agora pessoal

Temidas, inovações financeiras podem estimular o crescimento
DO "FINANCIAL TIMES"
Inovação financeira se tornou uma expressão obscena nos últimos meses, devido ao papel dos títulos complexos -pacotes de hipotecas e outras formas de passivo- na crise. Mas o segredo sujo é que, se as economias ocidentais desejam se recuperar devidamente, as verbas terão de vir dos mercados. E a concorrência por dinheiro será tamanha que alguns projetos devem se ver forçados a criar inovações a fim de atrair investidores.
Uma dessas inovações é a transferência de risco. Transação que vinha ganhando popularidade antes da crise, ela agora está de volta. Robert Schiller, professor de economia na Universidade Yale, publicou em 2003 um livro no qual propunha novos instrumentos financeiros para indivíduos que permitiriam que se protegessem contra os riscos que correm -fizessem hedge- por contratos negociados em Bolsa. Se você, por exemplo, estiver preocupado com a possibilidade de que a carreira que escolheu não vá oferecer o salário que planeja ter dentro de dez anos, poderia criar um contrato sob o qual receberia certa quantia caso sua renda naquela data for inferior a determinado patamar.
Os investidores se interessarão em apostar nesse tipo de coisa, diz Schiller. De fato, mercados como esses estão sendo criados para grandes organizações. Há, por exemplo, o mercado futuro das nevascas, sob o qual cidades ou empresas recebem dinheiro caso as tempestades de neve sejam piores que o esperado. No mês passado, um grupo de bancos, fundos de pensão e seguradoras anunciou que estava desenvolvendo um novo mercado para longevidade -o risco de que as pessoas vivam mais que o esperado.
Será que essa ideia não parece terrível, tendo em vista a situação em que os contratos de risco deixaram os bancos no passado recente? Schiller argumenta que a crise de crédito simplesmente demonstra que "muito mais trabalho precisa ser feito para democratizar as finanças. A crise ocorreu porque os princípios de gestão de risco financeiro não estavam sendo aplicados à mais ampla população possível".
Ou seja, o risco é para todos: empresas, governos e cidadãos agora podem rolar os dados nesse negócio arriscado.

JENNIFER HUGHES, correspondente sênior de mercados

Física moderna chega à sala de aula

quinta-feira, 7 de outubro de 2010

10 segredos para resolver problemas em TI


10 segredos para resolver problemas em TI

(http://idgnow.uol.com.br/computacao_corporativa/2010/10/07/10-segredos-para-resolver-problemas-em-ti)
Por Computerworld/EUA
Publicada em 07 de outubro de 2010 às 09h00
As atitudes dos profissionais são tão importantes quanto os conhecimentos técnicos na hora de resolver indisponibilidades problemas.
Não importa quão profundo sejam os conhecimentos técnicos de uma equipe de TI. Sem metodologia adequada, a solução de problemas torna-se um processo muito mais complicado.
O CIO da Escola de Medicina da Harvard e de um dos maiores grupos de assistência médica dos EUA, John Halamka, baseou-se em sua experiência para elaborar uma lista com os 10 principais segredos para resolver os problemas com rapidez e experiência.

1 – Uma vez que algum problema foi identificado, verifique seu real alcance – O software de monitoramento pode até dizer que tudo está bem, mas é bom não se contentar. O ideal é conversar com os usuários, testar a aplicação ou infraestrutura sozinho e ter certeza sobre o que originou uma reclamação.
2 – Quando o alcance do problema alarmado é muito grande e a raiz ainda é desconhecida, acione um plano de emergência – É muito melhor mobilizar toda a equipe para um falso alarme ocasional do que intervir tarde demais e quando o problema alcançar proporções muito grandes com uma resposta lenta do departamento de TI.
3 – O processo de solução de um problema deve ser visível, atualizado constantemente para todos e participativo – Muitas vezes os profissionais técnicos ficam tão focados na sua tarefa que perdem a noção do tempo, não se atualizam mutuamente e deixam de conversar com outras áreas. A companhia deve ter uma abordagem multidisciplinar com relatórios de progressos pré-determinados para prevenir a isolação e a busca por soluções que têm poucas chances de darem certo.
4 – Mesmo com a rotina de atualizações e relatórios, a equipe deve ficar livre para trabalhar – Alguns líderes de TI gostam de retornos constantes de sua equipe e isso não é necessariamente ruim. Mas se a equipe gastar 90% do seu tempo reportando o status do trabalho, fica muito mais difícil solucionar problemas em prazo razoável.
5 – A explicação mais simples geralmente é a correta – Halamka relata que, em um incidente recente em sua corporação, todas as evidências apontaram para o mal-funcionamento em um componente do firewall. Mas todos as ferramentas de testes e diagnósticos indicavam que o firewall funcionava perfeitamente. Alguns levantaram a hipótese de que a empresa sofria um tipo muito específico de ataque de negação de serviços. Outros aventaram a possibilidade de uma falha em componentes das redes Windows dos servidores. Surgiu ainda a possibilidade de um ataque incomum por vírus. A explicação mais simples, do firewall, foi comprovada correta após a remoção do mesmo da infraestrutura da rede. E, segundo Halamka, a regra da explicação mais simples ser a resposta até mesmo para problemas mais complexos é verdadeira na maioria das vezes.
6 – Os prazos devem ser definidos de maneira responsável – O que mais irrita os usuários não é exatamente a demora, mas a definição de prazos imprecisos e os consequentes pedidos de “só mais uma hora para resolver o problema”. Se uma indisponibilidade de sistema ocorrer por conta de uma mudança planejada de infraestrutura, a questão é ainda mais séria: o melhor a se fazer é definir um prazo preciso e respeitá-lo.
7 – Comunique-se com os usuários o máximo possível – A maioria dos stakeholders da empresa estão dispostos a tolerar indisponibilidade se você explicar exatamente as ações que estão sendo tomadas para restaurar o serviço. Os principais executivos de TI são os maiores alvos dessa dica, pois devem mostrar compromisso, presença e liderança.
8 – Orgulho não deve atrapalhar a solução – É difícil assumir erros e desafiador reconhecer o que não se sabe. Mas em vez de gastar tempo procurando culpados por problemas, o foco deve ser em examinar a raiz da indisponibilidade e depois definir processos para prevenir a repetição dos problemas.
9 – Não cante vitória antes do tempo – É tentador presumir que os problemas foram resolvidos e dizer a todos os usuários sobre a suposta vitória. Mas o melhor é esperar 24 horas seguidas de serviços ininterruptos antes de declarar o problema resolvido.
10 – Líderes de TI devem focar na sua trajetória, não em sua posição cotidiana – Indisponibilidades podem causar diversas emoções, como ansiedade, medo de perder o emprego ou a reputação e tristeza pelo impacto causado nos usuários. Nessas horas, a melhor coisa é ter em mente que o tempo é capaz de curar qualquer coisa e que incidentes eventuais serão esquecidos. Com o passar da trajetória profissional, a comunidade de usuários tende a observar mais a consistência e o processo contínuo de melhoria de qualidade do que episódios isolados.
De uma forma geral, problemas são dolorosos, mas capazes de unir pessoas. Nos piores momentos é que se constrói relações de confiança, criação de novos canais de comunicação e melhoria de processos.

10 coisas que um firewall deve fazer


Posted By Clayton Melo On 6 06America/Sao_Paulo outubro 06America/Sao_Paulo 2010 @ 9:38 In Segurança | 20 Comments
Firewalls tradicionais fazem simples bloqueios a ameaças e invasões. Mas um firewall pode e deve fazer muito mais do que isso. Devem agregar serviços antivírus, anti-spam, prevenção contra invasões, filtragem de conteúdo e muitos outros recursos.
Isso porque a maior parte do tráfego que passa por um firewall não é baseada em ameaças, mas em aplicativos e dados. Essa realidade deu origem a aplicativos de inteligência e controle que conseguem proteger, gerenciar e controlar dados e aplicativos que passam pelo firewall.
Esses aplicativos de inteligência e controle não apenas bloqueiam as ameaças de rede como também podem dedicar capacidade para aplicações críticas ao funcionamento da empresa ou sensíveis à latência, como o Live Meeting, por exemplo.
Podem também restringir aplicativos que diminuem a produtividade, como o YouTube. Tudo isso com base no grupo de usuários, hora do dia ou tipo de dispositivo móvel.
O recurso inspeção profunda de pacotes (Reassembly-Free Deep Packet Inspection) identifica e controla navegadores não autorizados, sites Web 2.0, clientes IM e arquivos EXE, PIF, SRC ou VBS, assim como aplicativos P2P que evoluam de forma dinâmica.
Os aplicativos de inteligência, por sua vez, conseguem identificar e controlar aplicativos independentemente da porta, protocolo, plataforma ou mesmo criptografia SSL.
O acesso a sites de vídeo streaming, como youtube.com, pode ser útil, mas o problema é que muitas vezes as pessoas abusam do privilégio. Bloquear o site pode resolver o problema. A melhor solução, no entanto, é limitar a banda para os sites de vídeo streaming.
Diante dessas questões, seguem 10 dicas do que um firewall deve fazer:
1. ■ Gerenciar o vídeo streaming
É importante ter uma política para limitar o streaming de aplicativos de vídeo. É possível aplicar restrições de banda para o trânsito com o cabeçalho relacionado ao youtube.com. É possível também limitar a banda para esses aplicativos em horas específicas ao longo do dia, como por exemplo, entre 9h e 17h.
2. ■ Gerenciar a banda por grupo
É importante aplicar restrições de banda para sites como o youtube.com. Mas se o seu CEO ou o seu CFO reclamar que os “vídeos sobre negócios” que ele assiste todo dia estão muito lentos, será possível remover algumas das restrições de banda para todos e criar gestão de banda baseada em grupos de pessoas.
3. ■ Webmail e perda de dados
É comum que sua proteção anti-spam detecte e bloqueie um e-mail normal de saída que contenha “informações confidenciais” da empresa. O que acontecerá, porém, se o funcionário usar um serviço de webmail como Yahoo ou Gmail para enviar “informações confidencias” da empresa? É fundamental contar com uma política para bloquear todos os e-mails com “informações confidenciais” da companhia.
4. ■ Controle de uso de aplicativos
A fim de controlar o uso de aplicativos, é válido fazer a verificação física dos sistemas todos os dias para ver se alguém está usando o navegador IE6. Também se deve montar um script para checar o sistema de cada pessoa para ver se alguém está usando o IE6 e assegurar-se de que todo o sistema seja checado diariamente. Para isso, é desejável criar uma política de segurança que englobe todo o ambiente e parar de se preocupar.
5. ■ Negar upload FTP
Você criou um site FTP para a troca de grandes arquivos com um dos seus parceiros de negócios e quer se certificar de que somente o gerente do projeto na empresa parceira – e ninguém mais – pode fazer upload de arquivos. É possível fazer isso com a criação de uma política para permitir uploads FTP somente para algumas pessoas.
6. ■ Controlar aplicativos P2P
Problema 1: aplicativos Peer-To-Peer (P2P) podem roubar banda e trazer com eles arquivos maliciosos de todos os tipos. Problema 2: A criação de aplicativos P2P ou mudanças simples a aplicativos P2P existentes. Para isso, é importante ter uma política para detectar aplicativos P2P de forma geral.
7. ■ Gerenciar o áudio streaming
Sites de mídia streaming e de streaming de rádio consomem largura de banda preciosa, mas há motivos comerciais legítimos para acessar tais sites. Existem duas maneiras de lidar com esse desafio. Controle através de uma lista de assinatura pré-definida e a criação de uma política para limitar o streaming de aplicativos de áudio.
8. ■ Priorizar a aplicação de banda
Hoje em dia, muitos aplicativos essenciais para o desempenho, como o Live Meeting, Salesforce.com® e SharePoint®, são baseados em nuvem ou estão distribuídos em redes geograficamente dispersas. Assegurar que esses aplicativos tenham prioridade para receberem a banda que precisam pode aumentar a produtividade da empresa. Por isso, é importante desenvolver uma política para dar prioridade na banda a esses aplicativos de desempenho.
9. ■ Bloquear documentos confidenciais
Em algumas empresas, os e-mails de saída não passam pelo sistema de segurança de e-mail ou aquele sistema não verifica o conteúdo dos anexos dos e-mails. Em muitos casos, os anexos com “informações confidenciais” saem facilmente da empresa. Uma vez que o tráfego da rede de saída passa pelo seu firewall, você pode detectar e bloquear esses “dados em movimento”. Por essa razão é recomendável criar uma política para bloquear anexos de e-mail que contenham a marcas d’água, como “informações confidenciais”.
10. ■ Bloquear arquivos proibidos e enviar a notificação
Seu firewall consegue bloquear:
• um arquivo EXE de ser abaixado de uma página (HTTP/HTTPS)
• um arquivo EXE enviado como anexo a um e-mail
• um arquivo EXE de ser transferido por FTP
• E arquivos PIF, SRC ou VBS? É preciso criar uma lista de tipos de arquivos proibidos e uma política eficaz para bloqueá-los.

Article printed from Plural: http://idgnow.uol.com.br/blog/plural
URL to article: http://idgnow.uol.com.br/blog/plural/2010/10/06/10-coisas-que-um-firewall-deve-fazer/

terça-feira, 5 de outubro de 2010

avaliar site blindado

www.siteblindado.com.br

sexta-feira, 1 de outubro de 2010

Cinco alternativas ao Paint na faixa

http://info.abril.com.br/noticias/blogs/download-da-hora/2010/09/30/cinco-alternativas-ao-paint-na-faixa/

quinta-feira, 30 de setembro de 2010

Mitnick hackeia iPhone ao vivo

Em SP, Mitnick hackeia iPhone ao vivo

Vinicius Aguiari, de INFO Online Quinta-feira, 30 de setembro de 2010 - 15h34


Marcio Bruno
Em SP, Mitnick hackeia iPhone ao vivo
O ex-cracker e hoje consultor de segurança, Kevin Mitnik; para ele, roteadores Wi-Fi são dispositivos baratos e descartáveis

No encurtador de URL da Google, uma surpresa: a criação de códigos QR


No encurtador de URL da Google, uma surpresa: a criação de códigos QR

(http://idgnow.uol.com.br/internet/2010/09/30/no-encurtador-de-url-da-google-uma-surpresa-a-criacao-de-codigos-qr)
Por Redação do IDG Now!
Publicada em 30 de setembro de 2010 às 20h16
Atualizada em 30 de setembro de 2010 às 21h51
Apresentado como "easter egg" por um engenheiro da empresa, o recurso permite criar códigos bidimensionais que podem ser lidos por celulares.
O anúncio da liberação, de forma independente, do Google URL Shortener, encurtador de URLs da Google, trouxe uma surpresa adicional: a capacidade de criação de códigos QR – códigos bidimensionais que, lidos por softwares instalados em celulares com câmera, levam o usuário a visitar determinado site.
O recurso foi apresentado como “easter egg” (ovo de páscoa – nome que se dá a truques ocultos e não documentados, incluídos nos softwares) pelo engenheiro Matt Cutts, da Google, em sua conta no Twitter.

Secret goo.gl easter egg: take a link like http://goo.gl/LFwS and add ".qr" to get a QR code! See http://goo.gl/LFwS.qrless than a minute ago via web
Para criar um código QR que leva a determinado site, basta que o usuário encurte a URL original, copie o endereço encurtado (que começa com http://goo.gl) e o cole em uma nova aba do navegador. Em seguida, é preciso adicionar “.qr” (sem as aspas) ao final do endereço e teclar Enter.
Não se sabe até quando o recurso estará disponível. Segundo rumores que circulam na web, a criação de código QR por meio do encurtador de URLs da Google só funcionaria até sexta-feira (1/10).
Quem tem um celular com câmera e algum software de decodificação de códigos QR (que, em inglês, recebe o nome de QR code reader) pode experimentá-lo usando as imagens abaixo para visitar, no aparelho móvel, as publicações online da Now!Digital, que edita o IDG Now!.

sábado, 11 de setembro de 2010

Download: Instale todos os seus freeware favoritos de uma só vez

(http://idgnow.uol.com.br/computacao_pessoal/2010/09/10/download-freeware)
Por Rick Broida, da PCWorld EUA
Publicada em 11 de setembro de 2010 às 10h45
Ninite automatiza a tediosa tarefa de reinstalar aplicativos em um novo PC
Esteja você migrando do Windows XP para o Windows 7 ou comprando um novo PC, terá de enfrentar a mesma tarefa tediosa: reinstalar todos os seus aplicativos.
Isto significa lidar com pilhas de CDs e/ou baixar programas de vários sites, e instalar um de cada vez. Não sei quanto a você, mas eu consigo pensar em formas melhores para gastar várias horas do meu dia.
Mas o Ninite (www.ninite.com, gratuito) resolve o problema: ele é um serviço que cria um instalador personalizado, que vai colocar de uma vez só em seu computador todos os programas freeware e open-source que você quiser. Escolha entre as dezenas de títulos disponíveis - do anti-vírus AVG Free ao Dropbox, OpenOffice e uTorrent - e deixe o programinha fazer o tabalho pesado.
Depois de iniciar o instalador, basta relaxar. O Ninite automatiza todo o processo, o que significa que você sequer terá de ficar clicando “Next” um monte de vezes. Melhor ainda: o programa escolhe automaticamente a versão mais recomendada (32 ou 64-Bit) dos aplicativos para o seu computador, e impede a instalação de quaisquer toolbars ou “brindes” indesejados que os fabricantes de software costumam tentar empurrar.
Adoro o Ninite, já o usei em vários PCs e posso afirmar que ele proporciona uma economia de tempo sem igual. Experimente!

sábado, 4 de setembro de 2010

6 ferramentas Wi-Fi importantes para o Windows


(http://idgnow.uol.com.br/internet/2010/09/02/6-ferramentas-wi-fi-importantes-para-o-windows)
Por IDG News Service
Publicada em 03 de setembro de 2010 às 08h00
Atualizada em 03 de setembro de 2010 às 09h30
O sistema operacional da Microsoft deixa a desejar na hora de interagir com redes Wi-Fi. Logo, separamos aplicativos que podem ajudar nessas horas.
Vivemos em um mundo móvel; com um notebook ou netbook por perto significa que, constantemente, você se conecta à Internet via Wi-Fi. E, provavelmente, não apenas em rede públicas como as disponíveis em cafés, aeroportos ou hotéis, mas também em conexões privadas como em casa ou no escritório.
E ai é que está o problema: o Windows não fornece todas as informações e recursos wireless que você pode precisar. É claro, ele permite que você pesquise e se conecte às redes próximas ao seu aparelho. Mas, caso você queira obter informações detalhadas, solucionar problemas ou se manter seguro em pontos públicos de acesso, então o sistema operacional da Microsoft não poderá ajudá-lo.
Diante disso, para responder as suas dúvidas e facilitar o uso, nós escolhemos seis aplicativos que poderão ser úteis em muitos momentos. Todos estão disponíveis na web, sendo cinco deles gratuitos.
InSSIDer
O InSSIDer, da empresa MetaGeek, é uma ferramenta para encontrar redes Wi-Fi que estão próximas ao seu aparelho e capaz de reunir uma grande quantidade de informações sobre cada uma delas. Além de dispor de ferramentas para solucionar problemas da sua própria conexão.
Em cada ponto de acesso encontrado, o programa exibe o endereço MAC do roteador, o fabricante do produto (quando disponível), o canal que ele está usando, o nome do roteador (ou o nome público), se existe ou não uma proteção e a velocidade. Bem como a força do sinal atual e a força ao longo de um período de tempo.
Se você quiser migrar para uma conexão melhor, a aplicação analisa qual o melhor canal para transmitir sua rede e, consequentemente, reduzir potenciais problemas.
Também é possível detectar "zonas mortas" ou pontos que não tem um sinal forte. Basta caminhar pela sua casa ou pelo escritório com inSSIDer instalado e veja quais os locais com menor sinal. Assim você pode evitar o uso do laptop nestas redes ou tentar reposicionar o roteador.
Esse é uma aplicativo para quem precisa encontrar um hotspot próximo, mesmo que por mera curiosidade.
Preço: Grátis
Compatível com
: Windows XP, Vista e 7 (32 - e 64-bit)
Download:
inSSIDer

Xirrus Wi-Fi Inspector
Além de localizar as redes Wi-Fi, o Xirrus Wi-Fi Inspector ainda compartilha as informações pertinentes sobre elas como, por exemplo, a distância que estão do seu aparelho. Ele mostra os principais hotsposts nas proximidades com uma interface que simula um radar.
Um painel separado oferece informações detalhadas sobre cada ponto de acesso que ele encontra, incluindo a força do sinal, o tipo de rede (padrão 802.11n, por exemplo), a fabricante do roteador, o canal de transmissão e se ela é ad hoc ou não.
Também são oferecidas informações mais detalhadas, incluindo o endereço interno e externo de IP, DNS, informação sobre o gateway, entre outras.
E por que o Xirrus Wi-Fi Inspector é melhor do que o inSSIDer?
Porque ele é mais simples e o layout mais prático facilita e otimiza a visualização do conteúdo. Além de mostrar a distância física entre você e cada hotspot em sua tela.
No entanto, se você quiser detalhes incluindo a força do sinal de todas as redes, o inSSIDer é uma aposta melhor.
Preço: Grátis
Compatível com
: Windows XP SP2, Vista e 7
Download
: Xirrus Wi-Fi Inspector

Connectify
Este software é gratuito e exclusivo para o Windows 7. Ele permite que você transforme um computador em um ponto de acesso wireless, com conexão para outros dispositivos localizados próximos a ele como, por exemplo, um smartphone.
O PC no qual o aplicativo foi instalado, é claro, precisa ser conectado à Internet e ter capacidade Wi-Fi para que possa fornecer navegação na web para outros produtos. 
A criação de um hotspot é simples: quando você tiver uma conexão, execute o Connectify no seu computador e dê nome e senha. O cartão wireless do computador começará a transmitir o sinal para que outros equipamentos possam se conectar.
Já que o seu ponto de acesso é protegido por senha, somente quem a conhece poderá utilizá-lo; o sinal é protegido com criptografia WPA2-PSK.
Também é possível aproveitar o Connectify para criar uma rede local, sem conexão à internet. O recurso permite que aparelhos próximos possam se conectar uns aos outro, compartilhando arquivos em grupo ou criando um ambiente comum para jogos multiplayer.
Apenas uma observação.: tive problemas para conectar um Mac em uma máquina com Windows 7, mas com outros equipamentos os testes foram bem-sucedidos.
Preço: Grátis
Compatível com
: Windows 7
Download
: Connectify


WeFi
Ferramentas como o inSSIDer e Xirrus Wi-Fi Inspector são ótimos para encontrar os hot spots que estão ao alcance do seu laptop. Mas se você quiser encontrá-los em outras localidades – uma cidade que você visitará na próxima semana, por exemplo – você vai querer experimentar o WeFi.
Como outras ferramentas que “farejam” redes do gênero, o WeFi usa seu cartão Wi-Fi para encontrar a sua localização atual e lhe mostrar os hot spots disponíveis nas proximidades. Você pode clicar em um link para ver uma determinada rede em um mapa, junto com seu endereço.
Mas você também pode buscar hot spots em um local diferente, para identificar os pontos de acesso próximos do mesmo. Clique na guia “Wi-Fi Maps” e digite um endereço e um mapa de localização será exibido no Google Maps. A seguir, você terá vários detalhes sobre os hot spots mais próximos, tais como o tipo (municipal, hotel, café e assim por diante), distância do local e se há uma taxa de acesso.
O WeFi também mostra como se conectar aos hot spots. Pode, por exemplo, ligar acessar automaticamente apenas os seus pontos favoritos ou aqueles que foram descobertos por outros membros do WeFi.
A versão básica do WeFi é gratuita, mas há também uma edição chamada WeFi Premium, que é paga. O WeFi Premium detecta e conecta o usuário aos hot spots pagos. O valor pago pelo WeFi Premium varia, dependendo do tempo que você fica conectado. No entanto, é melhor você pular fora do WeFi Premium. É muito mais fácil encontrar hot spots pagos em seu próprio país.
Preço: Grátis
Compatível com:
Windows XP, Vista e 7
Download:
WeFi

Hotspot Shield
Quando você se conecta a Internet através de um hot spot público, você se coloca em risco, uma vez que alguém poderia tentar capturar seus pacote de dados ou bisbilhotar o que você está fazendo online. O Hotspot Shield, é uma ferramenta leve e gratuita, desenvolvida pela AnchorFree, e que promete mantê-lo protegido, criando uma conexão VPN segura e criptografando todas as suas comunicações.
Quando você se conectar a um hot spot, basta executar o Hotspot Shield, e ele vai começar a protegê-lo, usando o HTTP Seguro (HTTPS). Ele lança um guia para mostrar que você está conectado e para desconectar, clique no botão “Desligar” na guia. Para ligar novamente, clique no botão “Conectar”. Você também pode ligar e desligar pelo botão direito do mouse no ícone do programa na bandeja do sistema.
No entanto, você precisará tomar alguns cuidados ao instalar o Hotspot Shield. Se você não quer a barra de ferramentas do programa instalada no seu navegador, desmarque a caixa "Incluir Barra de Ferramentas Hotspot Shield”. Além disso, certifique-se de desmarcar as caixas para a criação do “Hotspot Shield Private Search”. Isso evitará que a página inicial do seu navegador seja o serviço de buscas do Hotspot Shield. Isso impedirá mensagens de "Páginas Não Encontradas", evitando que você receba alertas bem irritantes.
Algumas advertências: quando você executar o software, ele vai abrir uma aba no navegador guiando-lhe para a página inicial do produto e que traz uma série de anúncios sobre ele. Você pode fechar essa guia se quiser, já que o programa funcionará perfeitamente, mesmo sem abri-la. Os anúncios promovendo o aplicativo também podem aparecer nos sites que você visita quando a ferramenta está ativada. Isso não aconteceu comigo, embora eu tenha visto em outros lugares, queixas a respeito dos  anúncios intrusivos. Finalmente, algumas pessoas que fizeram o download do programa têm reclamado que ele é instável, ou que é complicado para desinstalá-lo. Em meus testes, não encontrei nenhum problema referente a isso, mas, é sempre bom ser avisado de que os outros usuários têm relatado esta dificuldade.
Enquanto AnchorFree oferece Hotspot Shield de graça, outras empresas vendem produtos VPN similares para protegê-lo em hot spots públicos. O ConnectInPrivate, por exemplo, oferece o software e um serviço que custa 15 dólares por mês.
Preço: Grátis
Compatível com: Windows 2000, XP, Vista e 7 (também Mac OS X 10.4, 10.5 e 10.6)
Download
: Hotspot Shield

Plug and Browse
Se você usa seu laptop para conectar-se a mais de uma rede com ou sem fio, é possível que esteja gastando mais tempo do que gostaria na hora de mudar as configurações de rede.
Por exemplo, se você for um usuário de notebook típico, no trabalho você pode ter um endereço IP estático, uma impressora de rede padrão, um conjunto de scripts que precisam ser executados, os servidores proxy para a segurança e um conjunto de unidades de rede mapeadas. Em casa, você pode ter um endereço de rede atribuído pelo DHCP em uma rede sem fio, bem como uma impressora de casa, e pode usar o Windows Firewall, mas não existem servidores proxy. E pode haver ainda aquele hot spot acessado regularmente naquela cafeteria que você costuma visitar e que conta com seu próprio conjunto de requisitos, tais como endereço de rede por DHCP.
E cada vez que você muda de rede, são grandes as chances de você ter de ajustar as configurações no notebook, como a impressora padrão, unidades de rede mapeadas, servidores proxy e assim por diante.
E o Plug and Browse, da Interactive Studios, acaba com toda a necessidade de realizar essas configurações manualmente. Ele permite que a criação de perfis para todas as redes que você usa e, quando você alternar de uma rede para outra, basta escolher o perfil da nova rede. Toda a sua configuração estará intacta.
Um toque muito agradável no Plug and Browse é a possibilidade de dizer a ele para criar automaticamente um perfil para você. Assim, o programa vai pegar todas as suas configurações atuais para a rede à qual está conectado. Você ainda pode modificar as definições posteriormente, se precisar.
Preço: $ 39.99 (com 30 dias de teste grátis)
Compatível com: Windows XP, Vista e 7
Download: Plug & Browse


(Preston Gralla)