This is default featured slide 1 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 2 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 3 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 4 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 5 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

sexta-feira, 29 de junho de 2018

Hardware - HDMI vs DisplayPort: comparamos as duas interfaces de áudio e vídeo



Analisamos as histórias, recursos, vantagens e desvantagens de cada uma das tecnologias.
Autor da Foto
O padrão de interface de áudio e vídeo HDMI está em todo lugar. Você pode encontrá-lo em TVs, set-top boxes, aparelhos de Blu-Ray, videogames, câmeras digitais e até mesmo em alguns smartphones.
Você também encontrará uma entrada HDMI na maioria dos computadores desktop e laptop atuais. E nenhum computador “tudo em um” moderno está completo sem um conector HDMI que te permite conectar um console de games ou uma set-top box ao computador para que você possa usar sua tela para um segundo objetivo. 
Mas por conta dessa onipresença do HDMI, você pode ter esquecido do outro padrão de áudio/vídeo digital: DusplayPort. Apesar de você conseguir encontrá-lo ao lado do HDMI em muitas placas de vídeo mais recentes, assim como em laptops voltados para o público corporativo, o padrão raramente aparece em PCs Windows voltados para consumidores finais. 
Os dois padrões podem enviar vídeo e áudio digitais de alta definição a partir de um aparelho fonte para uma tela. Então qual a diferença? Vamos responder a essa pergunta, começando com uma análise sobre como os padrões surgiram, e quais entidades os controlam.
Histórico
A especificação HDMI (High Definition Multimedia Interface) foi concebida há mais de 10 anos por seis gigantes do setor de eletrônicos: Hitachi, Panasonic, Philips, Silicon Image, Sony e Toshiba. Hoje, a HDMI Licensing, LLC, uma subsidiária da Silicon Image, controla a especificação. Os fabricantes precisam pagar uma taxa para incluir o HDMI em seus produtos.
Já a especificação DisplayPort foi desenvolvida por, e continua sob o controle, da Video Electronics Standards Association (VESA), um consórcio enorme de fabricantes que inclui desde a AMD até a ZIPS Corporation. O DisplayPort estreou em 2006 como parte de um esforço para substituir a já então antiga VGA (interface analógica lançada em 1987) e o DVI (Digital Video Interface, lançado em 1999), padrões usados principalmente para monitores de computadores. A DisplayPort é um produto livre de taxas de royalties, vale notar.
Fato curioso: das seis empresas responsáveis pela criação do HDMI, apenas a Hitachi e a Philips também não são integrantes do VESA.
Conectores
Os conectores HDMI possuem 19 pinos e costumam ser vistos em três tamanhos principais: Type A (padrão), Typc C (mini), e Type D (micro). O Type A é de longe o mais comum entre eles. 
Uma quarta categoria de conectores HDMI, o Type E, é usado para aplicações automotivas. A maioria dos conectores HDMI usam uma trava de fricção, o que significa que um ajuste apertado mantém o plugue conectado ao soquete, mas algumas empresas desenvolveram mecanismos proprietários de trava, feitos para evitar que os cabos fiquem soltos.
Os conectores DisplayPort possuem 20 pinos e estão disponíveis em dois tamanhos: DisplayPort e Mini DisplayPort (o último é o modelo usado no tablet Surface Pro, da Microsoft).  
Apesar de a maioria dos conectores DisplayPort full-size possuírem um mecanismo de trava que evita que eles sejam desconectados acidentalmente, a especificação oficial não exige esse recurso.
Você encontrará micro conectores HDMI Type D em alguns smartphones e tablets, mas nenhum fabricante além da Microsoft coloca nem mesmo conectores Mini DisplayPort em seus aparelhos móveis. O conector de bloqueio comum aos conectores DisplayPort de tamanho completo, por outro lado, é um ótimo recurso que aparece em apenas alguns cabos HDMI Type A.
Os cabos
O maior problema com os padrões de cabo HDMI é que existem quatro deles atualmente, com um quinto padrão a caminho para acomodar a recém-lançada especificação HDMI 2.1. Muitos cabos mais antigos não estão etiquetados de forma adequada para identificar as suas capacidades. Usar um cabo HDMI que não seja voltado para uma tarefa em particular pode trazer algumas dores de cabeça, incluindo bugs de áudio e vídeo e problemas de sincronização. 
Conheça abaixo os quatro tipos de cabos HDMI atuais.
Cabo HDMI padrão: fornece largura de banda suficiente apenas para vídeos com resolução 720p e 1080p.  
Cabo HDMI padrão com Ethernet: possui a mesma largura de banda, mas adiciona suporte para Ethernet de até 100Mbps.
Cabo HDMI de alta velocidade: fornece mais largura de banda, e pode transmitir vídeos com uma resolução de 1080p ou mais (até 4K, mas apenas com uma taxa de atualização de 24Hz, que é boa para filmes, mas terrível para games). Esse tipo de cabo também pode lidar com vídeos em 3D.
Cabo HDMI de alta velocidade com Ethernet: suporta as mesmas resoluções do anterior, assimo como 3D, e adiciona suporte para Ethernet de até 100Mbps.
Todos os quatro tipos de cabos HDMI possuem um recurso chamado Audio Return Channel (ARC), que pode enviar áudio a partir do sintonizador da TV na sua HDTV de volta para o receptor AV. Antes da introdução do ARC, era preciso conectar um segundo cabo, só de áudio, entre a sua TV e o receptor A/V para reproduzir os sons. (Vale notar que o ARC é desnecessário se você assina TV a cabo e usa uma set-top box, como Apple TV.) 
A especificação HDMI não define o tamanho máximo de um cabo, nem determina qual o tipo de material que deve ser usado para os cabos. O cobre é o material mais comum, mas os sinais HDMI também podem ser transmitidos por cabos CAT 5 ou CAT 6, cabos coaxiais ou via fibra, segundo a HDMI Licensing LLC. 
Cabos HDMI “ativos” possuem circuitos integrados embutidos para amplificar o sinal. Os cabos ativos podem ser mais longos e finos do que os chamados cabos passivos (cabos mais finos tem menos chances de apresentarem problemas quando é preciso dobrá-los mais, por exemplo).
É muito mais fácil definir os cabos DisplayPort: só existe um tipo! A versão atual, o DisplayPort 1.3, entrega largura de banda suficiente para transmitir vídeos com resolução de até 3840x2160 com uma taxa de atualização de 60Hz, e oferece suporte para todos os tipos mais comuns de vídeo 3D. Os cabos DisplayPort também podem transmitir áudio digital multicanal. Por outro lado, o DisplayPort não consegue carregar dados Ethernet, e o padrão não possui um canal para retorno de áudio. 
Com a adição de um simples adaptador, um cabo DisplayPort pode conectar uma fonte DisplayPort a um monitor VGA (isso é muito útil quando você precisa conectar o seu notebook com um projetor de vídeo mais antigo, por exemplo). Os adaptadores também estão disponíveis para conectar uma fonte DisplayPort a um display de link único DVI ou HDMI. Os cabos HDMI podem ser conectados com uma interface DVI usando um adaptador, mas somente isso.
Transmissão de áudio e vídeo
O HDMI consegue lidar com um único stream de áudio e um único stream de vídeo, então só poderá transmitir conteúdo para uma única tela por vez. Isso é algo Ok se você usa apenas um monitor ou TV, mas muitas pessoas usam mais de um display nos dias atuais. E esses casos não são limitados a corretores da bolsa, com um olho no mercado e outro nas notícias. Muitos gamers usam dois ou três monitores ao mesmo tempo. E se você se acostumou a ter vários monitores na sua mesa, não vai querer voltar atrás.
Uma única interface DisplayPort oferece suporte para até quatro monitores com resolução de 1920x1200, ou dois monitores com resolução de 2560x1600, com cada display recebendo fluxos independentes de áudio e vídeo. E como algumas GPUs podem suportar várias interfaces DisplayPort, você pode montar uma conexão do tipo “daisy-chain” para conectar até seis monitores em uma fonte de origem. 
Qual a melhor interface de display?
O HDMI foi desenvolvido principalmente para aplicações em aparelhos eletrônicos: players de Blu-Ray, TVs, projetores de vídeo, e coisas do tipo. Apesar das especificações confusas dos cabos, o HDMI faz coisas que o DisplayPort não consegue. Enquanto isso, a VESA desenvolveu a DisplayPort para ser a interface de display definitiva para computadores, então mais complementa do que substitui o HDMI.
Infelizmente, muitas fabricantes de computadores – especialmente as que produzem laptops e máquinas “tudo em um” – parecem ter decidido que o HDMI é o bastante. Esperamos que essa atitude mude, uma vez o DisplayPort oferece tanto aos usuários finais quanto para os usuários corporativos. 
O HDMI não está indo a lugar algum, e não deveríamos querer isso, mas é hora das fabricantes também mostrarem um pouco de amor pelo DisplayPort. 
Enquanto isso, saiba o que você deve procurar na próxima vez que for comprar uma TV HD, computador ou monitor.
Como foi dito no início, o HDMI é onipresente. O padrão aparecerá em basicamente qualquer TV que você pensar em comprar, e estará presente na maioria dos displays voltados para usuários finais. Também deve marcar presença na maior parte das placas de vídeos, laptops, “tudo em um” e desktops.
Modelos melhores de monitores para desktops, PCs desktops e computadores “tudo em um” terão suporte para o DisplayPort, além do HDMI. Os notebooks, no entanto, possuem menos espaço físico para conectores. Na maioria dos casos, os laptops voltados para usuários finais terão HDMI, enquanto que os notebooks para usuários corporativos terão DisplayPort.
Se você planeja usar o notebook com um outro monitor separado, então não irá se arrepender de gastar um pouco para comprar um modelo que ofereça DisplayPort: o seu suporte para múltiplos displays e a sua habilidade de se conectar com quase qualquer outro tipo de monitor por meio de um adaptador simples e barato fornecem uma maior flexibilidade do que o HDMI.

quinta-feira, 28 de junho de 2018

Segurança - Por que o blockchain não é tão seguro quanto afirmam ser



Software não testado, múltiplas variações de tecnologia e falta de experiência são apenas algumas das razões para desconfiar de hyperledgers distribuídos
Autor da Foto
Todas as discussões sobre blockchain parecem começar com uma variante da expressão “hyperledger seguro e distribuído”. Não me importo com o fato de ser um hyperledger - em outras palavras, uma lista cada vez maior de registros vinculados. E não tenho nenhum problema em descrevê-lo como distribuído - nesse caso, através de uma rede ponto a ponto comunicando-se sobre um protocolo que descreve como validar novos registros adicionados à cadeia.
Mas parece-me que estamos exagerando na descrição de Blockchain como "seguro". Essa é uma exigência alta para qualquer sistema, que deve ser provada repetidas vezes em vários níveis, cenários, aplicativos e outros contextos. Seria mais preciso descrever a tecnologia como um hyperledger distribuído protegido criptograficamente . Essa definição deixa em aberto a questão crucial: se essa tática é suficiente para reduzir a vulnerabilidade a adulterações, roubo de senhas, negação de serviço por malware e outras ameaças.
Na verdade, você não precisa ir muito longe na literatura crescente de Blockchain antes que as vulnerabilidades de segurança saltem para você. Os problemas de segurança com Blockchain parecem formar uma cadeia própria, na qual os elos fracos começam a sobrecarregar os pontos fortes transmitidos pela dependência subjacente da tecnologia em criptografia de chave pública forte. Ao contemplar o fato de que mais riqueza armazenada no mundo e valor de troca comercial estão começando a girar em Blockchains, permissionados ou não, as vulnerabilidades de segurança dessa tecnologia começam a se tornar maiores.
O Blockchain é mais do que um banco de dados distribuído - é um sistema crescente de registro no qual a economia global confiará intimamente. Então, quão seguro é, na realidade? E quanto custo, tempo e problemas algum de nós estaria gastando para colocar nossas implementações de Blockchain em um formato seguro o suficiente antes que possamos justificar a colocação de ativos de missão crítica em um hiperlink distribuído?
O que é claro é que, mais frequentemente, os usuários são o elo mais fraco do Blockchain. Os atacantes continuarão a explorar as vulnerabilidades dos endpoints - em outras palavras, nossa incapacidade de proteger as identidades, chaves, credenciais e softwares Blockchain instalados em nossos PCs, telefones celulares e outros sistemas. Na prática, isso poderia nos expor a phishing, malware e outros vetores de ataque que deixam nossos ativos baseados em cadeia - como a criptomoeda - abertos para tomada.
Quando suporta transações comerciais complexas, o Blockchain geralmente executa o que é conhecido como “ contratos inteligentes”, o que pode representar uma séria vulnerabilidade de segurança. Os contratos inteligentes, que são escritos em um Blockchain, podem codificar negócios complexos, financeiros e legais . Se tiverem acesso às chaves de um administrador de um Blockchain permissionadoo, os criminosos poderão introduzir contratos inteligentes falsos que permitirão acesso clandestino a informações confidenciais, roubar chaves criptográficas, iniciar transferências de fundos não autorizadas e envolver-se em outros ataques aos ativos da empresa. .
A complexidade de um ecossistema Blockchain também é uma vulnerabilidade para a qual o usuário comum pode ser indiferente. Além de precisar proteger endpoints e os sistemas que gerenciam contratos inteligentes, você também precisará garantir a segurança dos processadores de pagamento de criptomoeda e das soluções que integram Blockchains em seus sistemas de aplicativos corporativos. Isso, por sua vez, exige uma verificação intensiva da confiabilidade dos fornecedores de sistemas Blockchain, que você pode ser desafiado a fazer, considerando o quanto poucos profissionais de TI têm experiência com essa tecnologia imatura.
Infelizmente, com os novos fornecedores de soluções Blockchain estão chegando todos os dias, muitos deles podem não ter um histórico, clientes de referência ou estudos de caso em que você possa confiar para determinar sua confiabilidade.
Mesmo com provedores estabelecidos, as soluções comerciais de Blockchain podem ser novas no mercado ou lançadas em versões alfa ou beta muito antes de estarem prontas para o horário nobre corporativo, portanto você corre o risco de executar seu Blockchain em código não testado, com bugs e inseguros ainda não provado em escala.
Além disso, existem muitos protocolos Blockchain, mecanismos de contratos inteligentes, gateways e trocas em implementações, com seus próprios bugs e vulnerabilidades de segurança. Sua empresa pode estar implementando Blockchains heterogêneos - permissionados ou não, internos e B2B - em silos que suportam diversos aplicativos. Você precisará solucionar as vulnerabilidades de cada ambiente isoladamente e, se tentar conectá-las entre si ou em um ecossistema maior de Big Data, atenuar quaisquer problemas de segurança que surjam em interações complexas entre esses ambientes.
Se um dos Blockchains em que você está participando for gerenciado por um consórcio , você precisará examinar detalhadamente os procedimentos operacionais dessa organização antes de confiar que está gerenciando o ambiente de ponta a ponta com segurança rígida. Como não há regulamentos universais aos quais esses consórcios devem obedecer, você terá que avaliar as práticas de segurança de cada consórcio separadamente, sem a garantia de que o nível de segurança de qualquer Blockchain seja diretamente comparável ao de outro. O anonimato que alguns consórcios permitem aos participantes do Blockchain pode fornecer cobertura para fraudes e dificultar que as autoridades identifiquem os criminosos.
Ainda mais preocupante é o fato de que as fazendas de mineração nas quais as Blockchains públicos são construídas estão hospedadas em todo o mundo. Embora isso possa dar ao Blockchain em questão algum grau de redundância e resiliência, também pode expô-lo a depredações de operadores obscuros que trapaceiam fraudulentamente participantes inconscientes do Blockchain através do que é chamado de “51 percent attack”. Se uma das partes ou um pool de conspiradores controla mais da metade dos nós de computação atualmente usados ​​para mineração em um determinado Blockchain, pode obter a “ proof of work” consensual necessária para escrever, de forma sub-reptícia, transações fraudulentas nessa cadeia às custas de outros participantes.
Essa ameaça é especialmente aguda quando um Blockchain está sendo iniciado, quando o número de nós de mineração é pequeno e, portanto, é mais fácil para um grupo individual ou em grupo adquirir pelo menos metade do poder de computação disponível. Pode tornar-se ainda mais grave à medida que as operações de mineração sejam transferidas para nações e regiões onde a energia elétrica é barata, a fiscalização regulatória inexistente e os criminosos e terroristas sejam abundantes.
Como a indústria de Blockchain abordará essas vulnerabilidades de maneira abrangente? Para começar, a Wikibon pediu à Linux Foundation para iniciar um projeto hyperledger dedicado a estabelecer uma estrutura aberta e flexível para proteger a segurança de ponta a ponta dos Blockchains, abrangendo terminais, gateways corporativos e assim por diante. A Wikibon também pede aos fornecedores de software corporativo que incorporem segurança sólida em seus aceleradores de implantação de Blockchain .
Não se deixe levar pelo hype utópico em torno Blockchain. Esses hyperledgers de código-fonte aberto são apenas mais segmentos nos ambientes de dados de nuvem híbrida nos quais mais empresas estão implantando aplicativos de missão crítica.
Você só deve implementar o Blockchain se tiver examinado suas vulnerabilidades, instituído as salvaguardas técnicas e processuais necessárias e determinado que o valor comercial potencial supera os riscos.

Internet - Novo estudo avalia os principais aplicativos de VPN do mercado



Levantamento da empresa de segurança AV Test analisou soluções como NordVPN, Avast SecureLine VPN, F-Secure FREEDOME VPN, Norton WiFi Privacy e Hotspot Shield
Autor da Foto
Um novo estudo do instituto alemão de segurança em tecnologia AV Test testou 12 das principais soluções de VPN (rede virtual privada) disponíveis no mercado  Entre outras coisas, a pesquisa, realizada no ultimo mês de abril, analisou as aplicações em diferentes situações para avaliar pontos como usabilidade, privacidade, desempenho e funcionalidade.
A lista de aplicativos testados inclui soluções como NordVPN, Avast SecureLine VPN, F-Secure FREEDOME VPN, Norton WiFi Privacy, Cisco AnyConnect Secure Mobility Client e Hotspot Shield – vale notar que a fabricante dessa última aplicação, a Anchorfree, comissionou o estudo.
Em usabilidade, por exemplo, são levados em conta fatores como a quantidade de passos necessários para diferentes processos, como configuração e conexão, além do número de idiomas suportados. “A configuração é bastante fácil para todos os produtos voltados para os consumidores”, afirma a AV no levantamento.
Em segurança, o teste analisou uma variedade de pontos, como vulnerabilidade para vazamentos e proteção contra URLs maliciosas. “O ranking para as primeiras colocações na lista é muito próximo para esse teste. Em termos de recursos e segurança fornecida, a lista se resume aos quatro produtos a seguir: ExpressVPN, F-Secure FREEDOME VPN, Hotspot Shield Elite e Private Internet Access”, destaca a AV Test na conclusão da seção de segurança e privacidade da pesquisa.
Compatibilidade
De acordo com a AV Test, todos os produtos testados no estudo oferecem suporte para as plataformas Windows, Android e iOS. Além disso, o macOS, da Apple, é compatível com todas as soluções da lista, com exceção do produto da Cisco.
Curioso? Clique aqui para ler o estudo na íntegra (em inglês) com todos os gráficos e conclusões. 
fonte:

terça-feira, 26 de junho de 2018

Hardware - Fabricantes estão vendendo monitores 4K como se fossem 1440p


O seu 1440p é o 4K que não deu certo porque não passou no controle de qualidade.

Lebre por gato


Você comprou um monitor com resolução de 2560×1440 pixels? Talvez ele tenha uma tela com definição maior que a esperada. Isso porque algumas fabricantes estão colocando neles painéis que originalmente eram 4K, com um bloqueio no firmware para impedir que o usuário atinja a resolução máxima. E, ao contrário do que alguns podem imaginar, isso não é bom.
O problema foi descoberto pelo site alemão Prad, que não divulgou quais empresas estão vendendo lebre por gato (?). O motivo é que, atualmente, fabricar uma tela de 27 polegadas com 3840×2160 pixels tem custo igual ou até mais barato que um painel do mesmo tamanho com resolução inferior. Então, quando há falta de fornecimento de painéis 1440p no mercado, a solução das fabricantes é utilizar um 4K no lugar.
Os painéis 4K são capados por firmware para não ultrapassarem resolução de 1440p. Como os pixels não são exibidos em proporção 1:1, a gambiarra traz perda de nitidez. Boa parte dos usuários não deve notar a diferença, já que tecnologias de anti-aliasing de fontes podem suavizar o problema, mas a falha se torna bem perceptível neste teste (acima, 1440p nativos; abaixo, 1440p interpolados em um painel 4K):

E como descobrir se você está comprando um monitor 4K por engano? O primeiro passo é olhar na ficha de especificações técnicas: se a fabricante costuma utilizar painéis 4K em um modelo vendido como 1440p, o tamanho do pixel é menor do que deveria. Um monitor de 27 polegadas 4K tem pixels de 0,155 mm; já um 1440p tem 0,233 mm. Este site te ajuda a calcular o tamanho certo do pixel.
A outra forma de verificar o problema é olhar atentamente um texto com fonte em tamanho normal (sem o escalonamento do Windows). Se os caracteres parecerem borrados, é um indício de que a resolução nativa do seu monitor não é 1440p (e talvez seja uma boa ideia reclamar com a fabricante).
Toda essa história me lembra de quando as fabricantes vendiam processadores quad-core como se fossem dual-core ou tri-core, com núcleos desativados por firmware — a diferença é que muitas vezes era possível desbloqueá-los e ter um chip melhor pagando menos.


fonte: https://tecnoblog.net/248719/monitores-4k-1440p/

segunda-feira, 25 de junho de 2018

Hardware - Sete curiosidades sobre Summit, o supercomputador mais rápido do mundo

Máquina com inteligência artificial e machine learning promete auxiliar em pesquisas na área de saúde e energia

A IBM anunciou neste mês o Summit, supercomputador mais rápido do mundo com inteligência artificial e machine learning. Projetada para o Departamento de Energia dos Estados Unidos, a máquina é capaz de realizar 200 quatrilhões de cálculos por segundo e deve auxiliar em pesquisas sobre doenças como câncer e Alzheimer, além de impulsionar os estudos de energia infinita para as próximas gerações.
Para conhecer melhor a supertercnologia, veja, a seguir, sete curiosidades sobre o Summit. De acordo com a IBM, a máquina pode ser considerada "a ferramenta científica mais poderosa já criada" e deve permitir que pesquisas importantes para toda a humanidade avancem em menos tempo e com nível mais elevado de precisão.
Summit é o atual supercomputador mais rápido do mundo, instalado nos Estados Unidos (Foto: Divulgação/Oak Ridge National Laboratory) Summit é o atual supercomputador mais rápido do mundo, instalado nos Estados Unidos (Foto: Divulgação/Oak Ridge National Laboratory)
Summit é o atual supercomputador mais rápido do mundo, instalado nos Estados Unidos (Foto: Divulgação/Oak Ridge National Laboratory)

1. O mais rápido

A capacidade de potência computacional para realizar cálculos e simulações científicas de alta precisão do Summit é de 200 petaflops por segundo (200 quatrilhões, ou 200 seguido por 15 zeros). A configuração é a maior já registrada em uma máquina — superando a líder na categoria por dois anos, o supercomputador chinês Sunway TaihuLight, com 125 petaflops. Para comparação, a tecnologia é 1 milhão de vezes mais rápida que o notebook mais poderoso existente.

2. São 37 mil processadores

Para funcionar, o Summit possui 37 mil processadores, sendo nove mil chips da IBM e quase 28 mil fabricados pela Nvidia. Estes últimos, os GPUs Volta, foram otimizados para trabalhar com inteligência artificial e machine learning (aprendizado de máquina, em português). Segundo a fabricante, as unidades gráficas são responsáveis por 95% da capacidade de trabalho do supercomputador.
Supercomputador Summit tem quase 28 mil placas da Nvidia e 250 petabytes de armazenamento (Foto: Divulgação/Oak Ridge National Laboratory) Supercomputador Summit tem quase 28 mil placas da Nvidia e 250 petabytes de armazenamento (Foto: Divulgação/Oak Ridge National Laboratory)
Supercomputador Summit tem quase 28 mil placas da Nvidia e 250 petabytes de armazenamento (Foto: Divulgação/Oak Ridge National Laboratory)

3. Usa 15 mil litros de água

Para fazer o resfriamento de todos os 37 mil processadores, o Summit utiliza 15 mil litros de água por minuto. O consumo do sistema permite que a máquina trabalhe com toda a capacidade sem passar por desgastes.

4. Tem 250 mil HDs de 1 TB

Além dos 200 petaflops de poder de processamento, o supercomputador da IBM tem 10 petabytes de memória RAM e 250 petabytes de armazenamento, equivalente a 250 mil HDs de 1 TB. Toda a estrutura está conectada por cerca de 300 metros de fibra óptica.
Summit recebe 15 mil litros de água por minuto e poderá ajudar no futuro da energia (Foto: Divulgação/Oak Ridge National Laboratory) Summit recebe 15 mil litros de água por minuto e poderá ajudar no futuro da energia (Foto: Divulgação/Oak Ridge National Laboratory)
Summit recebe 15 mil litros de água por minuto e poderá ajudar no futuro da energia (Foto: Divulgação/Oak Ridge National Laboratory)

5. Ajuda na área da saúde

Mesmo com o anúncio recente, o Summit já tem compromissos importantes para trabalhar. Entre as pesquisas que o supercomputador deve ajudar, com auxílio do aprendizado de máquina, está o desenvolvimento de ferramentas para extrair e analisar dados médicos da população com câncer. Além disso, com o uso da inteligência artificial, ele deve auxiliar nos estudos sobre a doença de Alzheimer e dependências, identificando padrões e evoluções.

6. Futuro da energia

Outra área que o Summit deve auxiliar é a identificação de materiais para a próxima geração, analisando os dados sobre a energia de fusão. Com o aprendizado de máquina, o objetivo é que o computador encontre fontes mais eficientes para baterias, ou materiais de construção com propriedades mais resistentes prevendo suas escalas atômicas.
Supercomputador da IBM ocupa espaço equivalente a duas quadras de tênis (Foto: Divulgação/Oak Ridge National Laboratory) Supercomputador da IBM ocupa espaço equivalente a duas quadras de tênis (Foto: Divulgação/Oak Ridge National Laboratory)
Supercomputador da IBM ocupa espaço equivalente a duas quadras de tênis (Foto: Divulgação/Oak Ridge National Laboratory)

7. São 520 metros quadrados

Como o nome já diz, o supercomputador Summit está longe de ser uma máquina tradicional. Assim, a tecnologia ocupa mais de 520 metros quadrados do Laboratório Nacional de Oak Ridge, instituto de pesquisa onde foi hospedada nos Estados Unidos. O espaço é equivalente a duas quadras de tênis.
Via IBM e Wired

fonte: https://www.techtudo.com.br/listas/2018/06/sete-curiosidades-sobre-summit-o-supercomputador-mais-rapido-do-mundo.ghtml 

quarta-feira, 20 de junho de 2018

Linux - create swap file

A note on hosting (https://packagist.org/packages/sonarsoftware/freeradius_genie)

If you're hosting this online, it's likely that your server does not have any swap memory setup. If you've selected a server with a low amount of RAM (1-2G), or even if you've picked more, it can be worthwhile setting up a swap partition to make sure you don't run into any out of memory errors. Your swap file size should be, at minimum, be equal to the amount of physical RAM on the server. It should be, at maximum, equal to 2x the amount of physical RAM on the server. A good rule of thumb is to just start by making it equal to the amount of available RAM, increasing to double the RAM if you run into out of memory errors. If you run into out of memory errors after moving to 2x the amount of RAM, you should increase the amount of RAM on your server rather than increasing swap. The SwapFaq on ubuntu.com can be helpful as well.
To setup swap, run the following commands as root (or by putting 'sudo' in front of each command):
  1. /usr/bin/fallocate -l 4G /swapfile where 4G is equal to the size of the swap file in gigabytes.
  2. /bin/chmod 600 /swapfile
  3. /sbin/mkswap /swapfile
  4. /sbin/swapon /swapfile
  5. echo "/swapfile none swap sw 0 0" >> /etc/fstab
  6. /sbin/sysctl vm.swappiness=10
  7. echo "vm.swappiness=10" >> /etc/sysctl.conf
  8. /sbin/sysctl vm.vfs_cache_pressure=50
  9. echo "vm.vfs_cache_pressure=50" >> /etc/sysctl.conf

terça-feira, 19 de junho de 2018

Hardware - Maior supercomputador com arquitetura ARM tem foco em memória rápida



A Hewllet Packard Enterprise anunciou nesta semana o lançamento do maior supercomputador a utilizar a arquitetura de hardware ARM, a mesma utilizada em smartphones. A grande diferença que máquinas robustas como a Astra são desenvolvidas a partir de chips x86 ou x64 e, aqui, o foco da companhia é o uso com centro na memória.
Máquina por enquanto vai ficar sob observação, em pesquisas nucleares do National Nuclear Security Administration dos Estados Unidos
Explica-se: a HPE segue uma tendência diferente das concorrentes, a do Memory-Driven Computing, a computação direcionada pelo uso da memória. Com o uso crescente de Big Data para cidades inteligentes, desenvolvimento de curas para doenças, pesquisas nucleares, internet das coisas e até mesmo a ida do homem para Marte, a empresa acredita ser necessária uma nova abordagem na relação que os processadores têm com a memória.
Assim, o Astra muda o desenho do funcionamento, com os processadores podendo acessar uma grande biblioteca compartilhada, ao invés de ter cada chipset com seus próprios arquivos. Assim, ao invés de acessar pequenas quantidades de memória e ter que pedir acesso quando precisar de mais, o supercomputador terá vários núcleos trabalhando ao redor de uma base que pode atender a todos simultaneamente.
supercomputador astra
O Astra tem 145 mil núcleos de processamento e 2592 servidores, cada um com dois processadores Cavium ThunderX2 de 28 núcleos e oito canais de memória. Além de consumir menos energia, ele comporta mais componentes que uma estrutura em x86 e chega até 33% de maior velocidade de acesso à biblioteca, com performance de 2,3 petaflops.
Antes de ser utilizado em outras frentes, ele será testado em simulações atômicas nas pesquisas nucleares do National Nuclear Security Administration, nos Estados Unidos.
fonte: TecMundo

sexta-feira, 15 de junho de 2018

Hardware - Summit, o supercomputador mais poderoso do mundo

4 missões do Summit, o supercomputador mais poderoso do mundo que acaba de entrar em operação

  • Summit Ocupando um espaço que equivale a duas quadras de tênis, o supercomputador vai ser usado para criar modelos científicos e fazer simulações
Mal entrou em funcionamento e já está sendo chamado de o supercomputador mais poderoso do mundo. Esse é o Summit, que é duas vezes mais rápido do que o chinês Sunway TaihuLight, tido até então como que a máquina mais veloz do planeta.
Desenvolvido nos Estados Unidos por meio de uma parceria entre a IBM e a Nvidia, o Summit, que fica no Laboratório Nacional de Oak Ridge, no Tenessee, o supercomputador tem capacidade para 200 quatrilhões de cálculos por segundo.
É composto por fileiras de servidores do tamanho de geladeiras que, juntos, pesam 340 toneladas e ocupam uma área de 520 m² - o equivalente a duas quadras de tênis. O Summit está conectado com mais de 300 quilômetros de cabos.
O computador trabalha como um monstro sedento que consome mais de 4 mil galões de água a cada minuto para manter seu sistema de refrigeração funcionando.
Segundo os criadores, a máquina é tão eficiente que já funcionava enquanto ainda estava sendo montada.
"Imagine dirigir um carro de corrida enquanto trocam os pneus", disse Thomas Zacharia, diretor do laboratório onde a supermáquina foi montada.

Direito de imagem Summit
Image caption Summit está conectado a 300 quilômetros de cabos
A princípio, o computador será usado para criar modelos científicos e fazer simulações baseadas em inteligência artificial e automatização de padrões para acelerar descobertas em áreas como saúde, energia, desenvolvimento de materiais e astrofísica.


Superpoderes

  • 200 quatrilhões de cálculos em um segundo. Se uma pessoa consegue fazer um cálculo por segundo, levaria 6,3 bilhões de anos para calcular o que o Summit executa em um piscar de olhos.
  • Se os 7,4 bilhões de habitantes do mundo fizessem um cálculo por segundo, demoraria 305 dias para realizar uma operação que para o Summit é instantânea.
  • O sistema de armazenamento do Summit é capaz de armazenar 250 petabytes de dados, o que equivale a 74 milhões de anos de vídeo de alta definição.

Veja como o poderoso "cérebro" do Summit poderá ajudar a conseguir avanços nessas áreas:

1. Astrofísica

O Summit vai permitir simular cenários de explosões de estrelas mil vezes maiores que as que vinham sido recriadas até agora. Também vai poder rastrear 12 vezes mais elementos que os atuais projetos.
Pesquisadores esperam conseguir coletar pistas sobre como elementos pesados, incluindo ferro e ouro, se formaram na Terra.

Direito de imagem Getty
Image caption O supercomputador vai permitir explorar o espaço por meio de simulações de explosões de estrelas

2. Materiais

Entender como as partículas subatômicas se comportam é um conhecimento tido como chave no desenvolvimento de novos materiais para produzir, armazenar e transformar energia.
O Summit promete multiplicar por 10 a capacidade de simulação desses comportamentos, o que deve acelerar a descoberta de materiais que podem conduzir energia de forma mais eficiente.

Direito de imagem Getty
Image caption Descobrir materiais para a condução de energia de uma forma mais eficiente e econômica é um dos desafios para o Summit

3. Acompanhamento do câncer

Médicos e cientistas usam ferramentas automatizadas para extrair, analisar e classificar informações na tentativa de identificar fatores relacionados ao câncer, como genes, características biológicas e meio ambiente.
O Summit ajudará a cruzar essas informações com relatórios e imagens de diagnósticos. Assim, ajudará a obter um panorama mais completo da população que sofre de câncer, com um nível de detalhe que normalmente só se obtém de pacientes que fazem parte de pesquisas clínicas.

Direito de imagem Getty
Image caption Há expectativa que o supercomputador use sua potência para ajudar a descobrir a causa de diferentes doenças

4. Biologia

O Summit usará inteligência artificial para analisar dados com informação genética e biomédica.
A ideia é que, por meio dos cálculos feitos pelo supercomputador, pesquisadores consigam identificar padrões de comportamento das células humanas.
Essa análise de informações em grande escala pode ajudar a entender melhor algumas doenças, como o Alzheimer, e também a compreender fatores que levam à toxicodependência.



fonte: https://www.bbc.com/portuguese/geral-44494166

quinta-feira, 14 de junho de 2018

Segurança - Ataques baseados em memória estão em ascensão: proteja-se!

Estratégia se concentra em obter instruções ou dados fora da memória, em vez de nas áreas de foco tradicionais, como os diretórios do disco ou chaves do registro; ataque é menos detectável pelos mecanismos antivírus e até mesmo por algumas soluções de última geração



Ultimamente, você pode ter ouvido falar sobre ataques baseados em memória, ataques sem arquivos e ataques de subsistência (living-off-the-land attacks). Se assim for, é excelente que você se mantenha atualizado. Todos esses termos se referem à mesma coisa. Como sugerem os nomes, trata-se de um ataque à memória do sistema, tanto à ROM quanto à RAM.

Por que agora?


Os atacantes estão usando cada vez mais esse tipo de ataque porque funciona. É menos detectável pelos mecanismos antivírus (AV) e até mesmo por algumas soluções AV de última geração. Por causa disso, os cibercriminosos que usam essa técnica têm mais chance de ter sucesso em sua missão, que é roubar seus dados – sejam credenciais, segredos corporativos ou recursos de computação.

Como esse ataque funciona


Esse tipo de ataque se concentra em obter instruções ou dados fora da memória, em vez de nas áreas de foco tradicionais, como os diretórios do disco ou chaves do registro. A maneira como esse ataque é normalmente executado é a seguinte:

Etapa 1: um script ou arquivo chega ao endpoint. Ele evita a detecção porque parece um conjunto de instruções, em vez de ter recursos típicos de arquivo.

Etapa 2: essas instruções são carregadas na máquina (vamos explicar onde e como mais tarde).

Etapa 3: depois de executadas, elas trabalham usando as próprias ferramentas e recursos do sistema para realizar o ataque.

Exemplos de ataque


Um exemplo comum desse ataque usa uma combinação de macros do Word: Powershell, Meterpreter e Mimikatz. Essas ferramentas nativas, bem como aplicativos da Web, são executadas na memória e possuem alto nível de direitos de execução.

Acontece da seguinte maneira: um usuário recebe por e-mail um documento do Word contendo macros que solicitam ativação após a abertura do documento. As orientações das macros entram em contato com um servidor Command and Control (C2) para baixar um script, que permite que o Powershell faça um segundo download do Meterpreter e do Mimikatz (ambos aplicativos com usos legítimos) para começar a localizar e enviar credenciais ao servidor C2. Uma carga do malware também pode ser baixada, o que pode ser capturada por uma boa solução antivírus de próxima geração.

Talvez o usuário acesse um site e seja solicitado a executar o Flash, que geralmente apresenta algum tipo de vulnerabilidade. Depois que o usuário o habilitar, o Flash comprometido poderá enviar o código de shell ou as instruções para o endpoint do usuário, para ser executado na linha de comando e na memória sem o conhecimento da vítima.

Como esses ataques são baseados em orientações da própria máquina e no uso de aplicativos locais, fica mais fácil entender de onde vêm os nomes “sem arquivo” e “de memória”.

Como deter esses ataques hoje


É possível, no entanto, evitar esses ataques, sendo vigilante:

– Manter-se atualizado sobre patches;

– Bloquear sites que executam Flash, Silverlight ou Javascript, ou bloquear a exibição desses softwares em sites que solicitem sua ativação;

– Restringir o uso de macros em documentos.

Infelizmente, alguns desses métodos não são realistas para seus usuários, principalmente quando estão tentando trabalhar, mas são opções legítimas.

Você também pode detectar manualmente esses tipos de ataques, se notar um tráfego estranho usando seu software de SIEM (security information and event management, ou gerenciamento e correlação de eventos de segurança, em português) – supondo que você tenha um. Você pode ainda usar seus firewalls para inspecionar o tráfego. A utilização de ambos os métodos como sua estratégia de detecção envolve a integração de inteligência de ameaças externas de alta qualidade e regras para detectar a execução interna de aplicativos.

Você também pode investigar os eventos manualmente ou realizar varreduras diárias com uma ferramenta de análise da memória. Como sugestão, a Volatility Foundation tem software de código aberto altamente renomado.

Como deter esses ataques amanhã


Se você acha que isso parece um monte de trabalho que exige vigilância constante e talento, você tem razão. E discutimos apenas dois exemplos de técnicas de ataque de toda a matriz Mitra ATT&CK, que possui dezenas de técnicas diferentes. É importante, no entanto, entender a grande quantidade de esforço manual necessário para comparar com o que acontece quando essas ações podem se tornar automatizadas e mais eficientes.

Outra opção para detectar e interromper esses ataques é obter um produto de detecção e resposta de endpoint (EDR) com ações automatizadas em um mercado muito concorrido neste momento, com palavras que soam muito semelhantes. É por isso que é muito importante informar-se sobre o que sua organização precisa e se um fornecedor pode atender a essas necessidades com rapidez, facilidade e eficácia.

Independentemente de como você implementar sua estratégia de segurança, é importante que tenha consciência desse tipo de ameaça e informe-se sobre suas possíveis opções para interrompê-la.

Ao pesquisar suas opções, não deixe de fazer perguntas detalhadas sobre como cada solução funciona, incluindo quais ações automatizadas elas oferecem e quão avançadas são suas detecções e ações. E lembre-se: o objetivo das soluções de um fornecedor é melhorar o tempo de resposta de um analista e de sua equipe, não aumentar a quantidade de trabalho deles.

* Josh Fu é engenheiro de segurança da Cylance
 fonte: http://www.securityreport.com.br/overview/ataques-baseados-em-memoria-estao-em-ascensao-proteja-se/

terça-feira, 12 de junho de 2018

Redes - Movimentação de DC, eu já participei

Migração física de data center exige planejamento detalhado

Análise para transferência pode ter milhares de itens a serem levados em conta no processo, além disso é preciso verificar a qualidade atual do DC, pois, muitas vezes, as empresas acabam deixando a estrutura desorganizada e isso prejudica não apenas a qualidade do acesso às informações, mas também coloca toda a empresa em risco

O Data Center pode ser considerado o verdadeiro coração de muitas empresas, concentrando o acesso às informações estruturais, com a finalidade de processar adequadamente e sem interrupções um alto volume de dados, ele garante que não ocorram desvios ou quedas na operacionalidade dos serviços dessas corporações. Se para mantê-lo em funcionamento já é necessária atenção e equipe qualificada, fazer a migração física, ou Data Center Moving, exige um planejamento detalhado de cada ação.

Não basta desplugar fios e levar a estrutura para um outro endereço. Aliás, isso é impensável, já que nada pode ser desligado sem planejamento e as informações precisam ser mantidas seguras e, muitas vezes, acessadas pelos usuários durante o moving. Um detalhamento técnico para este processo chega a ter mais de 1.000 itens a serem verificados, dependendo do porte do Data Center.

“Um Moving de Data Center é um processo bem detalhado. Parece simples, levando em consideração que a mudança física acontece em um final de semana, porém, o planejamento técnico da operação envolve um time de profissionais, tanto do cliente, quanto dos nossos especialistas, e pode levar dois meses ou até dois anos para se montar toda a estrutura de mudança, tudo varia de acordo com a complexidade da estrutura”, explica Ricardo Perdigão, Diretor Comercial da Tecnocomp, empresa referência em Data Center Moving.

Para a realização de um Moving é necessário, antes de qualquer ação, iniciar um processo de gestão, que inclui planejamento, análise de risco, assessment (diagnóstico) do ambiente e elaboração de documentação técnica. Para realizar o processo é preciso alinhar a equipe do cliente com diretor de TI, gerente de projeto e especialistas de cada área, como redes, backup, armazenamento, sistema operacional e segurança. “É importante a integração dos profissionais nesse período. Nossa equipe especializada precisa entender todas as necessidades e avaliar cada decisão a ser tomada. O planejamento é uma parte crucial no processo de Moving”, destaca Perdigão.

Já para a execução do Moving, além dos profissionais das empresas, é preciso ainda contar com equipe de infraestrutura, cabeamentos em geral, transporte especializado e até mesmo escolta armada, seguro e profissionais especialistas para a transferência física. “Dependendo do porte do Data Center que será transportado, é necessário alinhar até mesmo com equipes dos departamentos de trânsito da cidade, afim de organizar o percurso que será realizado, para que tudo saia dentro do planejamento”.

Quando a estrutura de um Moving fica inviável à empresa, seja pelo tipo de negócio executado, pela falta de janela técnica ou dificuldades de mapeamento de interdependências das aplicações, a Tecnocomp indica a realização da migração lógica de dados – Data Center Migration. O processo acontece através da replicação de dados, virtualização e consolidação de servidores. Nessa modalidade, o cliente ainda conta com a fase de planejamento, assim como no Moving, com a diferença que a execução depende da infraestrutura de hardware e softwares mais um time de especialistas.

Mas, antes mesmo de avaliar um Moving, Perdigão alerta que é preciso verificar a qualidade atual do Data Center, pois, muitas vezes, as empresas acabam deixando a estrutura desorganizada e isso prejudica não apenas a qualidade do acesso às informações, mas também coloca toda a empresa em risco, visto que uma má estrutura pode gerar até um incêndio dentro do Data Center. “Chega a ser comum a ocorrência de problemas técnicos, por isso sempre realizamos o diagnóstico para melhoria da estrutura física já existente”, destaca o executivo. O importante é ter certeza de que tudo está funcionando e que as mudanças necessárias sejam feitas seguindo os rígidos padrões de qualidade e segurança.

quinta-feira, 7 de junho de 2018

Artigo - Google inaugura cabo submarino no Brasil com mais de 10 mil km de extensão




Alimentado com seis pares de fibra óptica, capazes de entregar até 64 terabytes de dados por segundo, cabo sai de Boca Raton, na Flórida, e vai até Praia Grande, em SP
Autor da Foto
Sob os mares da Flórida a Praia Grande há um cabo robusto do Google que é capaz de entregar até 64 terabytes de dados por segundo. Batizado de Monet, o cabo submarino que conecta Boca Raton à Fortaleza e depois Praia Grande já se encontra em operação, anunciou nesta quinta-feira (7) a gigante de tecnologia durante o Google for Brasil, em São Paulo.
No total, o cabo tem 10.556 quilômetros de extensão e seis pares de fibra óptica e é um reforço para dar conta de todos os serviços do Google, incluindo as suas operações de nuvem. Para se ter uma ideia, somente as plataformas da companhia, incluindo aí Busca, Chrome, YouTube, Gmail, contam com mais de 1 bilhão de usuários ao mês.
O cabo foi construído em parceria com a Algar Telecom, Angola Cables e Antel e até o fim do ano, será acompanhado pela ativação de outros: o Tannat e o Júnior, este último carrega tecnologia desenvolvida pela PadTec, empresa de Campinas. Foi ela quem desenvolveu os repetidores, responsáveis por reforçar o sinal dos dados durante o percurso do cabo.
“Estes três cabos vão ajudar a suprir essa demanda ao ampliar a infraestrutura digital da região, tornando a transmissão de dados mais eficiente, veloz e segura”, disse Fabio Coelho, presidente do Google Brasil.
O Tannat complementará o Monet, com 2 mil quilômetros de extensão, ligando Praia Grande à cidade de Maldonado, no Uruguai. A estrutura é resultado de uma parceria com a uruguaia Antel e tem capacidade estimada em 90 terabytes por segundo. Segundo o Google, o cabo ajudará a melhorar a infraestrutura de internet na América Latina, principalmente, para os usuários do Cone Sul. 
Já a missão do Júnior, com seus 390 quilômetros de extensão, é conectar Praia Grande ao Rio de Janeiro e, por meio de uma interligação com o Monet, garantir um melhor fluxo de dados entre dois dos estados mais populosos do Brasil. Oito pares de fibra óptica ocupam o interior do cabo submarino que, ao contrário dos seus outros dois “irmãos”, será exclusivamente operado pelo Google.

.