This is default featured slide 1 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 2 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 3 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 4 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 5 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

terça-feira, 28 de novembro de 2017

Avaliar - ibeacon...wifi

https://blog.beaconstac.com/2015/12/wi-fi-meets-ibeacon-technology/ 
 
--- bem tecnico..
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5422173/
 
 
--- outro link
http://cio.com.br/tecnologia/2015/08/31/wifi-aware-desafia-beacons-bluetooth-smart/
 
nota: parece que essa tecnologia não vai pegar....nem com muita insistencia dos fabricantes..
 
 
 

quinta-feira, 23 de novembro de 2017

Hardware - Intel vai “acabar com a BIOS” até 2020; saiba como isso afeta o Windows XP


Em uma conferência de hardware realizada neste mês, Intel anunciou seus planos para acabar com os últimos remanescentes do BIOS no mundo dos PCs até 2020. O jurássico sistema de entrada e saída — desenvolvido pela IBM nos primórdios da computação pessoal — será então completamente substituído pelo UEFI.
O BIOS (Basic Input/Output System) é um pequeno sistema que opera diretamente a partir da placa-mãe de computadores e foi criado para lidar com funções básicas dessas máquinas, tais como checar a integridade do hardware interno e dos periféricos e, em seguida, inicializar o sistema operacional.
O BIOS também era responsável por fazer a ponte de comunicação entre o SO e alguns periféricos como o teclado, mas essa função foi tirada das mãos desse sistema tão logo o computador pessoal começou a se popularizar, na década de 1990. O BIOS na verdade era muito lento para lidar com coisas mais avançadas que um teclado ou mouse moderno, e os SOs começaram a fazer essa ponte diretamente com o hardware através de drivers específicos.

Nascimento do UEFI

No começo dos anos 2000, enquanto a Intel desenvolvia seus chips Itanium IA64, a empresa percebeu que a BIOS não era mais adequada nem mesmo para fazer a inicialização do sistema operacional ou a checagem do hardware. Em vez de a companhia usar outros firmwares mais modernos que já existiam na época, resolveu desenvolver o EFI (Extensible Firmware Interface) para os novos chips. Essa família de processadores foi um verdadeiro fracasso, mas o EFI sobreviveu.
Possam continuar incrementando seu hardware e permanecer rodando o Windows XP
Isso porque ele era retrocompatível com software e hardware desenvolvidos para interagirem com o BIOS e, dessa forma, até hoje, alguns resquícios desse firmware jurássicos estão em processadores, placas-mãe e todo tipo de hardware e periférico desenvolvido para PCs. Nenhum desses produtos precisa mais do BIOS para qualquer coisa, mas eles mantêm essa “porta aberta” para que usuários de sistemas operacionais antiquados (anteriores ao Windows Vista SP1) possam continuar incrementando seu hardware e permanecerem rodando o Windows XP, por exemplo.
Atualmente, o firmware EFI se chama UEFI e consegue lidar — com muito mais rapidez e segurança — com as antigas funções do BIOS. Contudo, novos computadores ainda chegam ao consumidor com o sistema de retrocompatibilidade, o Compatibility Support Module (CSM), mas ele vem desativado. Isso acaba impedindo que você use hardware antigo em novas máquinas ou instale sistemas muito velhos sem antes fazer a ativação do recurso durante a inicialização do UEFI.
O CSM pode ser explorado por vírus que atacam a inicialização do sistema
Essa função vem desativada em notebooks e PCs de mesa comprados prontos por requerimento da Microsoft, já que o CSM pode ser explorado por vírus que atacam a inicialização do sistema ou mesmo hackers que sabem como driblar esse processo manualmente. O que a Intel quer fazer é eliminar completamente o suporte ao CSM em seus processadores até 2020 e, dessa forma, as fabricantes de placas-mãe e de PCs também terão que acabar com esse resquício do BIOS em seus produtos.
Isso vai facilitar o trabalho da Intel com novos chips, que não precisarão contar com complicados sistemas de retrocompatibilidade embutidos de fábrica. Contudo, isso vai essencialmente impedir que você use sistemas operacionais mais antigos que o Windows Vista SP1 64-bit em um futuro computador. Novas placas-mãe desenvolvidos para os próximos chips da Intel também impedirão esse tipo de uso, bem como futuras placas de vídeo e outros equipamentos.

Transição

Mas isso não quer dizer que o hardware dos últimos anos vai deixar de funcionar em novas máquinas. Todo tipo de equipamento produzido recentemente é compatível com o firmware UEFI e também com a BIOS. Por isso, eles ainda farão parte dos dois mundos por um bom tempo. Só os mais novos, feitos depois de 2020 é que terão limitações.
Por conta disso, até que o hardware UEFI sem compatibilidade com a BIOS domine o mercado, é possível que se passem anos, e os usuários do Windows XP podem desaparecer quase que completamente até lá, eliminando assim o problema gerado nessa época de transição. Depois de algum tempo, computadores novos só poderão rodar essa clássica versão do SO em máquinas virtuais.

fonte: https://www.tecmundo.com.br/produto/124474-intel-acabar-bios-2020-saiba-afeta-windows-xp.htm

quarta-feira, 22 de novembro de 2017

Segurança - Controle de acesso via IP


O artigo aborda os principais benefícios da migração dos sistemas de controle de acesso analógico para os digitais, incluindo a redução dos custos de instalação e facilidade de configuração e gerenciamento. Sem a necessidade de executar o cabeamento para uma unidade de controle ou servidor central, os dispositivos baseados em IP permitem instalações não proprietárias, flexíveis e escaláveis.


Fig. 1 - Sistema de controle de acesso legado típico desenvolvido com base em uma tecnologia proprietária
O vídeo em rede revolucionou o mundo do CFTV. Hoje, a indústria de controle de acesso está numa migração similar e, novamente, a direção é a transição para os sistemas baseados em TCP/IP.
Desde a introdução da primeira câmera IP em 1996, os sistemas de videovigilância em rede digital se desenvolveram rapidamente e oferecem, agora, uma grande variedade de recursos avançados que nunca existiriam na tecnologia analógica. Os distribuidores e integradores, assim como usuários finais, habituaram-se a esperar por inúmeras funcionalidades, como acessibilidade remota, imagem de alta qualidade, recursos de vídeo inteligente e gestão de eventos, em conjunto com a facilidade de integração, melhor escalabilidade, maior flexibilidade e custo–eficiência.

IP versus controle de acesso tradicional

A migração dos sistemas de controle de acesso para um ambiente digital certamente trará muitos benefícios. Entre eles estão a redução dos custos de instalação e facilidade de configuração e gerenciamento, além de oferecer flexibilidade para os sistemas e propiciar a integração com outros produtos de segurança.
Obviamente, a tecnologia IP não é totalmente desconhecida ou nova na indústria de controle de acesso. Contudo, os sistemas existentes não exploram plenamente as vantagens do IP.
Fig. 2 - (a) Instalação tradicional com uma unidade central e cabeamento proprietário para os acessórios da porta; (b) solução IP com switch de rede
Normalmente, um sistema de controle de acesso depende das características de cada dispositivo (leitor de cartão, maçaneta, trava da porta, chave de posição da porta, etc.) conectado por meio de um cabo RS-485 até uma unidade ou servidor central. Além de serem sistemas proprietários, que limitam o usuário final a um único provedor de hardware e software, essas soluções, frequentemente, tendem a ser muito complexas e exigir equipes especializadas para lidar com a instalação e configuração.
Além disso, o processo de expansão dos sistemas analógicos tradicionais é complicado, já que é necessário considerar que um controlador central típico deve ser criado para acomodar um determinado número máximo de portas, tipicamente 4, 8, 16 ou 32. Essa limitação não apenas torna o sistema inflexível como também dificulta para o usuário final compatibilizar as suas necessidades com os produtos disponíveis, caso seja preciso, por exemplo, sistemas de controle de acesso de 9 ou 17 portas. A falta de flexibilidade pode tornar custosa a adição de uma porta extra.

Sistemas básicos

Normalmente, os sistemas e produtos de controle de acesso convencionais são projetados e otimizados para grandes instalações, com muitas portas e talvez milhares de credenciais. Na verdade, o mercado atual parece muito diferente. De acordo com o relatório “Sales & Security Integrator gold report (2013)”, uma instalação média exige 10 portas e tem, aproximadamente, 128 credenciais. Apenas cerca de 20% das instalações têm mais de 10 portas.
Sem a necessidade de executar o cabeamento para uma unidade de controle ou servidor central, os sistemas baseados em IP permitem instalações não proprietárias, flexíveis e escaláveis. Isso significa não apenas uma solução mais versátil, mas também uma melhor relação custo–eficiência. Sem restrições de ampliação do sistema em múltiplos determinados, um sistema baseado em rede pode ser ampliado de acordo com a necessidade do usuário.
O TCP/IP habilita soluções de borda, que contam com um controlador para cada porta, o qual é conectado à Ethernet local existente via um switch de rede comum. Como as redes IP são agora onipresentes em escritórios, lojas e fábricas, o custo da adição de um controlador de porta baseado em IP será mínimo, ao contrário de múltiplas conexões seriais com fio para um servidor central. O trabalho de cabeamento pode ser facilitado ainda mais. Ao utilizar um controlador com PoE - Power over Ethernet em cada porta, a necessidade de cabos de energia separados para os equipamentos da porta, como travas e leitores, pode ser eliminada. Isso reduz o custo total da instalação. Além disso, o suporte para UPS evita backups com baterias nos dispositivos da porta.

Sistemas grandes e mais avançados

A transição para soluções baseadas em IP tornará a implementação dos sistemas de controle de acesso muito mais atrativa. Isso resolverá muitas limitações dos sistemas tradicionais existentes, além de trazer funcionalidades adicionais além do controle de porta convencional. A integração com vídeo é um exemplo comum e que será atendida com mais facilidade com as soluções baseadas em IP. Na verdade, um ambiente digital padronizado comum tem potencial para criar inúmeras oportunidades de integração de outros sistemas, como detecção de intrusão e fogo, com soluções gerenciáveis e de interface amigável.
Fig. 3 - Possíveis integrações entre um sistema de controle de acesso e de videovigilância em rede e outros aplicativos de terceiros baseados em IP
Exigências de alta segurança não tornam o sistema menos gerenciável. De forma contrária, os dispositivos de controle de acesso baseados em IP habilitam o gerenciamento remoto, que é claramente uma vantagem em instalações muito grandes ou dispersas. Essa capacidade também facilita e simplifica a configuração, teste e verificação de um sistema totalmente ou parcialmente novo, uma vez que os ajustes podem ser feitos a partir da conexão de rede mais próxima.
A implantação desses sistemas, independentemente do seu tamanho, é, portanto, mais rápida e menos trabalhosa do que a de um sistema analógico semelhante. A “inteligência” distribuída os tornam menos vulneráveis às interrupções de energia e falhas da rede. O UPS e o armazenamento de eventos em buffer local, com a comunicação criptografada, contribuem para o mais alto grau de confiabilidade e segurança.

Benefícios das normas

Fig. 4 - Exemplo de um sistema de controle de acesso não proprietário
Assim como no mercado de videovigilância, uma mudança para IP na indústria de controle de acesso vai significar uma transição de sistemas proprietários para soluções abertas, as quais serão baseadas em normas internacionais.
Soluções abertas e de interfaces padronizadas são um pré-requisito para qualquer indústria que deseja estabelecer seu próprio sistema plug and play. Existem muitos ganhos desse desenvolvimento também no controle de acesso. Isso permitirá que os usuários finais possam livremente selecionar e escolher os componentes (leitor, controlador de porta e software). Essa liberdade torna o sistema à prova de futuro e significa que o usuário final não tem mais que depender de uma única marca ou fornecedor. Igualmente importante, isso habilita a integração com outros sistemas relacionados à segurança e aplicativos de terceiros, sem a necessidade de hardware de alto custo para fazer a “ponte” entre os diferentes sistemas.
No mercado de sistemas de segurança de rede já existe uma tendência clara para desenvolver interfaces de plataformas de aplicativos (APIs) padronizadas ou abertas que podem ser usadas por todos os fornecedores com base em termos justos, razoáveis e não discriminatórios. Naturalmente, isso vai aumentar a oferta e promover a concorrência, trazendo um novo nível de inovação para a indústria.
Por exemplo, o ONVIF, um fórum global sobre normas industriais abertas para facilitar o desenvolvimento e o uso de produtos de segurança baseados em IP, anunciou em 2010 uma extensão do escopo de padronização para cobrir o controle de acesso físico. Idealmente, os dispositivos de controle de acesso de fabricantes que atendem aos padrões ONVIF estarão, num futuro próximo, interoperando sem esforço e sem problemas uns com os outros, bem como com outros sistemas e produtos de videovigilância, em conformidade com o padrão.

Novas oportunidades de negócio

Os sistemas de controle de acesso baseados em TCP/IP trarão novas oportunidades de negócios. Os integradores, por exemplo, apreciarão a facilidade de instalação e a possibilidade de integração do controle de acesso com outros sistemas. Os distribuidores encontrarão novos mercados e clientes quando estiverem livres para reunir diferentes componentes de diferentes fabricantes para criar ofertas de negócios úteis e atrativos. Por último, os clientes finais poderão aproveitar as vantagens de uma tecnologia flexível, adaptável, acessível e à prova de futuro que pode ajudar a garantir e proteger ativos valiosos.

fonte:
Axis Communications
Data: 25/09/2016
Edição: RTI Setembro 2016 - Ano XVI - No 196


Data Center - Proteção de sobrecargas em data centers


Em um ambiente com dois cabos de alimentação (“dual-corded”), a perda de energia de um deles fará com que a carga seja transferida para o outro, podendo criar uma condição de sobrecarga e falha. Este artigo explica o problema e como resolvê-lo, fornecendo um conjunto de regras para garantir que um ambiente com dois caminhos de alimentação (“dual-path”) tenha tolerância a falhas.


O principal objetivo de uma arquitetura elétrica com dois cabos de alimentação (“dual-corded”) ou dois caminhos de alimentação (“dual-path”) é garantir a continuidade das operações de TI durante uma falha de parte do sistema de distribuição de energia, fornecendo um caminho alternativo de alimentação de energia. Nessa topologia, os dispositivos TI têm duas entradas de energia separadas e são projetados para continuar a operar quando um dos cabos perde a alimentação. O sistema de distribuição de energia alimenta um ambiente de TI “dual-corded” através de dois caminhos separados, que podem se juntar em algum ponto, ou seja, no painel de distribuição, na saída do UPS, no conjunto de manobra ou na conexão principal com a concessionária.
Na arquitetura de alguns data centers, os dois caminhos se estendem até dentro do sistema de distribuição da rede primária e são supridos por subestações separadas ou até mesmo por linhas de alta tensão separadas. Na maioria dos data centers com dois caminhos de alimentação, esse sistema “dual-path” é estendido até o quadro de distribuição. Nesse caso, um gerador de emergência é usado para fornecer redundância quando houver apenas uma única alimentação da rede da concessionária.
Quando há uma falha no sistema de distribuição ou até mesmo na fonte de alimentação de um dispositivo TI, o sistema de TI dual-corded é projetado para manter a carga de TI em operação. Embora isso seja conceitualmente simples, algumas regras e esquemas de monitoramento têm que ser estabelecidos para assegurar a sua operação correta. Em primeiro lugar, este artigo mostra o comportamento dos dispositivos TI nesse ambiente; em seguida, explica as condições que precisam ser atendidas para garantir a disponibilidade esperada; e finalmente, fornece estratégias sobre como gerenciar um ambiente dual-corded.
Um sistema dual-path corretamente implementado e verificado fornece tolerância a falhas e permite a manutenção simultânea de qualquer ponto do sistema de potência. Isto é verdadeiro mesmo que não haja conexões cruzadas entre os caminhos de alimentação e mesmo se um dos caminhos não tiver UPS. Muitos usuários implementam a arquitetura dual-path, mas não confiam que vá operar quando necessário, conforme evidenciado pelo uso de chaves de transferência estáticas e conexões cruzadas para manutenção. É uma prática comum de projeto garantir o fornecimento de energia para ambos os caminhos durante muitos tipos de falhas, mesmo na manutenção. Contudo, essa segurança extra não será necessária se o sistema com duplo caminho de alimentação funcionar corretamente. Se for corretamente implementado e verificado, ele vai tolerar a perda de um caminho sem incidentes, permitindo que os projetos de data centers sejam mais simples e menos dispendiosos.

Comportamento do dispositivo TI dual-corded

Fig. 1 Um servidor que têm três entradas de energia e não atende à condição dual-corded
Admite-se que um dispositivo de TI dual-corded tenha capacidade de operar corretamente quando alimentado por qualquer um dos dois cabos. No entanto, essa consideração sobre o comportamento dos dispositivos nem sempre é correta. Em um ambiente de TI dual-corded, é necessário primeiro estabelecer se os dispositivos realmente satisfazem a condição dual-corded. Mais de 95% de todos os dispositivos de TI dual-corded existentes operam corretamente com apenas um cabo (“single-corded ”). As razões para alguns dispositivos não operarem corretamente de acordo com a arquitetura dual-corded incluem:
  • O dispositivo foi especificamente implementado com dois cabos não para efeito de redundância, mas como forma de obter mais potência para o dispositivo TI usando múltiplas fontes de alimentação. Existem inúmeras razões para que um dispositivo TI possa usar várias fontes, em vez de uma maior, como: o dispositivo foi projetado para ser expansível ao longo do tempo, incluindo o recurso de adicionar mais potência; o dispositivo não tem uma tomada especial de alta potência, e usa duas fontes de alimentação com tomadas convencionais para solução dessa questão.
  • O dispositivo possui três cabos de alimentação e requer dois deles para operar corretamente. Não há nenhuma maneira de conectar os três cabos nos dois caminhos de alimentação de forma que o dispositivo sobreviva à falha de qualquer caminho (ele pode sobreviver à falha do caminho com um cabo conectado, mas não vai sobreviver com os dois cabos conectados).
  • O dispositivo foi implementado com dois cabos para redundância sob configurações normais, mas sob uma configuração interna plena, a carga de energia é maior do que uma única fonte pode fornecer; logo, a condição dual-corded só é adequada para dispositivos parcialmente configurados. Embora isso pareça ser uma falha de projeto, já ocorreu em alguns equipamentos de rede onde cartões plug-in mais novos não existiam na época do projeto do chassi. Nessa situação, muitos fornecedores lançaram fontes de alimentação atualizadas com maior potência nominal, mas a responsabilidade em garantir que a configuração atenda à condição dual-corded é do usuário.
  • O dispositivo foi concebido como dual-corded, mas uma fonte de alimentação falhou e tal condição não foi percebida ou corrigida. O dispositivo está agora operando como um single-corded e será desenergizado quando houver perda da alimentação de energia do caminho remanescente.
  • O dispositivo é dual-corded, mas os dois cabos foram inadvertidamente conectados no mesmo caminho de alimentação. Ele vai operar normalmente, mas será desenergizado quando houver interrupção do caminho que alimenta os dois cabos. Essa é uma ocorrência comum, particularmente em data centers onde existem diversas pessoas com direitos de acesso e troca de equipamentos.
  • O dispositivo não é dual-corded, mas sim um single-corded, e foi implementado em um ambiente com dois caminhos de alimentação (“dual-path”). Se o comportamento compatível com dual-corded for necessário, isso pode ser feito pela instalação de uma pequena chave de transferência para montagem em rack em um ou em alguns dispositivos. Como alternativa, se a carga single-corded for elevada, o comportamento compatível com dual-corded pode ser realizado pela instalação de uma chave estática, alimentando um terceiro caminho especial para uma zona ou racks single-corded.

Dois tipos de dispositivo

A maioria dos dispositivos de TI dual-corded opera com os dois cabos alimentando fontes de energias ou grupos separados. Dentro do dispositivo de TI, as saídas das fontes de alimentação são combinadas. Sob operação normal, os requisitos de potência das cargas de TI são compartilhados entre as duas fontes de alimentação (ou dois bancos de fontes de alimentação). Embora essa partilha não seja precisamente equilibrada, cada fonte (ou banco de fontes) suporta tipicamente 50% +/10% da carga. Quando há interrupção de energia em um caminho devido à falha, toda a carga do dispositivo de TI é imediatamente suprida pela fonte remanescente. Como o requisito de potência computacional do dispositivo de TI não varia durante uma falha de energia, o caminho de alimentação de energia que não falhou verá sua participação normal de 50% da potência da carga de TI aumentar para 100%. Além disso, alguns equipamentos de TI podem acelerar os ventiladores quando uma fonte de alimentação cai. Logo, o requisito de potência total de um dispositivo de TI pode, na verdade, aumentar até 15% durante esse evento. Portanto, é razoável planejar um aumento de 10% na carga para a interrupção de um caminho. Naturalmente, o caminho de alimentação de energia (e a própria fonte de alimentação) tem que estar preparado para aceitar essa mudança no degrau de carga, sem que haja mau funcionamento.
No entanto, há outro tipo de carga de TI menos comum, onde a potência da carga não é “compartilhada” pelos cabos de entrada. Nesse caso, (que representa menos de 5% de todos os dispositivos TI dual-corded), o dispositivo de TI absorve toda a energia de um cabo sob operação normal e chaveia para o outro cabo quando houver falha na alimentação de entrada primária. Esse tipo de dispositivo, baseado no “chaveamento de potência”, fornece toda a redundância esperada em um ambiente dual-corded, mas tem duas propriedades incomuns que precisam ser consideradas durante a implementação e operação:
Quando são instalados dispositivos de TI dual-corded do tipo “compartilhamento de potência”, a potência em ambos os caminhos permanece uniformemente equilibrada à medida que os dispositivos são instalados. Contudo, quando dispositivos TI do tipo “chaveamento de potência” são instalados, a alimentação de energia vai depender de qual tomada está conectada em cada caminho. Se as tomadas forem conectadas aleatoriamente, a potência deverá ser pouco equilibrada entre os dois caminhos. Porém, se houver um padrão como, por exemplo, conectar o cabo do lado esquerdo do dispositivo de TI no caminho de alimentação da esquerda, poderá ocorrer uma condição de desequilíbrio no caminho de alimentação que tem a maior parte ou mesmo toda a carga. Embora a discussão anterior explique que o caminho subutilizado vai subitamente precisar suprir toda a carga de TI na falha do caminho primário, os operadores percebendo o caminho subutilizado podem incorretamente assumir que mais cargas possam ser ali colocadas, quando na verdade esse caminho tem que ser reservado para garantir a operação correta da redundância do sistema. Portanto, a existência de carga de TI dual-corded do tipo “chaveamento de potência” precisa ser corretamente identificada e planejada no projeto e operação do data center.
Fig. 2 Exemplo de uma chave de transferência para montagem em rack
Esses dispositivos comutam rapidamente quando ocorre a falha de um caminho. A potência no lado ativo remanescente aumenta rapidamente (alguns milissegundos) para seu novo valor ao assumir toda a potência da carga do dispositivo de TI. Contudo, os dispositivos de TI do tipo “chaveamento de potência” se comportam um pouco diferente. Neles, há um pequeno atraso de até 25 milissegundos antes de ocorrer o chaveamento para o caminho ativo. Durante esse período, as fontes de alimentação estão desenergizadas e têm que sobreviver com a energia armazenada nos capacitores internos. Quando a transição estiver concluída, o fluxo de potência precisa alimentar a carga de TI, como também recarregar os capacitores de armazenamento da fonte de alimentação. Como resultado, pode haver uma breve condição em que a carga na fonte ativa aumente para 150% da carga de TI exigida, ou até mais, por até 50 milissegundos. Se um número elevado de dispositivos de TI do tipo “chaveamento de potência” for instalado da mesma forma, isso pode causar uma sobrecarga nos sistemas de alimentação e provocar um trip indesejado do disjuntor, criando uma queda de carga. A sobrecarga transitória é bastante reduzida se os dispositivos do tipo “chaveamento de potência” forem instalados de forma que seus cabos de alimentação primária não estejam todos concentrados em um caminho de alimentação de energia.
Para minimizar os problemas acima mencionados, é importante saber se os dispositivos dual-corded são do tipo “chaveamento de potência”; em caso afirmativo, é preciso confirmar se estão deliberadamente instalados em um padrão alternativo para que a carga permaneça equilibrada em ambos os caminhos de alimentação de energia.
Se um dispositivo não atender à condição dual-corded porque tem três entradas de potência, tal como o dispositivo mostrado na figura 1, ele pode operar em um ambiente dual-corded e tirar proveito dos caminhos de energia redundantes através de uma das seguintes técnicas:
  • Tratar o dispositivo como single-corded e conectar todos os três cabos em uma chave de transferência para montagem em rack projetada para tal finalidade.
  • Conectar uma fonte no caminho A, uma no caminho B e a terceira em uma chave de transferência para montagem em rack. Se houver vários desses dispositivos, eles podem compartilhar uma chave de transferência apropriadamente dimensionada.
A figura 2 mostra um exemplo de uma chave de transferência para montagem em rack de 2 kW projetada para essa finalidade (unidades de maior capacidade também estão disponíveis).

Eficiência

Ocasionalmente, é questionado se a concentração de cargas em um caminho de um ambiente dual-path aumenta ou diminui a eficiência energética do sistema, quando comparada ao balanceamento de carga. Análises efetuadas mostram que, num sistema de potência onde ambos os caminhos são do mesmo projeto, o balanceamento vai aumentar a eficiência de distribuição, mas o ganho é uma pequena fração porcentual. Portanto, não há desvantagem para o balanceamento nesse caso. Contudo, há sistemas onde um caminho tem maior eficiência, como, por exemplo, quando é protegido por UPS e o outro vem da alimentação de energia bruta da concessionária (“raw utility power”). Nesses casos, se possível, obviamente é mais eficiente concentrar a carga no caminho da energia bruta da concessionária.

Codificação por cores

Em um sistema com dispositivos de TI cujos cabos devem ser conectados nos caminhos 1 e 2 ou numa chave de transferência, torna-se difícil seguir os vários cabos para garantir que estejam conectados corretamente. Esse problema pode ser complicado se os cabos de reserva fornecidos com os dispositivos de TI forem muito mais longos do que o necessário, criando uma quantidade significativa de fios dentro do rack. Isso pode dificultar muito o rastreamento dos cabos para confirmar as respectivas conexões. Para a solução desse problema, os cabos dos dispositivos TI podem ser substituídos por cabos de alimentação de comprimento apropriado com codificação de cores, conforme mostrado na figura 3.
Para uma identificação correta dos cabos de alimentação dos equipamentos de TI por código de cores são necessárias três cores. No sistema apresentado na figura 3, os cabos são codificados em: azul (caminho A), vermelho (caminho B) e preto (dispositivo single-corded).
Quando apenas um caminho é protegido por UPS e o outro vem da energia da concessionária (às vezes referido como sistema de potência Tier 3), o caminho azul é o com UPS. No exemplo da figura, o dispositivo single-corded é alimentado pelo caminho com UPS. Mas, conforme descrito anteriormente, ele também pode ser alimentado por uma chave de transferência para montagem em rack (ou chave de transferência estática central), caso em que o cabo de TI preto é conectado à chave de transferência. Observe que o uso de cabos de comprimento adequado facilitou a inspeção dos cabos de alimentação, reduzindo a confusão de cabos de energia que pode bloquear o fluxo de ar. Adicionalmente, os cabos mostrados na figura 3 são equipados com dispositivos de bloqueio para que não possam ser puxados para fora, além de uma indicação visual amarela que permite às equipes técnicas rapidamente identificar qualquer cabo que não esteja totalmente encaixado.

Requisitos do sistema de distribuição

Considerando as características da carga de TI dual-corded, podemos agora descrever como o sistema de distribuição de energia tem que ser projetado e gerenciado para a redundância esperada.
O sistema de distribuição de energia precisa garantir que uma falha em qualquer ponto de um caminho não cause a falha do segundo caminho. O fato de um data center estar atualmente operando corretamente sob condições normais não garante que um caminho de alimentação vá operar corretamente quando houver falha do outro caminho.
A falha de um caminho resultará no aumento gradual da carga no caminho alternativo. A magnitude desse degrau, e onde ele ocorre, vai depender da natureza da falha no caminho de alimentação com defeito. A seguir, dois exemplos importantes sobre o degrau de carga:
  • A falha de um caminho no circuito de derivação para o gabinete de um rack, normalmente, resultará na duplicação da carga de potência no circuito do caminho alternativo para esse gabinete. No entanto, disjuntores alimentando múltiplas PDUs no caminho remanescente podem apenas perceber um pequeno aumento porcentual na potência.
  • A falha de um caminho no UPS central, normalmente, resultará na duplicação da carga de potência em cada circuito do caminho alternativo para cada gabinete. Além disso, todos os disjuntores alimentando PDUs no caminho remanescente também perceberão uma duplicação da potência.
Em todos os casos, é necessário assegurar, por meio de um projeto e práticas de operação, que qualquer falha de um caminho não cause uma condição de sobrecarga em qualquer ponto do caminho alternativo. Embora pareça muito complicado, isso pode ser assegurado através da compreensão de alguns princípios simples:
  • Se cada caminho for projetado para que cada ponto seja capaz de fornecer toda a energia dos equipamentos, então, ele não pode ser sobrecarregado.
  • Se procedimentos ou sistemas forem implementados para assegurar que os dispositivos de TI nunca sejam instalados de forma a exceder os valores de projeto do sistema de distribuição, então, nenhuma sobrecarga vai ocorrer.
Esses princípios simples são fáceis de serem definidos em um projeto, mas difíceis de serem garantidos no ambiente dinâmico de um data center. Em geral, há duas formas de implementação:
  • Efetuar uma análise do pior caso para cada adição, mudança ou alteração, visando garantir que nenhuma condição exceda qualquer valor de projeto. Isso exige diversas informações que podem ser difíceis de se obter sobre os dispositivos de TI, requer tempo e expertise em engenharia e pode resultar em um projeto muito conservador, onde a capacidade do data center é significativamente subutilizada. Essa abordagem é mais apropriada para uma instalação de grande porte com equipamentos de TI homogêneos.
  • Implementar o monitoramento do sistema de distribuição, fornecendo dados relativos às margens de segurança operacional e emitindo alarmes quando adições, mudanças ou alterações causarem a aproximação dos limites operacionais de diferentes pontos do sistema de distribuição. Essa é a abordagem mais prática no ambiente dinâmico de data centers.
Para implementar uma estratégia de monitoramento, cada fase de cada circuito é monitorada para garantir que não seja sobrecarregado no caso de qualquer falha no caminho de alimentação alternativo. Em um ambiente dual-path ideal, observe que a carga de qualquer caminho pode, quando muito, ser duplicada para qualquer falha no caminho alternativo. Logo, é necessário o monitoramento para garantir que nenhum circuito seja carregado além de 50% dos valores nominais de projeto. No entanto, em um data center que inclui algumas cargas de switches e outras com maior consumo de energia, o desligamento de uma fonte de alimentação exige uma margem extra de segurança para garantir que não haja sobrecarga de circuitos. Experiências mostram que o monitoramento de circuitos para um limite prático de 40% da carga de projeto é suficiente para garantir uma operação confiável durante qualquer falha nos caminhos. O sistema de monitoramento vai reportar sobrecargas para que possam ser identificadas durante a instalação ou operação do equipamento, permitindo que os operadores tomem medidas para redução da carga.
Em um ambiente de TI homogêneo, onde a carga é composta de muitos dispositivos similares, o limite de monitoramento deve ser estabelecido pela medição do desempenho de um dispositivo de TI representativo. Se ele não apresentar um aumento de potência quando da perda de um caminho, o limite de monitoramento pode ser definido em 50%. Para cada aumento de 1% observado no consumo de energia, o limite de monitoramento deve ser reduzido em 0,5%. Por exemplo, se a carga chegar a 110% quando houver falha de um cabo, o limite de monitoramento deve ser ajustado em 45%.
Embora pareça complicado implementar o monitoramento da margem em centenas de circuitos de ramais de um data center, esse é um recurso padrão de muitas PDUs de racks; a emissão de relatórios é uma função “out of the box” incluída em algumas soluções de gestão da infraestrutura de data centers (DCIM “Data data centers (DCIM “Data Center Infrastructure Management”). Quando o sistema em questão for implementado, os usuários terão confiança suficiente para efetuar manutenção simultânea, permitindo a interrupção de um caminho para um rack, pod, sala ou até mesmo de toda a instalação.

Regras para a redundância desejada

Fig. 3 Melhoria no arranjo dos cabos de energia usando cabos de comprimento apropriado com codificação de cores
Algumas regras são necessárias para implementação da redundância dual-path:
Verificar se os dispositivos instalados operam corretamente como dual-corded com capacidade failover. Se isso não for garantido pelo fornecedor, considere efetuar testes dos dispositivos no local antes da implantação.
Verificar se algum sistema e procedimento foi implementado para monitorar e corrigir falhas na alimentação de energia dos dispositivos dual-corded. A maioria dos dispositivos de TI possui esses recursos, mas frequentemente os alarmes não são adequadamente monitorados ou roteados para gerar uma ação de resposta.
Estabelecer procedimentos de instalação e controle de alterações para assegurar que os dois cabos de cada dispositivo dual-corded sejam conectados em diferentes caminhos de alimentação de energia.
Certifique-se que os dois cabos estejam conectados na mesma fase (ou par de fases) em cada uma das duas PDUs de rack e, de forma ideal, ao mesmo grupo de tomadas de saída de cada uma das duas PDUs de rack. Implemente codificação dos cabos por cores, assegurando que os eles tenham o comprimento apropriado para a aplicação.
  • Verificar as cargas single-corded do data center, confirmar se elas são críticas e, quando apropriado, fornecer suporte dual-path, usando chaves de transferência automáticas baseadas em rack ou chaves estáticas grandes (para clusters ou zonas de dispositivos single-corded).
  • Saber quais dispositivos, se houver, são da configuração do tipo “chaveamento de potência” e assegurar que existe um processo para garantir que as entradas de potência primária de diferentes dispositivos não estejam concentradas em um caminho de alimentação, mas sim distribuídas entre todos os caminhos de forma equilibrada.
  • Implementar um esquema de monitoramento em cada fase de cada circuito do data center e em todos os níveis do sistema de distribuição para fornecer dados sobre as correntes operacionais, permitindo verificar se elas estão se aproximando do limite de 40% do nível de projeto. Nesse caso, emitir alarmes quando qualquer corrente de operação exceder 40% do nível de projeto. Verificar as margens antes de adições, mudanças e alterações para evitar que qualquer corrente de operação aumente acima de 50% dos valores nominais de projeto.
  • Considerar a implementação de um protocolo de verificação onde racks ou grupos de racks sejam periodicamente inspecionados para a verificação de conexões de cabos apropriadas, testando-os individualmente mediante o desligamento de cada fonte de alimentação. Ao testar apenas uma pequena seção do data center, selecionando o momento mais adequado para os testes, as consequências de uma falha são limitadas. Essa prática aumenta enormemente a confiança no sistema dual-path.

Conclusão

Este artigo fornece informações sobre a operação de dispositivos de TI dual-corded, além de considerações sobre como implementá-los em data centers para tolerância a falhas de um caminho de alimentação de energia.
Embora muitos dispositivos tenham múltiplos cabos de alimentação, eles não se comportam todos da mesma maneira, e nem todos vão operar corretamente quando conectados a apenas um cabo de alimentação. Um projeto redundante eficaz para tolerância a falhas exige a garantia, por meio de testes ou projeto, de que cada dispositivo atenda ao requisito de operação no modo single-cord.
Inevitavelmente, algum dispositivo que não seja dual-corded precisará ser implantado em um data center dualpath. Nesse caso, alguns benefícios da operação dual-corded podem ser obtidos alimentando-os por uma chave de transferência baseada em rack projetada para essa finalidade ou por uma chave estática fixa, se houver inúmeros dispositivos para serem alimentados.
A presença de dois caminhos de alimentação não garante redundância, e a perda de um caminho pode causar uma sobrecarga e falha no caminho alternativo, a não ser que adições, mudanças e alterações ao longo do tempo não tenham violado os critérios de projeto do sistema.
A solução para assegurar a tolerância a falhas é monitorar cada fase de cada circuito do data center para garantir que nenhum deles seja carregado além de 40%/50%. Esse monitoramento parece complexo devido ao número de circuitos, mas é uma função padrão de algumas PDUs de racks e software DCIM. Ao seguir o conjunto de regras simples descritas neste artigo, os usuários podem assegurar um sistema dual-path com níveis de redundância e disponibilidade planejados.

fonte:
Neil Rasmussen, da APC by Schneider Electric
Data: 20/08/2016
Edição: RTI Agosto 2016 - Ano XVII - No 195


Artigo - Biometria facial



O desenvolvimento das tecnologias para o reconhecimento facial desperta o interesse de diversos órgãos públicos e empresas privadas. Este artigo aborda os conceitos e algumas técnicas mais usuais da tecnologia de biometria facial, além do software de biometria facial a partir de testes práticos e simulações do ambiente com análise técnica.


Existem várias técnicas ou métodos computacionais que compõem a biometria facial, iniciada no campo da engenharia de processamentos de sinais nos anos de 1960. Antes de explorar essa tecnologia é importante entender o modelo conceitual de análise e assim identificar as principais características que um software de reconhecimento de face humana deve possuir. Para isso, seguimos o modelo de equação [1] e da figura 1.
O software faz o reconhecimento avaliando as três regiões do rosto, ficando os algoritmos conhecidos como detectores para identificar as regiões dos olhos, nariz e boca. Essa etapa é essencial para confirmar a existência de uma face humana e não um objeto inanimado. Existem algumas metodologias utilizadas por alguns softwares e iremos explorar algumas delas.
Para iniciar o reconhecimento, o algoritmo do software analisa o tamanho, assim como o formato da face. Entenda-se como algoritmo a equação matemática que faz varreduras vertical e horizontal e determina a distribuição luminosa da imagem sobre o objeto alvo. A primeira metodologia que veremos é conhecida como método baseado em conhecimento, por que já conhecemos o que caracteriza uma face. O método baseado em conhecimento representa as técnicas que abordam algum conhecimento sobre o que é uma face focando os atributos geométricos do rosto.
O resultado esperado das varreduras vertical e horizontal do rosto são as coordenadas dos itens que formam uma face humana. As distâncias entre os itens do rosto são utilizadas para a identificação e se pudéssemos ter como “enxergar” veríamos linhas de conexão formando uma máscara e contornando as regiões de interesse.
Essas regiões são convertidas matematicamente em cubos de pontos, conhecidos como cluster. A distribuição desses pontos pode ser visualizada no plano ou no espaço. Essa informação é a referência utilizada pelo software para identificar uma pessoa.

Métodos baseados em características invariantes

Essa metodologia faz a identificação da face utilizando as técnicas de segmentação da pele em conjunto com a modelagem estatística construída a partir da textura da face humana e a cor da pele. A técnica tem como abordagem a utilização dos elementos característicos, branca, negra e parda, formando um cluster específico no espectro de cores.
Fig. 1 – Identificação da face
A representação da face se dá pela identificação da acumulação de pixels no espaço de cores, assim como no espaço cromático. A representação matemática se faz a partir de uma matriz que transforma o espaço de cores em componentes de matriz, luminosidade e saturação.
O resultado da equação [2] é representado como (60 < Y <200 99="" a="" and="" as="" buhiyan.="" como="" conforme="" conhecida="" conhecido="" cor="" cores="" cuja="" de="" demais="" desse="" diferen="" e="" em="" equa="" es="" est="" experimento="" fazer="" i="" imagens="" informa="" lumin="" m="" ncia="" o.="" o="" onde="" p="" padronizadas.="" partir="" q="" referem="" s="" se="" segmenta="" tamb="" todo="" uma="" varia="" wan="" y="">
A luminância, representada pela letra Y, consiste na ponderação dos valores das componentes RGB e pode ser quantificada pela equação [4].
Historicamente, esse método foi desenvolvido em 1953 pela NTSC National Televison Standards Committee para atender a transmissão de sistema de televisão.
Talvez a mais eficiente técnica utilizada para o reconhecimento de face, utilizando a abordagem de segmentação de pele, pertence a Society of Motion and Televesion Engnieers e é conhecida como YES.
A utilização desse método é justificável por que permite construir detectores de face suficientemente rápidos para serem utilizados em tarefas de rastreamento (face tracking) das faces, dispensando processos matemáticos de multiplicação e utilizando apenas deslocamento de bits.
A característica de rastreamento desse método é muito útil para áreas de segurança e interfaces inteligentes.
A técnica por si só não é suficiente para garantir uma identificação, pois alguns objetos podem ter cores semelhantes à pele humana, provocando o que chamamos de falso positivo. Para melhorar a identificação é preciso analisar outras características dos objetos como a textura de pele.
Fig. 2 – Pontos do reconhecimento da face
Fig. 3 – Simulação da face

Método baseado em templates

O método template se diferencia do de conhecimento, pois detectar não é utilizar padrões baseados em regras previamente estabelecida, mas sim a partir de parâmetros por pontos de controle que vão se deformando até encontrar a imagem final.
Nesse método os pontos de controle vão se deformando ao mesmo tempo contornando a face e após 45 interações temos como resultado uma reprodução da foto cadastrada. Comparando com método anterior ao de template vimos um avanço significativo frente a abordagem de análise das bordas nas regiões da face como olho, boca, etc. Uma variação desse método foi proposto, facilitando a identificação e melhorando a performance. Em uma cena, com muitas faces, faz-se necessário diminuir a quantidade de vetores de imagens a partir do cálculo de média proposta por Tusk e Pentland, cujo objetivo é minimizar o esforço computacional e melhorar o desempenho de identificação. Isso é realizado pela equação [5]. Seja x1, x2... xn um conjunto de imagens normalizadas de faces de diferentes pessoas. A face média de cada imagem é dada por:
A análise matematicamente final é por vetores e escalares, formando uma matriz conhecida como covariância, expressa como:
Fig. 4 – Reconhecimento da face score 74,2%

Métodos baseados na aparência

Essa técnica não necessita do conhecimento prévio. Nesse caso, o algoritmo sugere os conceitos de aprendizagem e treinamento do sistema.
O sistema de biometria facial se encarrega de aprender e codificar somente o necessário e realiza a detecção. Essa é uma solução tecnológica que pode que ser desenvolvida a partir de algoritmos de redes neurais, “engenfaces” ou modelos ocultos de Markov.
Até o momento vimos a evolução das técnicas utilizadas para realizar a biometria facial. São utilizadas fotos frontais e nunca de perfil. Isso traz uma limitação do sistema de software de biometria facial. Portanto, é preferível instalar o sistema de forma a capturar as faces das pessoas sempre de frente para a câmera.
Outra observação é o fato da diferença de luminosidade sobre a face. Esse componente influenciará diretamente no resultado. Assim é importante instalar a câmera contra a luz.
Essas observações irão ajudar fortemente o software, não importando a metodologia.

Metodologia para o teste de conceito

Para esse experimento descrevemos as condições de controle do teste como o local, iluminação, altura do objeto, altura da câmera e as características dos equipamentos para realizar simulação do ambiente antes da utilização do software biométrico.
Utilizando a ferramenta CFTV desing tools inserirmos as características técnicas da câmera como resolução, dimensão do sensor, distância do objeto. Assim como a altura da instalação da câmera e a distância focal.
O primeiro teste feito no ambiente da recepção utilizou a câmera da Axis de 1 Mpx com sensor 1/3 e lente adaptada para 5 a 50 mm.
As características da câmera foram repassadas para o software e verificamos que, a partir da altura de 1,5 m, temos uma captura de imagem do rosto, favorecendo muito o algoritmo do software de reconhecimento facial devido à grande aproximação da imagem.
Por definição do software é necessário obter pelo menos 60 pixels entre os olhos, enquanto o ideal é 90 pixels, para que o software de reconhecimento possa ter grande assertividade. Valores abaixo do valor de 60 pixels o resultado é desconhecido ou é gerado um evento falso positivo.
O sistema obteve uma similaridade excelente uma probabilidade de 97,99%, frente ao ambiente escolhido com pouca movimentação e pouco reflexo luminoso e inclinação, uma vez que o visitante olha direto para a câmera. Outro fator que colabora com o excelente resultado é a característica da lente.
Fig. 5 Reconhecimento da face score score 61%
Fig. 6 – Quantidade de faces reconhecidas

Condição de contorno para o segundo teste de conceito

Neste caso, utilizamos os recursos disponíveis no ambiente e os modelos de câmeras disponíveis têm resoluções de 1 e 3 Mpx com lentes de 2,8 e 3 a 9 mm, respectivamente. As câmeras estão fixadas sob o teto do tipo dome à altura de 3 metros. Outro requisito necessário para a solução de software reconhecimento facial deverá estar à disposição dos os operadores de videowall do centro de operações.
A limitação do software em teste está associada a alguns fatores, um deles é a quantidade mínima de 60 pixel entre os olhos, portanto o software poderá não identificar a face ou, no pior caso, gerar um evento conhecido como falso positivo, com valor inferior de pixels.
No primeiro teste, vimos que o software conseguiu identificar atingindo um score de 74% de similaridade, mas a partir da câmera de 3 Mpx. A distância é de aproximadamente 3,50 m, imaginando uma linha da câmera até a face. Ao se afastarmos um pouco mais da câmera, o score cai significativamente para 61%, muito próximo da limitação de reconhecimento face pelo software.
No teste com a câmera de 1 Mpx, instalada nas mesmas condições, não foi possível ter um resultado satisfatório. Entretanto, o não reconhecimento está associado, provavelmente, à dimensão da lente e pouco provavelmente à resolução da imagem.
Independente da metodologia utilizada para se construir o software de reconhecimento facial, a eficácia do sistema também dependerá do fator de luminância, conforme os cálculos demonstrados. Esse fator interfere, principalmente, quando a câmera capta imagem de uma face com fonte luminosa ao fundo da cena. A eficácia do sistema de biometria facial não está associada apenas em alta resolução, mas é profundamente influenciada pelo tipo lente utilizada pela câmera. Outro fator que influência no resultado é a variação da quantidade de luz de uma cena captada pela câmera. Assim, é altamente recomendável a utilização de recursos wide dynamic range, conhecido como amplo alcance dinâmico para diminuir a diferença luminosa sobre a face, facilitando a identificação de algoritmo matemático.
Fig. 7 – Software integrado ao videowall
O índice de acerto do software de reconhecimento facial, não importando a metodologia, será influenciado por fatores externos como variações ou posicionando face frente a câmera, além da iluminação ambiente, expressões distintas do rosto ou obstrução parcial do rosto.
A base de dados para a consulta deve possuir uma riqueza de múltiplas faces com diferentes posicionamentos para a sua identificação, ou seja, as imagens frontais ou de perfil das faces são bem-vindas. Essa abordagem ajudará o software desde que a sua construção seja sensível à variação de identidade, também conhecido como o algoritmo LDA Linear Discrimant analysis.
Como toda tecnologia, a de biometria facial possui limitações conforme, resta avaliar se o risco é aceitável. O importante é lembrar que não se pode utilizar qualquer câmera, É necessário fazer algumas alterações técnicas na câmera para que o software possa funcionar com mais assertividade.
Ao explorar as oportunidades de utilização do sistema de biometria facial se vislumbra as aplicações para o controle de acesso e automação predial e residencial.

fonte:
Wagner Ricardo Alves dos Santos, consultor em engenharia elétrica e sistemas de segurança eletrônica, WR Solution
Data: 10/08/2016
Edição: RTI Agosto 2016 - Ano XVII - No 195

terça-feira, 21 de novembro de 2017

Zabbix - How To Install Zabbix Server 3.4.4 Into Ubuntu 17.04

install-zabbix-server
Zabbix is an open source network monitoring tools. Now release Zabbix Server 3.4.4 for installation process on Ubuntu 17.04. I have install Zabbix Server 3.4.4 into ubuntu 17.04.
Step #01: Your server must update and upgrade
root@Zabbix-Server:~# apt-get update 
Successfully completed update then run upgrade command.
root@Zabbix-Server:~#  apt-get upgrade
Then reboot your machine command reboot with root user or using sudo.
Step #02: Now install apache web server
root@Zabbix-Server:~# apt-get install apache2
Step #03: When completed install apache server then install mysql database server.
root@Zabbix-Server:~# apt-get install mysql-server
Mysql server setup then type password two times.
Step #04: Zabbix update version install many php. Copy all code in one line then run it.
root@Zabbix-Server:~# apt-get install php php7.0-cli php7.0-common php7.0-mysql php7.0-mysql php7.0-curl php7.0-json php7.0-cgi php7.0 libapache2-mod-php
Start your apache server command line
root@Zabbix-Server:~# service apache2 start
Step #05: Download Zabbix update deb file using wget command.
root@Zabbix-Server:~# wget http://repo.zabbix.com/zabbix/3.4/ubuntu/pool/main/z/zabbix-release/zabbix-release_3.4-1+xenial_all.deb
Then follow below command for install deb file.
root@Zabbix-Server:~# dpkg -i zabbix-release_3.4-1+xenial_all.deb
Run update command
root@Zabbix-Server:~# apt-get update
Step #06: Install Zabbix mysql and Zabbix frontend-php
root@Zabbix-Server:~# apt-get install zabbix-server-mysql zabbix-frontend-php
Step #06: Create Zabbix mysq database. Goto mysql -u root -p
mysql> create database zabbix character set utf8 collate utf8_bin;
Query OK, 1 row affected (0.00 sec)
mysql> grant all privileges on zabbix.* to zabbix@localhost identified by 'passw0rd';
Query OK, 0 rows affected, 1 warning (0.00 sec)
mysql> flush privileges;
Query OK, 0 rows affected (0.00 sec)
mysql> cd database/mysql
     mysql -uzabbix -ppassw0rd zabbix < schema.sql 
     mysql -uzabbix -ppassw0rd zabbix < images.sql 
     mysql -uzabbix -ppassw0rd zabbix < data.sql 
 \q

Step #07: Create  Zabbix mysql table
root@Zabbix-Server:~# cd /usr/share/doc/zabbix-server-mysql/
Using below command for create zabbix database table
root@Zabbix-Server:~# zcat create.sql.gz | mysql -uroot zabbix -p
Step #08: Ensure Zabbix Server conf file inserted below lines such as
root@Zabbix-Server:~# vi /etc/zabbix/zabbix_server.conf
Insert all lines into server conf file.
DBHost=localhost
DBName=zabbix
DBUser=zabbix
DBPassword=passw0rd
Step #09: Edit your Server local time zone where Server located.  When your server Newyork then type America/New_York into php.ini file. Line number 924
root@Zabbix-Server:~# vi /etc/php/7.0/apache2/php.ini 
Example below.
date.timezone ="America/New_York"
Now apache and Zabbix server start all is ok. Going to your browser and type your Zabbix Server IP address and press Enter.
root@Zabbix-Server:~#  service apache2 restart
If you see does’t start Zabbix Server so now start command below.
root@Zabbix-Server:~#  service zabbix-server start
Now goto your browser type Zabbix server IP address as like below.
http://Zabbix-Server-IP/zabbix/
Then complete installation process now login here.
User Name : Admin
Password   : zabbix
See video


fonte: http://technologyrss.com/install-zabbix-server-3-4-4-ubuntu-17-04/

quinta-feira, 16 de novembro de 2017

Segurança - Checkpoint SSL Inspection

http://www.fr.net.br

quinta-feira, 9 de novembro de 2017

Linux - Install package downloaded

DPKG commands

There are two actions, they are dpkg-query and dpkg-deb.

Install a package

# sudo dpkg -i {package_name}    
# sudo dpkg -i skype-ubuntu-precise_4.2.0.11-1_i386.deb

Remove a package

# sudo dpkg -r {package_name}
# sudo dpkg -r vlc

Remove a package and its configuration files

# sudo dpkg -P {package_name}
# sudo dpkg -P vlc

List all installed packages.

You can pipe the command to less (a pager) so you can more easily scroll the content:
# dpkg -l | less

Check if the package is installed or not

# dpkg -l {package_name}
# dpkg -l vlc

Check if the package is installed or not, and if it is, launch it:

# dpkg -l | vlc

See whether a package is installed or not

And this will show the location where the package will be installed. Here -S (capital S) to search whether the package was installed or not.
# sudo dpkg -S {package_name}
# sudo dpkg -S skype

Install a *.deb package from a specified location

Here -R is recursive. (Recursively handle all regular files matching the pattern *.deb found at specified directories and all of its subdirectories).
# sudo dpkg -R --install {package_location}
# sudo dpkg -R --install /home/sysadmin/soft

Show package details

Here -p (lowercase p) will show the package info:
# dpkg -p {package_name}
# dpkg -p apache2

View the content of a package

Use -c (lowercase c) to show the content:
# sudo dpkg -c {package_name}
# sudo dpkg -c skype-ubuntu-precise_4.2.0.11-1_i386.deb

Extract the *.deb package file

Use -x (lowercase x) to extract:
# dpkg -x {package_name} {location_were_to_extract}
# dpkg -x libqt4-phonon_4.6.3-4+squeeze1_i386.deb /home/sysadmin/

Extract and display the filenames contained in a package

Use -X (uppercase X) to display the content with extraction.
# dpkg -X {package_name} {location_were_to_extract}
# dpkg -X libqt4-phonon_4.6.3-4+squeeze1_i386.deb /home/sysadmin/

Display information about a package

Here -I stands for information:
# dpkg -I {package_name}
# dpkg -I libqt4-phonon_4.6.3-4+squeeze1_i386.deb

Reconfigure an already installed package

dpkg-reconfigure reconfigures packages after they already have been installed. Pass it the name(s) of a package or packages to reconfigure. It will ask configuration questions, much like when the package was first installed.
# dpkg-reconfigure postfix
This will reconfigure postfix the same way as when you installed it for the first time.
Need to know more about dpkg commands? Have a look at the manual page:
# man dpkg
 

quarta-feira, 8 de novembro de 2017

Segurança - Dez dicas para acelerar a detecção e a resposta aos incidentes de segurança


Na guerra contra o cibercrime, o tempo sempre esteve do lado dos atacantes, com os criminosos usando o tempo de permanência como vantagem para realizar um ataque. No entanto, é possível recuperar a vantagem conhecendo o ambiente de segurança, planejando a frente e empregando uma abordagem proativa.



Na guerra contra o cibercrime, o tempo sempre esteve do lado dos atacantes, com os criminosos usando o tempo de permanência como vantagem para realizar um ataque. No entanto, é possível recuperar a vantagem conhecendo o ambiente de segurança, planejando a frente e empregando uma abordagem proativa. A McAfee divulga dez dicas que podem ser usadas para adicionar velocidade e inteligência à detecção e resposta de incidentes.

1. A integração é tudo. Se os produtos de segurança não se falam, não é possível ver o cenário completo. E uma violação pode ser perdida. A integração dos sistemas de detecção e resposta, através de iniciativas como OpenDXL, assegura a comunicação e acelera a detecção e a contenção

2. Compreenda todo o ambiente. Não é surpresa que os profissionais de segurança dizem que determinar o impacto e o alcance de um incidente de segurança leva muito tempo. Muitas vezes, subestimam quantos servidores, aplicativos e dispositivos existem na organização. Ao implementar o gerenciamento centralizado de segurança é possível obter a visibilidade e o monitoramento necessário.

3. Sempre mantenha os olhos nos dados. Detectar rapidamente a atividade anormal é essencial. No entanto, isso é impossível sem uma linha de base dos níveis normais de atividades do sistema, da rede e do usuário. Tenha uma solução que monitore continuamente o tráfego e detecte automaticamente qualquer atividade anormal, deixando os pontos cegos em rede no passado.

4. Mantenha-se atualizado sobre o cenário da ameaça. Comece com a coleta e a integração de inteligência de ameaças dentro da organização e expanda para o compartilhamento com toda a indústria. O compartilhamento possibilita uma inestimável visão das últimas vulnerabilidades e perigos. Use ferramentas que possam monitorar, coletar, gerenciar, priorizar e compartilhar inteligência de ameaças.

5. Priorize os ativos, eventos e ações. A triagem é a chave durante um ataque. É preciso conhecer seus recursos mais críticos, saber quando soar alarmes e ter fluxos de trabalho de investigação previamente estruturados e comunicações multifuncionais já estabelecidas. Planeje com antecedência para economizar um tempo precioso defendendo os ativos mais importantes no caso de ataque.

6. Pratique. Aproximadamente um terço das empresas treinam para a resposta a incidentes. Essa é uma porcentagem pequena, já que que colocar os procedimentos de resposta em teste identifica lacunas de segurança antes que ocorram violações. Execute exercícios regulares para melhorar os tempos de resposta; simule infrações, realize exercícios ou contrate uma empresa que realize testes de penetração para simular um ataque de fora da companhia.

7. Estabeleça uma equipe homem-máquina para combater o malware. A automação não irá substituir funcionários altamente treinados, e sim os tornará mais efetivos. Com a aprendizagem de máquinas é possível automatizar a classificação de eventos de segurança e a priorização. Isso permite realizar análises preditivas e prescritivas que ajudem a antecipar e neutralizar as novas técnicas de evasão emergentes.

8. Seja proativo. Ser proativo com a segurança, ao invés de reativo, é a única maneira de proteger o negócio. Depois de entender o ambiente, é possível procurar ativamente ameaças antes que elas ataquem.

9. Regule o acesso externo à empresa. Muitas brechas originam-se de fornecedores, parceiros ou provedores de nuvem terceirizados. Certifique-se de que todas as entidades conectadas ao ambiente de rede, sem exceção, aderem às políticas de segurança. Além disso, defina os privilégios, o tempo e os controles de localização para que certos parceiros possam acessar apenas sistemas e dados prescritos.

10. Crie um loop de feedback ativo. Torne os sistemas de detecção e resposta mais rápidos e inteligentes em cada evento. Aproveite todos os especialistas em segurança, tecnologia e processo para alimentar a análise pós-incidente para a inteligência de ameaças, ferramentas de automação e equipes de treinamento.

fonte: http://www.securityreport.com.br/destaques/dez-dicas-para-acelerar-deteccao-e-resposta-aos-incidentes-de-seguranca/