Pesquisar neste blog

segunda-feira, 1 de fevereiro de 2016

Internet das coisas - Real-Time Data Streaming: por que se importar?

De acordo com o crescimento das implantações de IoT, a capacidade de sua empresa analisar dados se tornará cada vez mais uma vantagem competitiva
Por Mary Catherine O'Connor - Fonte: RFID Journal Brasil
Nenhuma empresa implanta tecnologia de Internet das Coisas (IoT) porque quer usar mais sensores. São os dados que os sensores capturam que interessam. No entanto, apenas a captura de dados não é suficiente. Para evitar perdas nos processos de negócios ou de fabricação, por exemplo, os dados dos sensores precisam ser analisados em tempo real, de modo que os trabalhadores possam responder às anomalias a tempo.
"A Internet das Coisas apresenta falhas porque os dados estão chegando a um ritmo elevado", explica Steve Ehrlich, vice-presidente sênior de marketing e gerenciamento de produto da Space-Time introspecção , um prestador de serviços de análise de dados. "E não é apenas chegando rápido, mas também muitas vezes é sujo, ea maioria das empresas não estão necessariamente orientadas para lidar com isso. Então analytics são muitas vezes obrigados a limpar os dados antes mesmo de decidir o que fazer com ele."
Os ativos da Internet das Coisas são analisados e visualizados para uma série de condições, tais como excesso de velocidade, condução off-road, falha potencial ou ociosidade
Antes da atual redução de custo de sensores em rede, as empresas do setor industrial armazenavam dados baseados de tempo relativos às máquinas ou processos no que chamavam de bases de dados históricos operacionais. As aplicações então analisavam esses dados armazenados para gerar métricas.
"Há uma década, os clientes com grande volume de dados que usam uma abordagem de armazenamento de dados buscam a reutilização dos dados de transações, por exemplo", diz Chad Meley, vice-presidente de arquitetura unificada de dados da Teradata, provedora de serviços de análise de dados.
Com o tempo, essas aplicações evoluíram para o que chamamos de plataformas de processamento de eventos complexos. Então, como o volume de dados cresceu, as empresas perceberam que analisar como estavam coletando dados resultava no surgimento de ferramentas avançadas para análise de streaming de dados. Este tipo de software executa três funções importantes: a análise de uma grande variedade de tipos de dados e eventos (um sistema podia consumir dados de uma ampla variedade de sensores, com detecção de qualquer coisa, desde a temperatura à vibração e à luz), a análise de possibilidades, com base no histórico, e comparação dos dados com os modelos para detectar anomalias.
"Normalmente, os eventos, como leituras de sensores são agrupados e agregados em uma janela com base no tempo ou no número de eventos", explica Fern Halper, diretor de análises avançadas e pesquisa da empresa TDWI. Os filtros são usados para localizar somente os dados relevantes a partir do fluxo e puxar essa informação para as janelas que estão abertas apenas por um determinado período de tempo. E, como os dados são compilados, o software executa cálculos. "Em processamento de eventos complexos, você faria coisas como subtotais ou médias de dados. Você pode querer controlar a temperatura, digamos, a cada 10 segundos. O software captura uma janela de dados de temperatura e calcula a média. E com cada janela, o software decide se um alarme deve ser soado, com base em limites de temperatura definidos".
O volume total dos dados é elevado e está em streaming em um ritmo rápido, então, o que o software de análise de streaming de dados tem de mais valioso é encontrar pistas que os dados detém. "99% dos dados mostram que o sistema está funcionando como deveria", diz Meley, "mas, de vez em quando, vamos ver que algo está girando rápido demais ou ficando muito quente".

Nenhum comentário:

Postar um comentário