Grupo Binario Posts

6 motivos para usar o SD-Wan gerenciado

Você pergunta-se quais motivos para usar o SD-Wan? As tecnologias de computação em nuvem trouxeram empresas de todos os tamanhos à linha de frente da maior revolução tecnológica até o momento. As soluções em nuvem estão no caminho certo para alterar completamente a TI corporativa e interromper a maneira como as organizações fazem negócios.

Como resultado da mudança para o modelo “como um serviço”, ou “as a service”, o desempenho do aplicativo teve um impacto direto na produtividade dos negócios. Consequentemente, os CIOs perceberam que as redes tradicionais não são preparadas para lidar com a mudança para a nuvem. Assim, a conectividade de rede também sofreu uma transformação.

Principais motivos para usar o SD-Wan gerenciado

Para acompanhar as demandas que a computação em nuvem colocou na rede, a WAN definida por software (SD-Wan) surgiu para otimizar as conexões de rede herdadas. Agora, os CIOs estão perguntando os motivos para usar o SD-Wan. Existem várias razões, vamos explorar.

1. O SD-Wan dispensa o uso de hardware

O primeiro dos motivos para usar SD-Wan é que sua tecnologia não utiliza hardwares dedicados para o funcionamento da rede, como roteadores. O custo estrutural é consideravelmente menor. Principalmente se levarmos em conta que não há a necessidade de pontos de conexão internos em cada um dos locais de acesso, como filiais regionais, estaduais e multinacionais.

>>> Veja também: Wi-fi 6 está chegando: saiba tudo sobre ele.

2. Menor custo de manutenção

Por não ter o acesso concedido e configurado presencialmente, não há a necessidade de equipes técnicas em cada um dos pontos de acesso. Toda a configuração é feita de forma remota de um único centro de gerenciamento, reduzindo não somente os custos iniciais de aquisição de hardwares como a do deslocamento para configuração in-loco.

3. Velocidade de instalação e disponibilização

Quando se trata de conexões físicas, com cabos, servidores e roteadores, existe a necessidade de múltiplas instalações, além da contratação de serviços em nuvem. Inicialmente se dá o processo de configuração interna de cada ponto de acesso e em seguida a sincronização com o servidor fornecido.

No caso de SD-Wan gerenciado, o processo se dá de forma simples e rápida. Isso possibilita a configuração e a disponibilidade de acesso quase que instantaneamente sem os custos de deslocamento e instalações locais.

4. Suporte para diferentes tipos de conexão

O SD-Wan gerenciado oferece suporte a diversos tipos de conexão à internet, desde o 3G/4G/5G à conexão via cabo. Dessa forma, cada terminal pode escolher a forma que mais atende no quesito custo benefício.

Além disso, com a gestão feita de forma centralizada, é possível corrigir erros de latência de rede e traçar rotas de conexão que mais atendam cada acesso.

>>> Veja também: 6 vantagens na adoção da SD-WAN para a sua empresa.

5. Segurança

Outro dos motivos para usar o SD-Wan é que ele permite à central de controle a integração entre sistemas e protocolos de segurança, com regras de firewall distintas, IPS e ATP personalizadas.

Além disso, o tráfego de banda é inspecionado e pode ser criptografado, protegendo as informações trocadas entre usuários do mesmo servidor utilizando a mesma linha de segurança, e as solicitações de acesso são analisadas e avaliadas por meio de inspeção SSL.

6. Gestão centralizada

Como mencionado nos motivos para usar o SD-Wan, toda a disponibilização e gestão de acesso, bem como a segurança de dados são realizados por uma única interface centralizada.

O provedor do serviço SD-Wan fornece o ambiente de trabalho a ser utilizado e todo o suporte aos usuários, sem a necessidade de presença física de técnicos e com um custo consideravelmente menor de investimento físico.

Os serviços dispõem das técnicas e procedimentos mais modernos de automação, que são atualizados constantemente de acordo com a experiência dos usuários. Essas atualizações tornam o acesso cada vez mais personalizado e diminui a quantidade de erros de conexão, acessos, perdas de informações e latência de banda.

A mudança para a nuvem é algo que as empresas precisam considerar para se manterem competitivas. Com os benefícios da computação em nuvem superando os custos para a maioria dos setores, a migração é inevitável.

Com isso em mente, o papel da SD-Wan em TI continuará crescendo, e cabe aos CIOs garantir que eles preparem suas organizações totalmente para a transição para os serviços baseados em nuvem.

Gostou do nosso artigo sobre os motivos para usar o SD-Wan? Venha conhecer também sobre segurança anti DDoS e fique por dentro das novidades que podem tornar seu negócio mais ágil, prático e seguro!

Data literacy: skill fundamental do século 21

Quem lida com TI todos os dias provavelmente já ouviu o ditado “os dados são o novo petróleo”.  E não é para menos: segundo dados da ABES (Associação Brasileira das Empresas de Software) com a IDC, até o fim deste ano espera-se que o investimento em soluções de Big Data e Business Intelligence no Brasil alcance R$ 16,8 bilhões. Diante disso, surgiu uma nova skill fundamental: data literacy.

Dados são tão úteis quanto a interpretação que fazemos deles. Por isso, tão importante quanto investir na coleta de informações, é investir na habilidade de entender o que elas nos dizem, ou Data Literacy.

O Data Literacy será uma das principais habilidades do profissional do século XXI. Para te mostrar, abaixo explicamos qual será seu papel na TI do futuro e porque você deve começar a investir nessa habilidade agora mesmo!

O que é Data Literacy?

O Gartner define o Data Literacy como a capacidade de ler, escrever e comunicar dados em contexto, incluindo uma compreensão das fontes e construções de dados, métodos analíticos e técnicas aplicadas — além da capacidade de descrever o caso de uso, aplicação e valor resultante.

A capacidade de entender e se comunicar em uma linguagem de dados comum é uma habilidade essencial para a TI moderna. É a diferença entre obter valor com sucesso de dados e análises e perder para concorrentes que a tornaram uma competência essencial em suas organizações.

Além disso, o Data Literacy é um componente subjacente da destreza digital, que é a capacidade e o desejo de um funcionário de usar a tecnologia existente e emergente para gerar melhores resultados de negócios — outra habilidade importante para os negócios digitais.

Por que Data Literacy é importante?

Da mesma forma que a alfabetização foi importante para a evolução humana, o Data Literacy será para que sua empresa permaneça relevante nas próximas décadas. Enquanto a maioria das empresas ainda está tentando descobrir como entender seus dados, uma nova geração de empresas focadas em dados está surgindo ao nosso redor.

Essa nova geração vai além de apenas registrar transações ou até recomendar novos produtos. Elas usam dados para prever e influenciar a próxima ação dos seus clientes. Simplificando, os dados são a chave para proteger seus negócios no futuro.

Esse nível de dependência de dados exige que todos na organização tenham conhecimento de dados. Essa habilidade é necessária para apoiar não apenas a tomada de decisão baseada em fatos, mas também para permitir que os usuários explorem e experimentem dados para descobrir oportunidades futuras.

A grande chave aqui é que o Data Literacy não é uma habilidade importante apenas para cientistas de dados e especialistas em tecnologia, mas é essencial para todos dentro da organização.

Nem todos os trabalhamos exigem habilidades excepcionais com dados, mas é necessário que todos os funcionários tenham conhecimentos de dados para participar e contribuir com a nova economia.

Como iniciar uma cultura baseada em dados?

A maioria dos funcionários, no entanto, provavelmente não pensa em termos de dados, o que apresenta outro desafio: como iniciar uma cultura baseada em Data Literacy na sua empresa?

1. Os funcionários precisam saber o que é Data Literacy

Tornar-se alfabetizado em qualquer nova língua é um desafio — especialmente quando as pessoas ainda não sabem que ela existe.

Provavelmente, a maioria de seus funcionários nem sabe que o Data Literacy é um conceito. Portanto, se você quiser que eles usem seu software de BI, primeiro você precisará introduzir a alfabetização em dados e explicar por que isso é importante.

E não basta introduzir o conceito uma vez — é preciso fazer isso repetidamente. Uma vez que aprender a falar (e pensar) os dados é uma grande mudança, uma introdução provavelmente não será suficiente. Eles podem esquecer a princípio, e isso é natural.

2. Os funcionários precisam falar dados

Uma vez que os funcionários saibam o que é alfabetização de dados, eles precisam aprender a “falar” os dados. O Gartner, sugere que você se aproxime de aprender a falar dados da mesma maneira que faria com qualquer idioma estrangeiro e até se refere ao processo como ISL, ou informação como segunda língua.

Descubra quais são as barreiras de idioma para falar dados: se as pessoas de negócios e de TI não falam o mesmo idioma, isso é uma barreira (ou “lacuna de interpretação”, como também é chamado). Existem várias maneiras de romper as barreiras da linguagem:

  • Mantenha um glossário de termos comuns.
  • Certifique-se de que os executivos C-level falem dados para que possam dar um exemplo.
  • Certifique-se de que suas metas de negócios sejam expressas em linguagem acionável.

3. Os funcionários precisam falar os dados uns aos outros

A prática leva à perfeição, então fale os dados regularmente até que se torne um hábito. As melhores empresas orientadas a dados concentram-se conscientemente nesse objetivo. Elas não falam apenas dados, mas interagem em termos de dados.

Essas empresas usam os dados como uma maneira de construir a confiança entre as equipes, apresentando evidências e mantendo os olhos abertos para problemas como o viés de confirmação.

Ao mesmo tempo em que você aprende termos como “viés de confirmação” e “filtragem cognitiva”, pode pensar em exemplos disso em seu próprio trabalho e estar alerta contra esses maus hábitos.

Siga o exemplo de clubes de conversação em idiomas estrangeiros. Da mesma forma que esses clubes se reúnem uma vez por semana para praticar alemão ou francês, junte um grupo para encontros semanais ou mensais onde você fala dados: com quais dados você está trabalhando, como eles interagem com os dados de outros departamentos, e quais dados você deseja ter.

A expectativa é de que a geração de linguagem natural e a inteligência artificial se tornarão uma característica padrão das modernas plataformas de BI. Para tomar melhores decisões que impulsionam o sucesso, agora precisamos nos tornar alfabetizados em dados.

Se quisermos capacitar todos, de marketing e vendas a compras e finanças, a usar dados e tomar suas próprias decisões mais inteligentes, o Data Literacy da empresa deve ser uma prioridade.

Gostou de conhecer o Data Literacy? Quer continuar aprendendo a como usar os dados a favor do negócio? Assine nossa newsletter e receba muito mais dicas como essa!

IPv6: conexões mais rápidas, dados melhores

Os terríveis avisos sobre a falta de endereços na internet estão acabando porque, devagar mas caminhando, a migração do mundo do IPv4 para o IPv6 já começou e há um software pronto para evitar o apocalipse de endereços que muitos estavam prevendo.

Ainda não sabe bem o que isso tem a ver com você e sua empresa? Vamos voltar aos primórdios do endereçamento na internet e ver porque você deve se importar com o IPv6!

O que é IPv6 e por que é importante?

O IPv6 é a versão mais recente do Internet Protocol, que identifica dispositivos na internet para que possam ser localizados.

Todos os dispositivos que usam a internet são identificados por meio de seu próprio endereço IP para que a comunicação pela rede funcione. Funciona exatamente como os endereços e CEPs que você precisa saber para enviar uma carta.

A versão anterior, IPv4, usa um esquema de endereçamento de 32 bits para suportar 4,3 bilhões de dispositivos, o que foi considerado suficiente à época. No entanto, o crescimento da internet, dos computadores pessoais, dos smartphones e, agora, dos dispositivos da Internet das Coisas, provaram que o mundo precisava de mais endereços.

Felizmente, a IETF (Internet Engineering Task Force) reconheceu isso há 20 anos. Em 1998, criou o IPv6, que usa endereçamento de 128 bits para suportar aproximadamente 340 trilhões de trilhões (ou 2 elevado à 128ª potência, se preferir).

Em vez do método de endereço IPv4 de quatro conjuntos de números de um a três dígitos, o IPv6 usa oito grupos de quatro dígitos hexadecimais, separados por dois-pontos.

Quais são os benefícios do IPv6?

Em seu trabalho, o IETF incluiu melhorias comparado ao IPv4. O protocolo IPv6 pode manipular pacotes de maneira mais eficiente, melhorar o desempenho e aumentar a segurança. Ele permite que provedores de serviços de internet reduzam o tamanho de suas tabelas de roteamento, tornando-os mais hierárquicos.

Se a sua organização oferece um site público ou aplicativos da internet ou aplicativos móveis, é provável que o site funcione mais rápido ao usar IPv6 do que o IPv4. Isso se deve em parte à proliferação de conversão de endereços de rede (NAT) por provedores de serviços para conectividade com a Internet IPv4.

Como funciona a conversão de endereços de rede (NAT)?

A adoção do IPv6 foi atrasada em parte devido à conversão de endereços de rede (NAT — network-address translation), que pega endereços IP privados e os transforma em endereços IP públicos. Dessa forma, uma máquina corporativa com um endereço IP privado pode enviar e receber pacotes de máquinas localizadas fora da rede privada que tenham endereços IP públicos.

Sem o NAT, grandes corporações com milhares ou dezenas de milhares de computadores devorariam enormes quantidades de endereços IPv4 públicos se quisessem se comunicar com o mundo exterior. Mas esses endereços IPv4 são limitados e estão quase esgotados a ponto de terem que ser racionados.

O NAT ajuda a aliviar o problema. Com ele, milhares de computadores endereçados privativamente podem ser apresentados à internet pública por uma máquina NAT, como um firewall ou roteador.

Quando um computador corporativo com um endereço IP privado envia um pacote para um endereço IP público fora da rede corporativa, ele primeiro vai para o dispositivo NAT. O NAT observa os endereços de origem e destino do pacote em uma tabela de conversão.

Então, o NAT altera o endereço de origem do pacote para o endereço público do dispositivo NAT e o envia para o destino externo. Quando um pacote responde, o NAT traduz o endereço de destino para o endereço IP privado do computador que iniciou a comunicação. Isso pode ser feito para que um único endereço IP público possa representar vários computadores de endereçamento particular.

Quem está implantando o IPv6?

As redes de operadoras e os ISPs foram o primeiro grupo a começar a implantar o IPv6 em suas redes, com as redes móveis liderando a carga. Por exemplo, a T-Mobile USA, operadora de rede sem fio tem mais de 90% do seu tráfego passando pelo IPv6, com a Verizon Wireless logo atrás, com 82,25%.

As empresas estão em fase de implantação, com um quarto delas anunciando prefixos IPv6, de acordo com o relatório “State of IPv6 Deployment 2018” da Internet Society. Complexidade, custos e tempo necessários para completar são todos os motivos indicados.

Dispositivos conectados estão preparados para desempenhar um papel maior em nossas vidas. Com os usuários móveis continuando a crescer, com a ascensão da Internet das Coisas, os pesquisadores preveem que bilhões de dispositivos estarão conectados à internet nos próximos anos.

Embora a implantação do IPv6 tenha sido lenta, mais e mais organizações estão percebendo que a decisão de fazer a transição para o IPv6 não é mais uma opção, mas uma realidade necessária.

Gostou de aprender como o IPv6 garante conexões mais rápidas e dados melhores? Assine nossa newsletter e receba mais dicas como essa diretamente no seu e-mail!

Como a Edge Computing está transformando o mundo

edge computing

Você está pronto para viver no limite? É o que a Edge Computing está sugerindo ao mundo da Tecnologia da Informação.

O estado da tecnologia é tão avançado em comparação ao que foi há apenas meio século que parece que os engenheiros encontraram respostas para os desafios mais profundos apresentados pela própria natureza.

A velocidade da comunicação está além da expressão e imaginação dos humanos. No entanto, as pessoas que realmente trabalham com TI, rede e computação de nuvem sabem bem que ainda há um caminho a percorrer.

Os problemas na velocidade de comunicação

A arquitetura tradicional de datacenter é baseada sobre centrais de computação, de onde as informações são enviadas e recebidas através de redes globalmente espalhadas. Aqui, quanto maior a distância entre o endpoint e o datacenter, maior o tempo de resposta.

Em muitas aplicações, esse intervalo de tempo incrementalmente maior é irrelevante. No entanto, em muitos outras, ele faz toda diferença.

Exemplos? Claro, aqui estão alguns.

  • Experiências de realidade virtual (VR) e realidade aumentada (AR) são mais satisfatórias quando a computação necessária para renderizar o conteúdo é realizada perto o suficiente dos dispositivos AR e VR.
  • Veículos autônomos exigem feedback em tempo real de redes externas para fazer correções de rumo e evitar colisões.
  • Em IoT, muitas ações analíticas precisam ser realizadas fechadas para os dispositivos que geram os dados de origem.
  • O conteúdo de vídeo em alta definição, se armazenado em cache mais perto de grandes concentrações de pessoas que provavelmente o acessam, significa que os provedores podem evitar grandes custos de transmissão em redes provisionadas por operadoras terceirizadas.

O que é a Edge Computing

Um método de otimização de sistemas de computação em nuvem, executando o processamento de dados na borda da rede, próximo à origem dos dados. Esta é a Edge Computing. Ela reduz a largura de banda de comunicações necessária entre os dispositivos e o datacenter central, realizando análises e geração de conhecimento na fonte de dados ou próximo delas.

Fazendo essa computação mais próxima da borda da rede, as empresas podem processar dados e analisá-los dinamicamente em tempo real. Essa análise de dados quase em tempo real está sendo aproveitada por muitos setores de assistência médica, financeiro e de telecomunicações, e terá um papel vital em fazer com que tomem decisões de negócios muito mais informadas.

Porque a Edge Computing é a resposta

Bem, a Edge Computing, ou computação de borda, tem a ver com a obtenção de distribuição geográfica para que o poder de computação possa ser levado para mais perto dos endpoints que mais precisam.

Por isso, em vez de depender de uma dúzia de datacenters gigantes, a computação de borda permite que a nuvem se aproxime de lugares/pessoas/dispositivos, para reduzir os tempos de resposta em algumas centenas de microssegundos.

Mas porque a computação de borda é tão importante? Antes de respondermos, algumas estatísticas:

  • Até 2020, espera-se que haja mais de 5.600 milhões de sensores inteligentes e dispositivos IoT conectados em todo o mundo.
  • Os dados gerados por esses dispositivos serão da ordem de 5.000 zettabytes.
  • O tamanho do mercado de IoT deverá atingir US $ 724 bilhões até o final de 2023.

A maioria desses dados será gerada em endpoints corporativos localizados na “borda” — como sensores, máquinas, smartphones, dispositivos vestíveis etc. Consideramos eles localizados na “borda” porque eles estão distantes do datacenter central da empresa.

Esses dados massivos não conseguem ser simplesmente transmitidos para o servidor central porque podem facilmente sobrecarregar toda a rede. Isso exige que as empresas implementem a Edge Computing para que os dados não precisem ser transportados para datacenters corporativos.

Em vez disso, eles são usados para análises operacionais avançadas nas instalações remotas, permitindo que gerentes de sites e indivíduos atuem em tempo real sobre as informações disponíveis.

Como a TI global está se ajustando à filosofia de borda?

Qualquer tecnologia que possa ajudar a resolver problemas de latência também pode ajudar com problemas de largura de banda. As empresas entendem que não podem enfatizar sua largura de banda. Principalmente em casos de uso em que todos ganham para executar cálculos próximos a endpoints em vez de no servidor central.

Gigantes da tecnologia — Apple, Google, Amazon e outros — parecem ter muito foco na execução de IA em dispositivos de usuários finais em vez de na nuvem. Há rumores de que a Amazon está trabalhando na criação de chips de Inteligência Artificial que serão integrados aos dispositivos Echo. Isso irá reduzir sua dependência da nuvem e fornecendo resultados de pesquisa de voz mais rápidos.

O Google está tentando arduamente melhorar os sites usando os mesmos princípios da computação de borda. Aplicativos da Web Progressivos são um bom exemplo, com funcionalidades offline. O Google Clips é outro exemplo em que os dados são mantidos locais e a IA chega ao seu dispositivo, em vez de os dados terem que ir para um servidor onde a magia da IA ocorre.

A Edge Computing já está mostrando um crescimento rápido sem sinais de desaceleração. Isso significa que é hora de o setor de TI antecipar sua acomodação agora.

E você, o que achou da novidade? Ficou com alguma dúvida sobre a Edge Computing? Comente abaixo e compartilhe suas questões e ideias conosco!

O que é IP Spoofing e como se proteger dele

IP SpoofingO IP Spoofing é um tipo de ataque em que os criminosos tentam usar um dispositivo ou rede para enganar redes de computadores corporativas, mascarando-se como um usuário legítimo.

O objetivo é obter acesso à rede da empresa para extrair dados confidenciais, causar um ataque DDoS ou transformar dispositivos em zumbis (computadores tomados para uso malicioso).

O nome spoofing vem do inglês que significa falsificação, e é exatamente isso que o ataque faz: cria IPs falsos para que o acesso à sua rede seja reconhecido como verdadeiro e passe pela sua segurança.

Mas como exatamente o IP Spoofing funciona e o que você precisa saber para se prevenir? Continue lendo conosco e descubra mais!

Como o IP Spoofing funciona?

Os dados transmitidos pela Internet são primeiro divididos em vários pacotes, e esses pacotes são transmitidos de forma independente e remontados no final. Cada pacote tem um cabeçalho IP (protocolo) que contém informações sobre o pacote, incluindo o endereço IP de origem e o endereço IP de destino.

No IP Spoofing, um hacker usa ferramentas para modificar o endereço de origem no cabeçalho do pacote para fazer o sistema do computador receptor pensar que o pacote é de uma fonte confiável, como outro computador em uma rede legítima, e aceitá-lo. Como isso ocorre no nível da rede, não há sinais externos de adulteração.

Existem três variedades mais comuns de IP Spoofing:

  • Ataques de negação de serviço (DDoS): em um ataque DDoS, os hackers usam endereços IP falsificados para sobrecarregar os servidores com pacotes de dados, desligando-os. Redes de bots dispersas geograficamente são frequentemente usadas para enviar os pacotes. Cada botnet contém potencialmente dezenas de milhares de computadores capazes de falsificar vários endereços IP de origem. Como resultado, o ataque automatizado é difícil de rastrear.
  • Ataque man-in-the-middle: usado para interromper a comunicação entre dois computadores, alterar os pacotes e, em seguida, transmiti-los sem o conhecimento do remetente ou destinatário original. Com o tempo, os hackers coletam uma grande quantidade de informações confidenciais que podem usar ou vender.
  • Ignorar a autenticação de endereços IP: aqueles que estão fora da rede são considerados ameaças, e aqueles dentro são confiáveis. Uma vez que um hacker rompe a rede e a acessa, é fácil explorar o sistema. Considerando essa vulnerabilidade, o uso de autenticação simples como estratégia de defesa está sendo substituído por abordagens de segurança mais robustas, como aquelas com autenticação em várias etapas.

Como se proteger contra o IP Spoofing?

A maioria das estratégias usadas para evitar o IP Spoofing deve ser desenvolvida e implantada por especialistas de TI. As opções para proteção contra falsificação de IP incluem:

  • Implantação de filtragem de pacotes para detectar inconsistências (como pacotes de saída com endereços IP de origem que não correspondem aos da rede da organização).
  • Uso de autenticação baseada na troca de chaves entre as máquinas na sua rede; algo como o IPsec reduzirá significativamente o risco de spoofing.
  • Uso de uma lista de controle de acesso para negar endereços IP privados em sua interface downstream.
  • Configuração dos seus roteadores e switches, se eles suportarem, para rejeitar pacotes originados de fora de sua rede local que se dizem originários de dentro.
  • Ativação das sessões de criptografia em seu roteador para que os hosts confiáveis que estão fora de sua rede possam se comunicar com segurança com seus hosts locais.
  • Utilização de autenticação de dois ou mais fatores.

Colocar pelo menos uma parte dos recursos de computação por trás de um firewall também é uma boa ideia. Além disso, os web designers são encorajados a migrar sites para o IPv6, o mais novo protocolo da Internet. Isso dificulta a falsificação de IP, incluindo etapas de criptografia e autenticação. A maior parte do tráfego de internet do mundo ainda usa o protocolo anterior, o IPv4.

Durante décadas, o problema de IP Spoofing manteve ocupados administradores de segurança e especialistas no setor de computadores. Em particular, a simplicidade dos ataques faz com que a manipulação de IP como um método ainda seja interessante para os criminosos de hoje. Por causa disso, é necessário se prevenir e aplicar métodos de proteção para evitar problemas.

Gostou do nosso artigo? Que tal nos seguir no Facebook ou no LinkedIn e acompanhar de perto todas as nossas dicas para manter sua rede mais segura? Comece a seguir agora mesmo!

Dark Analytics: o que é e por que ele é importante?

dark analytics

Hoje, as empresas que não adotaram tecnologias digitais estão fadadas a perder sua relevância no mercado competitivo. Percebendo esse fato, vemos quase todas as organizações embarcando em sua jornada de transformação digital. E a análise de dados (onde está incluído o Dark Analytics) possui um grande papel nessa jornada.

Isso por que o elemento que decide o sucesso das organizações nessa iniciativa são os dados. É por isso que elas se esforçam para reunir uma quantidade volumosa de informações de várias fontes. Infelizmente, os dados que eles acumulam nem sempre estão na forma estruturada.

Mesmo que compreendam a importância dos dados, muitas empresas não aproveitam ao máximo os dados que coletam. A triste verdade é que, do total de dados coletados, elas usam apenas 10%. Os 90% restantes não são utilizados ou analisados.

O Gartner define dark data (ou, em uma tradução livre, dados obscuros) como “dados que as organizações coletam, processam e armazenam durante atividades comerciais regulares, mas geralmente não usam para outros propósitos”.

Agora surge a pergunta: o que dados os dados escuros contêm? Bem, eles podem incluir informações vitais, como e-mail, arquivos de log, arquivos ZIP, vídeos, imagens e outros itens. É inegável que esses itens têm o potencial de liberar informações relevantes e valiosas se analisados de forma apropriada.  Aqui é onde entra o conceito de Dark Analytics.

Por que os dados se tornam “obscuros”?

A primeira e principal razão para os dados não serem usados ​​adequadamente é a falta de visibilidade. Existem sistemas díspares dos quais as empresas coletam os dados e os funcionários que os utilizam podem não ter uma compreensão da importância ou de como fazer sua análise. Essa questão de transparência pode ser um grande obstáculo para as empresas que lutam para usar os dados no seu máximo.

>>> Veja também: Data Literacy: por que ele é importante para a sua empresa?

Outra razão para os dados ficarem escuros pode ser que as organizações não saibam como usar dados não estruturados. As empresas podem não ter acesso adequado às ferramentas de integração e análise de dados, o que prejudica as suas iniciativas de transformação digital.

Quais são os benefícios do Dark Analytics?

Sem dúvidas, o Dark Analytics permite que as empresas obtenham mais ROI, mas como? Vamos dar uma rápida olhada nos principais benefícios que as organizações testemunharão se usarem seus dados obscuros ao máximo.

Inteligência de negócios

O Dark Analytics pode ajudar as organizações a descobrir tendências mais profundas, entender as expectativas dos clientes e tomar decisões estratégicas. Um exemplo potencial é o registro de chamadas de feedback do cliente.

Os detalhes da chamada podem incluir informações vitais, que variam de comentários sobre produtos, geolocalização ou preferências do cliente. Todos esses dados podem ser úteis para as empresas observarem padrões de engajamento do cliente e como melhorar seus serviços.

Espaço de armazenamento

A migração para a nuvem está crescendo pelos seus diversos benefícios, especialmente a redução de custos. Mas enquanto a mudança do armazenamento de dados local para a cloud traz economias com os gastos de armazenamento, guardar os dados ainda custa dinheiro às empresas.

Embora a nuvem seja elástica e talvez a melhor opção para garantir a segurança dos dados, as empresas precisam gastar dinheiro para armazenar os dados que coletam. Além disso, como as organizações analisam apenas 10% dos dados, isso significa que os dados restantes estão consumindo espaço sem efetivamente trazerem valor.

Ao aproveitar ao máximo os dados acumulados, as organizações podem não apenas corrigir o problema do espaço de armazenamento, mas também promover economia financeira.

Segurança de dados

Quanto mais organizações coletarem e armazenarem, mais elas terão que cuidar de sua segurança. Como dados obscuros são considerados dados inúteis pela maioria das organizações, há grandes chances delas não aplicarem controles rígidos de segurança a eles.

Os dados que parecem sem importância para a empresa podem ser interessantes para os hackers. E há chance de que os criminosos executem suas atividades, roubando os dados obscuros e colocando as organizações em risco.

Por outro lado, se os dados coletados forem corretamente utilizados, as organizações reforçarão automaticamente os procedimentos de segurança. Esse passo permitirá que elas protejam seus ativos digitais contra o roubo de dados.

Leis de proteção de dados

Os dados obscuros podem causar problemas financeiros e legais se não forem bem tratados. Especialmente com a aprovação da LGPD (Lei Geral de Proteção de Dados) é importante que as empresas saibam que tipo de dados têm em seus armazenamentos e como os utilizam.

Além disso, elas precisam garantir que os dados pessoais de seus clientes estão armazenados de forma segura, protegidos contra violações externas. O Dark Analytics não só permite que as empresas tenham total controle sobre as informações que coletam e armazenam, como também assegura, como falamos, mais proteção a elas.

Em suma, neste mundo orientado por informação, os dados obscuros são o tesouro e o Dark Analytics é a maneira de desvendá-lo. Mas, antes de se aventurar nesse mundo, as organizações devem planejar uma estratégia eficaz que as ajude a transformar suas metas ou ideias em realidade, junto com as melhores práticas de Big Data.

Gostou de aprender sobre o Dark Analytics? Comente abaixo e compartilhe suas ideias conosco e com nossos demais leitores?

Wi-fi 6 está chegando: saiba tudo sobre ele

wi-fi 6

A Wi-Fi Alliance, organização encarregada de decidir, desenvolver e designar padrões Wi-Fi no mundo, causou uma pequena agitação no ano passado, quando anunciou uma mudança nas convenções de nomenclatura para o Wi-Fi. O esquema de nomenclatura complexo sai de cena para dar lugar ao Wi-Fi 6 (ou 802.11ax) como o padrão da próxima geração.

O novo esquema de nomeação também se aplica retroativamente à antiga tecnologia 802.11ac (Wi-Fi 5) e ao padrão 802.11n ainda mais antigo (Wi-Fi 4). Mas há mais para o Wi-Fi 6 do que uma nova convenção de nomenclatura, já que a próxima geração de Wi-Fi tem vários benefícios em comparação com as iterações anteriores.

O que é o Wi-Fi 6?

Na medida que os dispositivos se tornam mais complexos, as formas de se conectar à internet evoluem, acompanhando o ritmo de desenvolvimento.

Em outras palavras, o padrão Wi-Fi (especificações técnicas que os fabricantes usam para criar o sinal Wi-Fi e descrevê-lo nos dispositivos que o tornam possível, como roteadores) é atualizado constantemente para que você tenha acesso a uma internet cada dia melhor.

Cada atualização, ou padrão, era identificado por uma nomenclatura técnica. Contudo, nem todo mundo entende essa nomenclatura. Ciente disso, a Wi-Fi Alliance anunciou uma nova maneira de rotular os padrões Wi-Fi e uma nova geração de padrão que está por vir: o Wi-Fi 6.

O Wi-Fi 6 é um novo padrão Wi-Fi, assim chamado para evitar confusão com os padrões mais antigos, que agora são designados da seguinte maneira:

  • 802.11b é agora Wi-Fi 1
  • 802.11a é agora Wi-Fi 2
  • 802.11g é agora Wi-Fi 3
  • 802.11n é agora Wi-Fi 4
  • 802.11ac é agora Wi-Fi 5
  • 802.11ax agora é Wi-Fi 6

O Wi-Fi 6 é baseado no novo padrão IEEE 802.11ax, então você pode ver os dois termos trocados. Ele ainda vai agir como o Wi-Fi que você conhece e ama agora, exceto com alguns benefícios adicionais, que descreveremos abaixo.

O que o padrão Wi-Fi 6 traz de novo?

Há muitas novas tecnologias Wi-Fi em ascensão e o Wi-Fi 6 ajuda a padronizá-las. Aqui estão as novidades importantes que o novo padrão traz e o que exatamente elas significam para sua rede sem fio.

1. Latência reduzida

O Wi-Fi 6 reduz a latência em comparação aos antigos padrões, o que significa que há menos ou nenhum atraso nos dados enviados. O novo padrão usa tecnologia mais avançada, como OFDMA (acesso múltiplo por divisão de frequência ortogonal) que, em palavras simples, é melhor em “embalar” dados em um sinal.

2. Mais velocidade

O Wi-Fi 6 também será mais rápido. Ele expande o suporte à tecnologia MU-MIMO lançada com o Wi-Fi 5, que permite que um rádio Wi-Fi forneça dados simultaneamente para vários dispositivos, em vez de de maneira rotativa. Em vez de lidar com quatro fluxos simultâneos, o Wi-Fi 6 aumenta o número para oito.

3. Menos zonas mortas

O Wi-Fi 6 também reduzirá o número de zonas mortas graças ao beamforming, o truque que seu roteador usa para focar os sinais em um determinado dispositivo, especialmente se parecer que ele está tendo problemas com uma conexão. O novo padrão expande a faixa de beamforming e melhora suas capacidades, tornando as zonas mortas ainda menos prováveis.

4. Maior duração de bateria

Graças à adição da trecnologia Travelling-Wave Tube (TWT) no Wi-Fi 6, todos os dispositivos conectados devem ver um consumo significativamente menor de bateria. Os dispositivos e roteadores compatíveis comunicarão os principais momentos de ativação e suspensão, o que significa menos tempo de funcionamento para um adaptador e menor consumo de bateria.

Por que atualizar seus roteadores?

Upgrades são sempre bem-vindos, mas você deve se perguntar por que precisará de um roteador Wi-Fi 6 em primeiro lugar. Segundo a Wi-Fi Alliance, o novo padrão é teoricamente capaz de velocidades de cerca de 9,6 Gbps.

Contudo, a maioria das pessoas não possui conexões de internet na casa dos gigabytes, portanto não faz sentido atualizar para o Wi-Fi 6 se você tiver uma conexão de 100Mbps ou menor.

Em um ambiente com muitos gadgets, como uma empresa privada, no entanto, a história é diferente. O Wi-Fi 6 ajudará a aliviar o congestionamento de todos os dispositivos e dar mais velocidade à navegação dentro da rede de computadores.

À medida que avançamos para a transmissão de vídeo de resolução mais alta, o desempenho de jogos exigente e mais dispositivos conectados, o Wi-Fi 6 será mais adequado para atender às nossas necessidades.

Gostou de aprender sobre o Wi-Fi 6? Siga o Grupo Binário no Facebook e no LinkedIn e fique de olho nas novidades do mundo digital!

Facebook anuncia sua criptomoeda para 2020

No último dia 18 de junho, foi anunciada a criação da Libra, moeda digital do Facebook que será lançada para uso em 2020 e permitirá que bilhões de usuários da plataforma em todo o mundo façam transações financeiras online.

A nova tecnologia ameaça mudar a paisagem do setor bancário e já é objeto de análise. Isso porque o Facebook enfrenta crescentes pedidos de regulamentação e medidas antitruste, que buscam punir práticas anticompetitivas.

Mas questões regulatórias à parte, em quanto tempo você poderá usar a nova moeda digital do Facebook para comprar café? Veja o que você precisa saber sobre o assunto!

O que é Libra, a moeda digital do Facebook?

O Facebook diz que a Libra é uma “moeda global e uma infraestrutura financeira”. Em outras palavras, é um ativo digital construído pelo Facebook e alimentado por uma nova versão do blockchain — tecnologia criptografada usada pelo bitcoin e outras criptomoedas — criada pelo Facebook.

O nome Libra vem da medida romana básica do peso. Em português, o nome pode causar certa confusão já que o termo Libra também é usado para descrever a moeda britânica. Mas vale lembrar que, em inglês, ela é conhecida como “Pound”.

Por que o Facebook está lançando uma criptomoeda?

O Facebook afirma que quer alcançar os 1,7 bilhão de pessoas em todo o mundo que não têm acesso a uma conta bancária.

A empresa deve se deparar com obstáculos regulatórios e preocupações antitruste, especialmente em uma época em que muitos reguladores querem acabar com o Facebook, mas nenhuma legislação específica foi apresentada antes do lançamento.

Em meio a rumores da nova expansão financeira do Facebook, membros do Senado dos EUA escreveram ao CEO Mark Zuckerberg em maio pedindo esclarecimentos sobre questões de privacidade.

Quem está encarregado da Libra?

A moeda digital do Facebook será controlada por um coletivo de empresas chamado “Associação Libra”. Funciona como o que é conhecido como “stablecoin”, atrelado a ativos existentes como o dólar ou o euro, com o objetivo de tornar a moeda digital menos sujeita à volatilidade que muitas outras criptomoedas experimentam.

A Associação Libra é descrita pelo Facebook como uma organização independente, sem fins lucrativos, com sede na Suíça. Ela serve duas funções principais: validar transações no blockchain de Libra, administrar a reserva em que a criptomoeda está vinculada e alocar fundos para causas sociais.

Dentro da Associação Libra, haverá um órgão governante chamado Conselho da Associação de Libra, composto por um representante de cada membro da associação, que votará em decisões políticas e operacionais.

O Facebook alega que, embora tenha criado a Associação Libra e a Libra Blockchain, uma vez que a moeda seja lançada em 2020, a empresa se retirará de um papel de liderança e todos os membros da associação terão votos iguais na governança sobre a criptomoeda.

Diversas organizações contribuíram com um mínimo de US$ 10 milhões para serem listadas como membros fundadores da Associação Libra, incluindo empresas de tecnologia como PayPal, Ebay, Spotify, Uber e Lyft, bem como empresas financeiras e de capital de risco como a Andreessen Horowitz., Visa e Mastercard.

Conteúdo relacionado: veja como funcionam as criptomoedas.

Como eu posso comprar Libras?

O Facebook não está entrando em detalhes sobre como a moeda estará disponível no lançamento, mas os sinais apontam para uma abordagem híbrida. A presença de empresas de pagamentos tradicionais, como Visa e MasterCard, na lista de fundadores sugere que a rede social ficará perfeitamente feliz em permitir que os usuários simplesmente comprem a moeda digital do Facebook.

Mas o Facebook também deve realizar o que é conhecido nos círculos de criptomoedas como uma “airdrop”, distribuindo pequenas quantias de moeda de graça em um esforço para impulsionar o ecossistema. Isso será crucial se a empresa quiser cumprir sua meta de levar serviços financeiros a pessoas sem contas bancárias.

Em última análise, é claro, esses usuários precisarão de uma fonte mais confiável de renda de Libra do que simples doações do Facebook. A longo prazo, também podemos esperar que alguns dos membros fundadores da Libra ofereçam aos seus funcionários todo ou parte de seu pagamento na moeda.

Como a Libra poderá ser usada?

Quando a moeda digital do Facebook for lançada, os usuários podem baixar o Calibra, uma carteira digital, que permite que eles enviem dinheiro para qualquer pessoa com um smartphone. Ele estará disponível no Messenger, no WhatsApp e como um aplicativo independente.

Não está claro em quais países a moeda será lançada primeiro, embora o Facebook afirme que “quase todo mundo” com um smartphone poderá fazer o download do aplicativo.

Além das transações no próprio aplicativo, o Facebook quer facilitar o uso da Libra em vários fornecedores para transações do dia a dia.

As empresas Uber e Lyft são os primeiros investidores no projeto, sugerindo que talvez os usuários possam pagar por serviços nos aplicativos com a Libra, embora nenhuma das empresas tenha anunciado nada oficialmente.

Enquanto ainda há muita especulação sobre como a Libra será regulada ou usada pelo cidadão comum, certamente podemos esperar muitas revoluções trazidas pelo seu lançamento.

Gostou de conhecer a moeda digital do Facebook? Deixe seu comentário abaixo e nos conte o que achou dessa novidade!

Alta disponibilidade: o que é e por que você precisa dela?

alta disponibilidade

Alcançar a continuidade dos negócios é uma grande preocupação para as organizações modernas. O tempo de inatividade pode causar impacto financeiro significativo e, em alguns casos, perda irrecuperável de dados. A solução para isso está na alta disponibilidade.

Como atualmente toda empresa é altamente dependente da sua rede de computadores, cada minuto conta. É por isso que é imperativo que os computadores e servidores da empresa permaneçam operacionais o tempo todo.

Se você optar por hospedar sua própria infraestrutura de TI ou por uma solução hospedada em um data center, a alta disponibilidade deve ser a primeira coisa a considerar ao configurar seu ambiente. Mas o que exatamente ela significa e quais seus benefícios? Vamos avaliar melhor abaixo!

O que significa alta disponibilidade?

A alta disponibilidade é uma característica essencial das infraestruturas TI e indica que os sistemas e redes podem garantir desempenho e SLA próximos a 100% ao longo do tempo. Isso é possível graças à presença de componentes tecnológicos completamente redundantes.

Em particular, a alta disponibilidade consiste em diferentes aspectos.

  • Tolerância a falhas: refere-se à capacidade de um sistema de não sofrer paralisação mesmo em caso de falhas.
  • Garantia do serviço prestado: os serviços devem estar sempre disponíveis, também se aplica à quebra de sistemas.
  • Segurança de dados: a integridade dos dados contidos na infraestrutura é garantida, e eles devem ser alcançados também no caso de mau funcionamento dos  processos ou falhas de funcionários.

Alta disponibilidade: o que significam os “cinco 9s”?

A alta disponibilidade fornece um método para as organizações se protegerem contra a perda de receita e outros resultados negativos causados ​​por uma interrupção do serviço. Com sistemas e infraestrutura projetados para o máximo de tempo de atividade, definidos como 99,999% ou os “cinco 9s”, os negócios reduzem seus riscos.

Essa é uma abordagem que usa componentes e métodos específicos para garantir o melhor desempenho possível do sistema, mesmo durante períodos de alto tráfego ou estresse.

Situações como falta de energia e falha de equipamento são inevitáveis ​​no mundo real, mas a alta disponibilidade fornece um meio para as empresas minimizarem as consequências negativas.

Qual a importância da alta disponibilidade?

Mesmo períodos curtos de tempo de inatividade podem causar prejuízos graves para sua empresa, incluindo falta de acesso a dados críticos e danos à reputação de sua marca. As perdas financeiras diretas podem ser significativas, mas a perda de confiança entre seus clientes cria barreiras de longo prazo para o sucesso e o crescimento.

O objetivo da arquitetura de alta disponibilidade é garantir que seu servidor, site ou aplicativo possa suportar diferentes cargas de demanda e distintos tipos de falhas com o menor tempo de inatividade possível. Usando as melhores práticas projetadas para garantir alta disponibilidade, você ajuda sua organização a obter produtividade e confiabilidade máximas.

Com uma estratégia de alta disponibilidade, você reduz os impactos negativos do tempo de inatividade e implementa a recuperação automática das falhas do sistema.

Quais características dos sistemas de alta disponibilidade?

Os sistemas de alta disponibilidade podem ser projetados e implementados de várias maneiras para melhor atender às suas necessidades comerciais específicas. No entanto, eles devem ser criados com certas práticas recomendadas em mente:

  • Aplicativos implantados em vários servidores para evitar a sobrecarga de qualquer máquina em tempos de alta carga.
  • Testes rigorosos de componentes e serviços para garantir a máxima disponibilidade, desempenho e segurança para evitar violações.
  • Alternação para recursos em espera, conforme necessário, no caso de falha de componente ou serviço.
  • Uso inteligente de componentes para garantir a máxima estabilidade e disponibilidade.
  • Redundância de sistemas e dados, por meio de múltiplas máquinas ou partições.

Os sistemas de alta disponibilidade também incluem estratégias abrangentes para backup e recuperação no caso de corrupção ou destruição de dados. Backups de dados completos, combinados com testes incrementais, garantem a integridade dos dados para evitar problemas com faturamento, autenticação do cliente e outros processos comerciais confidenciais.

O principal objetivo é eliminar pontos únicos de falha em seus sistemas e infra-estrutura, o que levaria à interrupção de suas operações ou serviços. A redundância — com métodos para detectar falhas e tomar ações corretivas — ajuda a manter seus sistemas funcionando com eficiência máxima.

Quando você implementa uma estratégia de alta disponibilidade em sua organização, reduz o risco de interrupções de serviço para a continuidade de seus negócios, lucros e reputação. Com serviços escaláveis ​​baseados em nuvem, você pode ter um sistema altamente disponível instalado e funcionando de maneira rápida e econômica.

Que nível de disponibilidade sua empresa possui atualmente? Já sofreu problemas com disponibilidade da sua rede antes? Comente abaixo e compartilhe suas experiências conosco!

IPSec ou SSL: qual é o melhor túnel VPN para a sua empresa

Considerando suas opções de túnel VPN? Antigamente, se uma filial remota precisava se conectar à rede de computadores da empresa, era preciso a instalação de linhas dedicadas — com banco de modens e uma linha telefônica para cada um deles. Para a época, era um tipo de conexão relativamente rápida e segura, mas também muito cara.

Com a internet, no entanto, isso mudou. Agora, não é preciso criar uma rede de modens conectados para permitir o acesso remoto à rede empresarial; a própria internet já faz esse papel. Contudo, esse processo não veio sem desafios.

A internet é uma rede aberta a qualquer pessoa do mundo. Então, ao usá-la para que funcionários possam acessar sua rede, como impedir que outros agentes externos também não consigam acessá-la? Foi para solucionar esse problema que surgiu o túnel VPN (Virtual Private Network).

O que é o túnel VPN?

VPN é exatamente o que o seu nome em inglês diz: uma rede virtual privada. Ele permite conciliar dois objetivos da empresa:

  1. permitir que usuários organizacionais acessem a rede da empresa remotamente pela internet;
  2. impedir que agentes externos não autorizados tenham o mesmo acesso.

A VPN cria um “túnel” — daí o termo túnel VPN — para conectar dois endpoints. Os dados que passam por esse túnel são criptografados para que apenas usuários autorizados tenham acesso às informações que trafegam por ele.

Não há dúvidas quanto aos benefícios do túnel VPN. Além de ser um item de rede necessário atualmente, com uma força de trabalho que é cada dia mais remota, a VPN estabelece uma conexão segura, protegendo os dados da empresa.

Contudo, uma das grandes dúvidas ao implementar uma VPN é em relação ao qual tipo instalar: IPSec ou SSL. Para te ajudar, explicamos como cada uma funciona a seguir.

Quer saber como aumentar a segurança na sua rede? Leia sobre a autenticação de dois fatores.

IPSec — Internet Protocol Security

As VPNs tradicionais utilizam o IPSec para fazer o encapsulamento entre dois endpoints. O IPsec é definido na camada IP e costuma ser usado para permitir acesso remoto seguro a uma rede inteira (em vez de apenas um único dispositivo).

Para acessar uma VPN IPSec, a estação de trabalho ou dispositivo em questão deve ter um aplicativo de software cliente IPSec instalado — o que pode ser tanto uma vantagem quanto uma desvantagem.

A vantagem é que o IPSec fornece uma camada extra de segurança, já que é preciso não apenas executar o software cliente VPN correto para se conectar à rede, mas também tê-lo configurado adequadamente. Um usuário não autorizado teria que superar esses dois obstáculos antes de obter acesso à rede empresarial.

O problema é que manter as licenças para o software pode gerar altos custos. Além disso, instalar e configurar o programa em todas as máquinas remotas, especialmente se elas não puderem estar no local fisicamente para isso, pode ser um problema.

SSL — Secure Sockets Layer

Enquanto uma VPN SSL também fornece a segurança de dados para evitar as mesmas preocupações que o IPSec, o SSL é especificamente projetado para aplicativos da web.

Ao contrário do IPSec, o SSL fornece controle de acesso granular de seus aplicativos e não requer a instalação de software cliente especializado para uso. Como resultado, também é normalmente considerada uma solução mais barata e mais simples de configurar e implementar.

Outra vantagem da SSL é que ele permite um controle de acesso mais preciso. Primeiro, o SSL fornece um túnel VPN para aplicativos específicos e não para toda a LAN corporativa. Segundo, é mais fácil fornecer diferentes direitos de acesso a diferentes usuários e ter um controle mais assertivo sobre o que é acessado como um todo.

Por outro lado, uma desvantagem do SSL é que o acesso do(s) aplicativo(s) é feito por meio de um navegador da web, o que significa que eles realmente funcionam apenas para aplicativos baseados na web. Isso significa que os usuários não têm acesso a recursos de rede como impressoras ou armazenamento centralizado, e não podem usar a VPN para compartilhamento ou backup de arquivos.

O SSL vem ganhando em prevalência e popularidade, no entanto, ele não é uma solução única para todos os casos. Da mesma forma, as VPNs IPSec também não são adequadas em qualquer situação.

É importante considerar cuidadosamente as necessidades de seus usuários remotos e avaliar os prós e contras de cada solução para determinar o que funciona melhor para sua empresa.

E você, qual solução VPN utiliza na sua empresa? Ficou com alguma dúvida? Deixe seu comentário abaixo e interaja conosco!