Tag Vertiv

O sucesso do seu negócio pode depender da Edge Computing – Por Robert Linsdell

O mundo tecnológico é repleto de buzzwords, tendências e ‘inovações disruptivas’. É tão fácil perder-se em novas terminologias que, às vezes, não tomamos conhecimento ou ignoramos alguma tecnologia que causa um real impacto no mundo.

Eu acredito que edge computing recai nessa categoria. Trata-se de um termo não exatamente novo, mas muitas pessoas da indústria ainda não têm consciência do seu significado e, certamente, da sua importância para os negócios.

Nós realizamos uma pesquisa em nossa base de clientes e parceiros em toda a região Ásia Pacífico e descobrimos que quase um terço dos entrevistados não tinha pleno conhecimento desta tecnologia. Quarenta por cento dos entrevistados têm uma compreensão abrangente da tecnologia, mas somente um terço efetivamente fez mudanças em sua infraestrutura para acomodá-la.

O Gartner também realizou uma pesquisa (Gartner, Hype Cycle for Emerging Technologies, 2017, 21 de julho de 2017, Mike J. Walker) sobre o tema. Segundo esse instituto de pesquisa, “A maior parte da tecnologia para data centers edge está prontamente disponível; ainda assim, a aplicação generalizada da topologia e arquiteturas explícitas de aplicação e rede ainda não são comuns. Segue sendo necessário que as plataformas de gerenciamento de sistemas e rede sejam ampliadas para incluir unidades edge e tecnologias específicas para a função edge, tais como data thinning, compressão e análise de vídeo”.

Neste artigo, analisamos exatamente o que é a periferia da rede e por que é importante que sua empresa tenha a estratégia correta para ela.

Então, de que se trata?

A extremidade (edge) representa pontos de entrada em redes corporativas ou de provedores de serviços. Tradicionalmente, isso incluía roteadores, switches, computadores desktop etc. Nos anos recentes, a periferia se expandiu; isso foi provocado, em parte, pela disseminação de tablets, laptops, smartphones, dispositivos vestíveis e outros.

Essa explosão, um sinal de nossa gradual transição para um futuro baseado em IoT, impulsionou a necessidade de ‘edge computing’, que definimos como o processo de deslocar o poder computacional do data center para as extremidades da rede, perto de onde todos esses dispositivos estão e para os quais a maioria dos dados está, agora, sendo criada.

Considere a maneira pela qual os dados são hoje criados e processados na periferia.

Uma loja de varejo que necessite de processamento de informações de clientes em tempo real; uma agência governamental que precise localizar dados por razões de segurança; sites de mining que necessitam de analytics em tempo real de dados capturados de um drone explorador ou de um dispositivo vestível usado por trabalhadores – particularmente críticos em casos de acidente. O quadro é cristalino: estamos desenvolvendo inovações digitais que são processadas na periferia da rede; portanto, necessitamos de alguma infraestrutura neste local, a periferia, para cuidar disso. Mais do que uma argumentação, trata-se de uma realidade premente. Implementar infraestrutura edge é vital para otimizar a maneira como a sua empresa usa a tecnologia.

Apoiando a maneira como usamos a tecnologia hoje

Agora, pense em como dependemos da tecnologia atualmente – não somente no local de trabalho, mas na vida cotidiana.

Nós usamos aplicativos para chamar um táxi, pedir alimentos, alugar nossas casas, verificar o clima, agendar feriados e quase tudo o mais. Temos pouca paciência quando esses serviços estão indisponíveis.

Essa dependência e a pouca paciência são levadas ao local de trabalho. Os funcionários – e, em particular, os funcionários mais jovens, da geração do milênio – querem uma experiência de usuário totalmente integrada em seu local de trabalho; querem que a tecnologia trabalhe para eles. Falhas, flutuações e latência estão simplesmente fora de questão.

As empresas responderam às novas exigências de um playground digital no local de trabalho por meio da proliferação dos dispositivos periféricos mencionados acima. Infelizmente há uma desconexão entre isso e a implementação da infraestrutura que precisa estar operante para apoiar esse modelo.

Se você implementa infraestrutura de edge, como um data center modular – um sistema limpo, plug-and-play, convergido – até as linhas de frente da sua empresa, as cargas de trabalho são processadas mais rapidamente e com latência mínima.

Isso significa videoconferências com áudio e vídeo sincronizados e uma experiência não arruinada por imagens pixelizadas e má qualidade de som. Isso é feito conectando o tablet ao servidor em milissegundos, não minutos. O resultado é uma melhor experiência geral do usuário (UX).

Ou seja: não faz mais sentido depender do data center, que pode estar a quilômetros de distância ou até ultrapassado, para gerenciar a periferia da rede. Uma abordagem multifacetada é necessária. Acima de tudo, a periferia está se tornando rapidamente a parte mais importante dessa abordagem.

Robert Linsdell lidera a divisão ANZ, da Vertiv.

Tags, , , , , , , , ,

Automóveis autônomos: a chave está no data center – Por Simon Blake

unnamed A disputa pelo mercado dos veículos autônomos envolve gigantes como Apple, Google e Tesla, além de todas as grandes montadoras de automóveis. A razão pela demanda é óbvia. A automação irá aumentar significativamente a segurança nas ruas e estradas – a tecnologia dos freios autônomos de emergência, por exemplo, contribui para reduzir acidentes. Outra vantagem é que o consumo de combustível será reduzido drasticamente. Sistemas autônomos são programados para frear e acelerar com o nível máximo de eficiência, uma inovação que, segundo a consultoria McKinsey, poderá reduzir as emissões de dióxido de carbono dos carros em até 300 milhões de toneladas por ano. Esta empresa aponta, também, os benefícios em produtividade que podem ser gerados por liberar os humanos da responsabilidade de dirigir. Com a adoção em massa dos carros autônomos, 1 bilhão de horas do dia serão economizadas pelas pessoas em todo o mundo. Somente no Reino Unido, a consultoria KPMG prevê que, em 2030, carros autônomos e conectados irão beneficiar a economia em até 51 bilhões de libras por ano.

Hoje os motoristas já conhecem os carros conectados. São os veículos que têm acesso à Internet e possuem uma variedade de sensores, sendo capazes de enviar e receber sinais, perceber o ambiente físico do seu entorno e interagir com outros veículos ou entidades. Segundo a consultoria PWC, prevê-se que as receitas de carros conectados disparem e atinjam mais de 155 bilhões de dólares até 2022.

Entretanto, quando falamos sobre carros autônomos, estamos falando sobre algo muito mais impactante.

O foco é em veículos que operam sem motorista humano – um conceito que, provocará uma revolução no volume gerado por dados automotivos. Se um único carro conectado gera hoje 25 GB de dados por hora, no futuro um carro autônomo tem a probabilidade de gerar uma quantidade dez vezes maior. Essas informações são importantes porque, na era dos veículos autônomos, é o binômio dado/conectividade que irá manter o mundo girando.

Vale a pena, portanto, investigar o impacto dos carros autônomos nos ambientes digitais. Tudo começa na miríade de sensores altamente sensíveis espalhados pelo veículo, dispositivos capazes de detectar perturbações tão leves quanto um cigarro caindo no chão. Esses sensores estarão a todo momento analisando os seus entornos em busca de sinais que acusem que os freios precisam ser acionados ou que é necessário acelerar o carro.

Veículos como esses têm embutidos computadores, receptores de GPS, dispositivos de rede wireless com acesso a sensores localizados no próprio carro e também acesso à Internet. Além disso, os carros autônomos interagem todo o tempo com redes wireless de sensores fora do carro: dispositivos implementados no entorno físico do automóvel.

Ou seja: os veículos autônomos estarão sincronizados com uma grande rede municipal, estadual ou federal que gerará dados sobre o ambiente e as vias locais (ruas, avenidas, estradas, pontes) do seu entorno. Essas redes instaladas fora dos carros monitoram congestionamentos na via, acidentes e potenciais perigos, etc.

O BigData do veículo autônomo vai além dos dados gerados pelo carro: o entorno também cria dados sobre os ambientes físicos por onde o carro trafega.

O veículo autônomo típico, dirigido cerca de 90 minutos por dia, gerará cerca de 4 terabytes de dados por dia. Alguns fabricantes de carros ainda em testes já estão gerando mais de um petabyte de dados por mês. Nesse contexto, data centers são essenciais para consolidar, gerenciar e analisar o imenso BigData gerado pelos veículos autônomos e por seu entorno. Essa realidade é um desafio para todos que pensam em transformação digital e na infraestrutura necessária para que esse avanço aconteça.

Para lidar com esta crescente demanda, a resiliência e disponibilidade da infraestrutura do data center serão cruciais. Os veículos autônomos precisam se manter conectados ao computador que gerencia seus dados. O mesmo vale para as ruas, avenidas e estradas por onde esse veículo trafegará.

Veja abaixo alguns vetores de transformação do data center na era do carro autônomo:

a) Colocation e Edge Computing serão essenciais. No mundo dos carros autônomos, a latência de dados é um grande perigo. No conceito de Edge Computing, os data centers deverão ser menores e mais espalhados, de maneira a estarem mais próximos dos locais onde os carros autônomos estarão trafegando. Uma outra forma de resolver esse desafio é investir em Colocation em data centers já existentes, de modo a montar uma infraestrutura distribuída de data centers, algo fundamental para garantir a conexão e a operação dos veículos autônomos.

b) O gerenciamento da infraestrutura do data center será crítico para o sucesso dos automóveis autônomos. A falha de um elemento do data center poderá provocar, em instantes, um engarrafamento de 10 carros. Isso torna a operação do data center mais crítica do que nunca. Neste contexto, é recomendável contar com soluções de gerenciamento de infraestrutura DCIM (Data center infrastructure management). Essas sofisticadas plataformas serão capazes, por exemplo, de equacionar as demandas de energia do data center que atua como retaguarda do carro autônomo. Além de trabalhar pela continuidade do processamento, as soluções DCIM buscam formas de otimizar e economizar no consumo de energia, demanda que aumentará de forma exponencial com a disseminação dos carros autônomos.

O mundo vive um momento de grande transformação. O potencial do automóvel autônomo é algo que chama a atenção de mercados, e vai definir o futuro. É bom lembrar, no entanto, que a chave para o automóvel autônomo está no data center.

Para saber mais sobre as mudanças que o carro autônomo trará ao mundo digital, por favor, acesse o link: https://www.vertivco.com/globalassets/documents/white-papers/vertiv_ebook_1_vr___autonomous___critical_pt_141545_0.pdf

Simon Blake é diretor de Marketing da Vertiv para a região que engloba Europa, Oriente Médio e África (EMEA).

Tags, , ,

Realidade Virtual e Realidade Aumentada: a reinvenção do data center – Por Tiago Khouri

image004

Na Sotheby’s International Realty, comprar uma ilha é uma experiência única graças às aplicações de Realidade Virtual (VR) que essa imobiliária de luxo já está utilizando. A meta é propiciar ao comprador bilionário uma imersão na nova propriedade – a forte sensação de realidade e de interatividade faz com que esse momento seja uma experiência impactante, com claro poder de gerar negócios.

Esse caso é só uma amostra do que ainda está por vir, pois os horizontes das aplicações de Realidade Virtual e Realidade Aumentada (AR) são muito amplos.

Conceitualmente, VR cria um mundo completamente virtual onde o usuário pode interagir com elementos desse cenário; AR, por outro lado, expande a sensação ao inserir, em cenas reais e locais que efetivamente existem, objetos virtuais criados digitalmente. O jogo Pokemon Go é a experiência AR mais difundida no mundo até agora.

Segundo pesquisas da Goldman Sachs, porém, o alcance dessas tecnologias irá muito além de jogos. Até 2025, a venda de imóveis, o varejo e o atendimento de serviços de saúde usarão pesadamente aplicações de VR/AR, em que imagens virtuais e objetos digitais criarão um mundo paralelo para o consumidor. O Gartner indica que antes disso, em 2020, 100 milhões de pessoas já estarão fazendo compras em aplicações VR/AR que projetam o efeito de uma maquiagem no rosto da consumidora, o caimento de uma roupa em seu corpo. Nesta mesma data, segundo o instituto de pesquisa BI Intelligence, o mercado global (aplicações, infraestrutura de software, hardware e telecomunicações) de VR/AR atingirá a marca dos US$ 162 bilhões.

É importante destacar, porém, que para mostrar seu valor, as soluções de VR/AR demandam profundas mudanças na infraestrutura de TIC, em especial nos data centers, o coração de todas as aplicações virtuais.

Aqui estão alguns dos pontos que estão levando os data centers a se reinventarem.

Enormes volumes de dados

Aplicações VR e AR necessitam de uma enorme quantidade de dados – proporcionar estas experiências através da rede irá representar um grande desafio. Estima-se que um vídeo de 6k de resolução rodando nos óculos GearVR pode representar um arquivo 20 vezes maior do que um vídeo full HD atual.

Para viabilizar isto, será necessário realizar investimentos significativos para modernizar as redes de banda larga. As empresas estão estudando atentamente, também, os ganhos que novas tecnologias de rede e de compressão de video podem trazer para este quadro. O fato é que, com a disseminação de aplicações de VR/AR, a demanda sobre a infraestrutura irá aumentar e isso tem de ser contemplado nos planos futuros dos provedores de serviços (data centers).

Edge computing

Conforme a VR e a AR crescem, líderes de TI também precisam começar a escolher o local onde será instalado o data center – essa decisão deve leva em conta capacidades de largura de banda e de rede. A meta é diminuir a latência do sistema, algo crítico para aplicações tão pesadas e interativas quanto essas.

Diante desses desafios, vale a pena explorar a edge computing.

A edge computing coloca o data center próximo aos usuários finais, possibilitando que que análises, armazenamento e poder computacional estejam no mesmo lugar. Esta estratégia fornece uma alternativa à abordagem tradicional, onde os data centers são remotos e os dados tem de viajar grandes distâncias antes de serem processados. Num mundo repleto de aplicações VR/AR, a edge computing será crítica para garantir que a experiência imersiva em mundos virtuais aconteça de maneira consistente.

Data Center resiliente

Além de tratar de problemas de conectividade e latência, os profissionais de TI precisam começar a melhorar a resiliência do data center. O poder computacional e o tráfego de dados necessário para fazer funcionar a AR e a VR colocam uma enorme sobrecarga na infraestrutura atual.

Para resolver isso, é preciso melhorar as capacidades de poder computacional e armazenamento.

Soluções de processamento de dados, análises e gestão de carga também precisam ser otimizados. Porém, melhorar só o seu próprio data center não é o suficiente. Para cumprir as metas de entregar as aplicações VR e AR, é necessário usar todas as tecnologias relevantes, contratando fornecedores externos para reforçar as capacidades. Esta abordagem para gestão de infraestrutura é chamada de Data Center Definido por Empresa (EDDC – Enterprise Defined Data Center).

A importância do gerenciamento

O EDDC e soluções edge necessários para entregar a VR e a AR em volume vão criar uma infraestrutura de TI mais complexa.

Neste quadro, é fundamental investir em soluções de Gestão de Infraestrutura de Data Center (DCIM – Data Center Infrastructure Management). Essas sofisticadas plataformas de gerenciamento garantem que a infraestrutura do data center atue de forma otimizada, apresentando a capacidade, a potência e a disponibilidade que as novas aplicações exigem.

Empresas líderes do mundo digital, incluindo Airbnb e Uber, já se apoiam em ferramentas DCIM plenamente capazes de gerenciar um mix de serviços locais e hospedados remotamente. Isso permite que se identifique e remedie rapidamente os problemas. Embora a solução exata de DCIM a ser adotada pelas empresas varie de negócio para negócio, essa plataforma é mandatória para qualquer companhia que deseje proporcionar experiências VR e AR.

Tiago Khouri, diretor de marketing e planejamento da Vertiv Latin America

Tags,

Ranking das Top 50 Tecnologias de Internet das Coisas (IoT) inclui solução da Vertiv

A Vertiv, anteriormente conhecida como Emerson Network Power, conquistou o reconhecimento dos experts da publicação especializada em canais CRN. A solução ICOM-S faz parte da lista CRN Top 50 aplicações para Internet of Things. A Vertiv tem liderado o desenvolvimento de tecnologias que habilitam a Internet das Coisas em Data Centers e em sites de Edge Computing. Isso é feito com o suporte do iCOM-S, um software que realiza a orquestração de diferentes equipamentos de um Data Center. Há casos em que o uso do iCOM-S promove até 50% de redução do consumo de energia e da emissão de CO2 dos Data Centers.

“Muitas de nossas soluções são compatíveis com aplicações IoT”, afirma Tiago Khouri, Diretor de Marketing e de Planejamento da Vertiv América Latina. “Além disso, nossa plataforma opera com protocolos de comunicação neutros, possibilitando a interconexão segura com equipamentos de diferentes provedores em uma arquitetura Best in Class”.

“O crescente mercado de Internet das Coisas tem um enorme potencial criativo, e a capacidade de melhorar diversos aspectos das nossa vidas”, afirma Robert Faletra, CEO da The Channel Company, a publishing house por trás da CRN. “O ranking CRN’s Internet of Things 50 celebra líderes de tecnologia que exploram este potencial de forma inovadora e consistente. Suas soluções transformarão a maneira como nós trabalhamos e vivemos.”

A lista Internet of Things 50 está disponível no URL: crn.com/iot50.

Tags, , , , , ,

O data center e a transformação digital: a hora e a vez da refrigeração de precisão

Por Sérgio Ribeiro

A história da tecnologia é repleta de casos em que uma solução era, em seus inícios, aplicada de forma indiscriminada a “n” desafios. Essa regra vale para os sistemas de refrigeração para data centers. Embora ainda existam empresas que prefiram usar sistemas de ar condicionado de conforto para refrigerar seus centros de processamento de dados, esse quadro está mudando. A razão para essa evolução é simples. Os sistemas de ar condicionado de conforto foram desenvolvidos para realizar a climatização de ambientes com pessoas, não com máquinas. Em tempos de transformação digital, em que processos analógicos são aceleradamente substituídos por serviços online, a continuidade dos negócios depende do data center e só pode ser garantida pelo estado da arte em refrigeração: a tecnologia de refrigeração de precisão.

Relatório da empresa de análise de mercado TechNavio mostra que, até 2019, o market share global de sistemas de precisão crescerá 14% ao ano. Por trás desta tendência estão fatores como a valorização do green data center e o uso intensivo de soluções DCIM (Data Center Infrastructure Management) para monitorar e configurar as novas tecnologias de refrigeração.

Em todos os casos, a base para a escolha do sistema de refrigeração de um data center é compreender que os tipos de calor e os índices de umidade gerados por seres humanos não são iguais aos das máquinas.

Pessoas e máquinas: diferentes desafios de climatização

Os data centers não geram umidade e emanam muito mais calor por metro quadrado. É a situação oposta de um ambiente típico de conforto contendo pessoas em interação. Enquanto as máquinas necessitam de sistemas de refrigeração que sejam capazes de vencer uma carga de calor sensível, os ambientes de conforto necessitam de sistemas de refrigeração capazes de vencer uma carga de calor latente. O ar condicionado de conforto tem a missão, também, de combater os altos índices de umidade, visando fazer com as pessoas se sintam confortáveis nos ambientes que ocupam.

Segundo dados da Emerson Network Power, os sistemas de ar condicionado de conforto têm uma taxa de calor sensível de 0,6 a 0,7. Isso significa que, de sua capacidade total, apenas uma faixa de 60% a 70% está dedicada à carga térmica sensível (calor emitido por máquinas e equipamentos). O restante está dedicado para uma carga latente (calor com umidade, gerado por pessoas).

A implementação desse tipo de climatização não seria adequada aos data centers, ambientes que apresentam uma taxa de calor sensível superior à 90% em sua carga térmica total. Nesse sentido, o ar condicionado de precisão oferece benefícios maiores, porque foi projetado para oferecer uma taxa sensível de 0,85 a 1. Isso significa que de 80% a 100% do seu esforço é direcionado ao combate do calor sensível.

O sistema de ar condicionado de precisão é desenvolvido para manter um rígido controle de temperatura e umidade 24 horas por dia, 365 dias por ano.

Se, no entanto, alguém insistir em usar um ar condicionado de conforto para refrigerar um data center, será obrigado a adquirir mais aparelhos deste tipo para atender à demanda das máquinas. Se, em vez disso, esse gestor implementasse um sistema de ar condicionado de precisão, com toda certeza o número de equipamentos ou a capacidade dos mesmos seriam reduzidas consideravelmente. Uma análise de custo/benefício ampla, focada no levantamento do TCO (Total Cost of Ownership) do sistema de refrigeração que será adotado, comprovará essa realidade. Para citar apenas alguns, um sistema de ar-condicionado de conforto tem uma taxa de vazão de ar na faixa de 350 a 400 CFM, enquanto um de precisão circula entre 500 a 600 CFM, o que contribui para maior filtragem e tratamento do ar.

Sistemas de precisão têm operação multimodal

Erros no controle da umidade podem gerar danos substanciais aos equipamentos, causar descargas estáticas, afetar os circuitos e ameaçar os dados disponíveis. Geralmente, os sistemas de ar condicionado de conforto não têm controle de umidade, tornando-se difícil manter uma umidade relativa estável. O ar condicionado de precisão, ao contrário, tem operação multimodal, para fornecer uma gama adequada de resfriamento, umidificação e desumidificação.

O monitoramento do entorno é uma variável interessante a destacar entre os sistemas de conforto e os de precisão. Os primeiros se caracterizam por apresentar procedimentos precários e limitados, trabalhando dentro de faixas de temperatura muito mais amplas e menos precisas.

Os sistemas de precisão, por outro lado, contam com plataformas de controle térmico que permitem aos gerentes de data centers monitorar remotamente as instalações em tempo real. Essas soluções de software não só ajudam a economizar energia como, também, aumentam significantemente o Tempo Médio Entre Falhas (em inglês, MTBF) e a capacidade de redundância de fontes de energia elétrica.

Quanto à eficiência no tempo, o ar condicionado de precisão também é superior. Isso acontece porque seus componentes são projetados para atender à demanda e operar continuamente 8.760 horas por ano.

Free Cooling reduz consumo de energia em 40%

Outra diferença notável é que, atualmente, os equipamentos de ar condicionado mais modernos contam com técnicas muito avançadas, conhecidas como Free Cooling. A prática da Free Cooling consiste em aproveitar temperaturas externas favoráveis para reduzir o funcionamento do compressor. Isso diminui o consumo de energia em até 40%, garantindo a climatização adequada sem consumir água, mesmo em climas quentes. Isso faz com que o Free Cooling seja uma alternativa amigável ao meio ambiente. Por exemplo, um data center de médio porte, que consome 500 KW/hora, pode economizar até USD 131.400 adotando as melhores práticas de eficiência energética. Isso se considerado um custo médio de USD 0,10 por KW/h.

É importante reconhecer que alguns data centers mantem-se fieis ao ar condicionado de conforto devido ao preço inicial dessa tecnologia. Em longo prazo, no entanto, o sistema de conforto incorrerá em maior dispêndio de dinheiro, não somente pela quantidade de energia consumida – uma despesa crítica de qualquer data center –, mas, também porque seu sistema de regulação pode afetar a vida útil dos equipamentos. Neste sentido, se um ar condicionado de conforto danificar um dispositivo/máquina de um data center, não só será necessário investir dinheiro em reparos, mas também pagar pela perda de dados e pela interrupção de serviços.

A criticidade de um data center exige a presença de uma solução de refrigeração que contribua para a continuidade dos negócios do data center e de seus clientes. O tempo não para, e a evolução da tecnologia, também.

Eng° Sérgio Ribeiro, consultor em sistemas de gerenciamento térmico da Vertiv.

Tags, ,

O Data Center em 2017: desafios e tendências

A Vertiv, anteriormente denominada Emerson Network Power, divulgou hoje seis desafios e tendências de infraestrutura de data center a serem observadas em 2017.

1. A infraestrutura espalha-se para suportar a vanguarda da conectividade

A TI distribuída e a Internet das Coisas industrial (IoT) estão aproximando os recursos de TI dos usuários em localizações remotas e em plantas industriais. Embora o data center tradicional se mantenha fundamental para a distribuição de aplicações e serviços, cresce a cada dia a importância de micro data centers e network closets. Network closet é o espaço onde equipamentos de rede gerenciáveis e operáveis remotamente são instalados. Essa tendência é confirmada pela crescente proliferação de sensores IoT e outros dispositivos que exigem acesso mais rápido à informação. Em resposta a essas mudanças, as corporações se voltarão a soluções pré-configuradas de micro data centers que suportam implementações rápidas.

A disseminação de sensores IoT por lugares que, no passado, não contavam com tanta infraestrutura de tecnologia, está levando os gestores a reavaliar a situação de network closets atuais e localizações remotas de TI. Passa a ser essencial assegurar que os suprimentos de energia e refrigeração sejam adequados para atender à crescente criticidade dessas localizações.

2. O gerenciamento térmico alinha-se à sustentabilidade

Nos últimos cinco anos, a refrigeração apresentou mais mudanças do que qualquer outro sistema de data center. Impulsionadas pelo desejo de reduzir os custos de energia, as abordagens tradicionais focadas em fornecer “refrigeração máxima” foram suplantadas por abordagens mais sofisticadas, empenhadas em remover o calor da maneira mais eficiente possível. O uso de tecnologias avançadas de economia e a contínua evolução dos controles térmicos inteligentes possibilitaram estratégias de gerenciamento térmico altamente resilientes que suportam PUEs inferiores a 1,2.

Agora, enquanto a eficiência energética permanece uma preocupação fundamental, o consumo de água e o uso de compostos refrigerantes surgiram como considerações importantes em determinadas regiões geográficas.

Nas localidades em que a disponibilidade ou o custo da água são um problema, sistemas de refrigeração sem água ganharam impulso.

Um sistema tradicional open-loop baseado em água gelada usa cerca de 15 milhões de litros de água para resfriar 1 MW de capacidade de TI em um ano. Novas tecnologias compreendendo economizadores de compostos refrigerantes bombeados que não usam água e não introduzem ar externo no data center economizarão mais de 4 bilhões de litros de água na América do Norte em 2016.

3. A segurança cibernética se torna uma prioridade máxima na gestão do data center

Embora as violações de dados continuem a constituir a maioria das manchetes relacionadas à segurança, problemas de segurança também passaram a afetar a disponibilidade do data center. O estudo Cost of Data Center Outages (Custo das Interrupções de Operação do Data Center) de 2016, realizado pelo Ponemon Institute, revelou que os ciberataques foram responsáveis por 22 por cento das interrupções de operação de data centers estudadas.

À medida que mais dispositivos são conectados para permitir um gerenciamento e automação simplificados, as possibilidades de ameaça também aumentam. Os profissionais de data center estão acrescentando segurança à sua crescente lista de prioridades e começando a buscar soluções que os ajudem a identificar vulnerabilidades e aprimorar a resposta a ataques.

4. O DCIM comprova seu valor

O DCIM (Data Center Infrastructure Management, sistemas de gerenciamento da infraestrutura do Data Center) continua a mostrar seu valor. Essa visão vem tanto de sua capacidade de resolver problemas quanto por sua habilidade de gerenciar o cada vez mais complexo ecossistema do data center. Gestores com visão de futuro estão usando DCIM para atacar desafios do data center, tais como conformidade regulatória, suporte ao Information Technology Infraestrutura Library (ITIL) e gerenciamento de ambientes híbridos. Além disso, o DCIM está sendo expandido além do data center nuclear para proporcionar gerenciamento centralizado de localizações distribuídas. O DCIM surgiu como o precursor da IoT no data center, fornecendo a visibilidade, a maior coordenação entre os sistemas e o suporte à automação que constituem o cerne da proposição de valor da IoT.

5. As alternativas para baterias de chumbo-ácido se tornam viáveis

Novas soluções estão surgindo para o elo fraco nos sistemas de energia de data centers à medida que os operadores buscam reduzir o footprint, peso e custo total das tradicionais baterias chumbo-ácido reguladas por válvulas (VRLA). A mais promissora delas é a das baterias de íons de lítio. Com os preços em queda, e as soluções químicas e de construção continuando a avançar, as baterias de íons de lítio estão se tornando uma opção viável para o data center e estão sendo escaladas para suportar exigências row e room-level.

Embora essas modalidades de baterias estejam no mercado há algum tempo, a melhora da relação custo/benefício desta tecnologia está aumentado a disseminação dessas soluções na indústria de Data Centers.

6. O projeto e a implementação do data center ganham integração e aceleração

A integração da tecnologia vem crescendo no espaço do data center há vários anos, à medida que os operadores buscam soluções integradas modulares, que possam ser rapidamente implementadas, facilmente escaladas e eficientemente operadas.

Em 2017, essa mesma filosofia está sendo aplicada ao desenvolvimento de data centers. Atualmente, a velocidade de entrada em operação é um dos principais impulsores das empresas que desenvolvem o grande volume da capacidade dos data centers. As empresas já perceberam que o tradicional isolamento entre as fases de engenharia e construção é pesado e improdutivo. Como resultado, o mercado está abraçando uma abordagem turnkey para as fases de projeto e implementação de data centers. Trata-se de uma estratégia que tira o máximo proveito de projetos modulares integrados, construção off-site e gerenciamento disciplinado de projeto. Fornecedores que unem expertise em infraestrutura, capacidades de projeto e engenharia e um sofisticado gerenciamento de projeto para fornecer uma capacidade turnkey conseguem construir data centers melhores em prazos mais curtos.

Tags, , , , ,

80% dos custos anuais do data center vêm de despesas operacionais e com energia, diz relatório Emerson Network Power

A Emerson Network Power, em breve transformada em Vertiv, divulga hoje o relatório Cost to Support Compute Capacity Benchmark Study, a mais recente pesquisa da série Data Center Performance Benchmark. Esse estudo foi realizado com apoio do Ponemon Institute.

O relatório analisou o custo anual de 41 data centers da América do Norte. Os custos foram relatados pelas organizações participantes em quatro categorias: planta amortizada, ativos de TI amortizados, operação e energia. Além disso, as organizações participantes relataram dados como carga de TI, número de racks, densidade média do rack e área do data center. Essas últimas quatro categorias de informações permitiram que os analistas do Ponemon Institute construíssem diferentes perfis de data centers hoje atuando no mercado norte-americano.

A partir dos dados coletados, o Ponemon Institute calculou um custo médio para suportar 1 quilowatt (kW) de capacidade computacional para cinco diferentes faixas de tamanho de data center. Os data centers analisados têm de 46,5 a 4650 metros quadrados.

As principais descobertas do estudo incluem:

· Os custos operacionais são responsáveis pela maior porcentagem dos custos dos data centers de todos os tamanhos.

· Em segundo lugar em geração de custos vem a infraestrutura e serviços de energia.

· Em resumo, os custos operacionais e de energia representam 80 por cento ou mais das despesas anuais do data center.

· O custo anual médio por kW varia de USD 5.467 para data centers acima de 4.650 metros quadrados (o maior tamanho pesquisado) até USD 26.495 para data centers entre 46,5 e 465 metros quadrados (o menor tamanho pesquisado).

· Fica claro que o custo por kW diminui à medida que o tamanho do data center aumenta. A maior redução ocorre entre a faixa de 46,5 a 465 metros quadrados e a faixa de 465 a 930 metros quadrados (64 por cento de redução). Os custos continuaram a declinar com o aumento do tamanho do data center:

· Na faixa de 930 a 2.325 metros quadrados, o custo por kW foi 47 por cento inferior ao da faixa de 465 a 930 metros quadrados;

· Na faixa de 2.325 a 4.650 metros quadrados, o custo por kW foi 23 por cento inferior ao da faixa de 930 a 2.325 metros quadrados;

· Na faixa acima de 4.650 metros quadrados, o custo por kW foi 21 por cento inferior ao da faixa de 2.325 a 4.650 metros quadrados.

· Economias de escala foram observadas em todas as categorias de custo. Ao se comparar os data centers menores com os maiores, encontrou-se uma diferença de 180 por cento entre o custo de energia por kW de um grande data center em relação a um pequeno data center. A regra é a seguinte: quanto maior o data center, maior a redução de gastos com energia. Os custos operacionais mostraram uma diferença de 129 por cento em relação aos kW nos data centers maiores, em comparação com aqueles da faixa de 46,5 a 465 metros quadrados (a categoria dos data centers de tamanho mais reduzido).

· Outra conclusão expressiva: o custo por kW diminui com a densidade do rack utilizado no data center. Data centers com uma densidade média de rack de 8,5 kW tiveram um custo por kW 68 por cento inferior ao de data centers com uma densidade média de rack de 4,5 kW.

“Com a variedade de opções de outsourcing atualmente disponível, é essencial que os operadores de data center compreendam os custos associados a suportar a capacidade computacional; isso tem de ser feito a partir da análise dos custos associados aos principais componentes desses custos”, detalha Peter Panfil, vice-presidente de energia global da Emerson Network Power. “Esse relatório fornece um modelo para os operadores de data centers visualizarem seus custos e tomarem decisões muito bem embasadas sobre outsourcings futuros. Esses dados podem facilitar que o gestor do data center avalie tecnologias e melhores práticas que possam reduzir os seus custos e aumentar a competitividade de sua oferta”.

Este é o quarto volume de uma série de relatórios de pesquisas, realizadas por Ponemon e Emerson Network Power, que fornecem benchmarks de indústria e visões dos principais desafios e pontos de decisão enfrentados pelas organizações ao construírem uma infraestrutura de TI para suportar usuários internos, parceiros, fornecedores e clientes na era digital. O relatório completo, juntamente com outros relatórios da Série Benchmarks, está disponível em www.EmersonNetworkPower.com/Benchmarks.

Tags, , , ,