Os data centers fazem as redes funcionarem
O data center é o coração de todas as redes empresariais. Ele permite a transmissão, o acesso e o armazenamento de grandes quantidades de informações vitais.
Nesta página
- O que é cabeamento do data center?
- Padrões de cabeamento de data center
- Principais desafios no data center
- Considerações sobre o cabeamento de data centers
- Continue aprendendo
O que é cabeamento do data center?
Os cabos do data center conectam as redes locais (LANs) aos switches, servidores, redes de armazenamento (SANs) e outros equipamentos ativos que permitem o funcionamento de todos os aplicativos, transações e comunicações. É também onde a LAN se conecta às redes de provedores de serviços que dão acesso à internet e a outras redes externas às instalações.
Padrões de cabeamento de data center
Normas como ANSI/TIA-942, ISO/IEC 24764 e ANSI/BICSI 002 fornecem recomendações mínimas para o projeto e a implementação de data centers, incluindo caminhos e espaços, cabeamento de backbone e horizontal, redundância e disponibilidade, gerenciamento de cabos e considerações ambientais.
Esses padrões também descrevem áreas funcionais específicas do data center:
-
• Sala de entrada (ER): Às vezes chamada de instalação de entrada, o ER está localizado dentro ou fora do data center. É onde o serviço entra no data center, fornecendo o ponto de demarcação para redes de provedores de serviços e cabeamento de backbone para outros edifícios em um ambiente de campus.
-
• Área de distribuição principal (MDA): Como ponto central de distribuição, o MDA abriga switches e roteadores centrais para conexão a LANs, SANs e outras áreas do data center, bem como salas de telecomunicações (TRs) localizadas em toda a instalação.
-
• Áreas de distribuição horizontal (HDA): O HDA é o ponto de distribuição para conectar servidores na área de distribuição de equipamentos (EDA) aos switches centrais no MDA. O cabeamento de uplink de backbone de fibra do MDA termina aqui em painéis de patch de fibra dentro de conexões cruzadas ou interconexões que conectam switches de agregação e acesso. Embora a maioria dos data centers contenha pelo menos um HDA, uma arquitetura top-of-rack (ToR) onde os switches de acesso se conectam diretamente aos servidores no mesmo gabinete elimina o HDA.
-
• Área de distribuição de equipamentos (EDA): É aqui que residem os servidores. Esses servidores se conectam a switches no HDA por meio de cabos horizontais terminados em painéis de cobre ou fibra ou por meio de conexões diretas com switches ToR no mesmo gabinete.
-
• Áreas de distribuição intermediária (IDA): Esses espaços opcionais, às vezes chamados de distribuidores intermediários, são normalmente encontrados em data centers maiores com vários andares ou salas que distribuem links de fibra do MDA para várias HDAs e EDAs por meio de switches de agregação.
- • Área de distribuição de zona (ZDA): Esses espaços opcionais normalmente não são encontrados em data centers corporativos. A ZDA não contém equipamentos ativos, mas pode servir como um ponto de consolidação dentro do cabeamento horizontal entre HDAs e EDAs para facilitar o crescimento e as reconfigurações futuras.
Este diagrama do padrão de data center TIA-942 mostra os vários espaços conectados ao cabeamento de backbone (azul) e horizontal (vermelho).
Principais desafios para os data centers
O data center é essencial para a operação de uma empresa e abriga uma quantidade cada vez maior de equipamentos de missão crítica. Há várias considerações e desafios importantes para garantir confiabilidade e desempenho para necessidades atuais e futuras. Vejamos alguns dos mais importantes.
Crescimento e escalabilidade
À medida que as empresas se esforçam para competir em um mundo orientado por dados, mais data centers de nuvem e de localização aparecem. Eles fornecem os meios para implantar novos sistemas e serviços mais rapidamente, permitindo que as empresas respondam rapidamente às necessidades em constante mudança e expandam a capacidade sem a necessidade de atualizar os data centers corporativos internos. Muitas empresas tendem a ter uma abordagem de TI híbrida, mantendo alguns recursos de TI internamente ou em um data center de localização segura (particularmente onde há necessidade de manter o controle de dados) e permitindo que outros residam na nuvem. Os recursos de nuvem usam software como serviço (SaaS), enquanto os data centers de localização normalmente oferecem infraestrutura como serviço (IaaS).
Redundância e disponibilidade
A redundância envolve ter componentes duplicados (como equipamentos, links, energia e caminhos) que garantam a funcionalidade se algum componente falhar. Ela costuma ser definida com o uso do sistema “N”, em que “N” é o parâmetro para o número de componentes necessários para o funcionamento do data center.
- ○ Redundância N+1 significa ter mais um componente do que o necessário para funcionar.
- ○ Redundância 2N significa ter o dobro do número de componentes necessários.
- ○ Redundância 2N +1 é o dobro da quantidade, mais um.
Os níveis “Tier” do Uptime Institute referem-se à taxa “N” necessária para os diversos níveis de disponibilidade dos data centers. O sistema de classe de disponibilidade BICSI 002 também se refere ao nível N.
Alimentação, resfriamento e eficiência
Com um foco maior na sustentabilidade, a Green Grid agora também tem uma métrica de eficácia no uso de carbono (CUE) que determina a quantidade de emissões de gases de efeito estufa (GEE) produzidas por unidade de energia de TI consumida em um data center. Ele também tem uma métrica de Eficácia do Uso da Água (WUE) que mede a razão entre a água usada no data center (para resfriamento à base de água, umidificação etc.) e o consumo de energia do equipamento de TI.
O resfriamento mantém uma temperatura operacional aceitável do equipamento e evita pontos quentes que podem afetar adversamente a vida útil e a confiabilidade do equipamento. A ASHRAE recomenda uma faixa de temperatura operacional de 18 ° a 27 °C (64 ° a 81 °F) para data centers. O resfriamento afeta a eficiência, representando de 30% a 50% do consumo total de energia do data center.
- ○ Evitar misturar o ar frio de entrada com o ar quente de exaustão permite temperatura do ar de retorno mais alta, o que melhora a eficiência dos sistemas de resfriamento do data center e evita a instalação de quantidades excessivas de unidades de ar-condicionado que consomem muita energia.
- ○ Usar uma configuração de passagem de ar quente/passagem de ar frio no data center é uma maneira passiva de evitar a mistura de ar quente e frio. Isso envolve o alinhamento de fileiras de gabinetes de modo que a entrada de ar frio seja otimizada na frente do equipamento e o ar quente saia pela parte traseira do equipamento para o sistema de retorno de resfriamento.
Com maior potência de processamento e geração de calor, alguns data centers precisam de maneiras mais eficazes de evitar a mistura de ar quente e frio.
- ○ Sistemas de contenção isolam completamente as passagens de ar quente e frio entre si, usando os painéis de teto para isolar a passagem de ar frio do restante do data center (“contenção da passagem fria”) ou painéis verticais para isolar a passagem de ar quente e o retorno da exaustão de ar aquecido ao plenum de retorno superior (“contenção da passagem de ar quente”). Os sistemas de contenção também podem estar ativos, usando ventiladores para puxar ar quente do gabinete para a passagem de ar quente.
- ○ Alguns ambientes de computação de alto desempenho (como data centers de hiperescala) com densidades de potência extremamente altas estão recorrendo a soluções de resfriamento líquido para melhor condução de calor. Essas soluções incluem trocadores de calor da porta traseira que resfriam o ar quente de exaustão à medida que passa por serpentinas cheias de líquido na parte traseira do gabinete do equipamento, imersão de líquido que circunda o equipamento com líquido de arrefecimento que circula através de um circuito de água gelada e placa fria ou resfriamento direto ao chip onde o líquido de arrefecimento é bombeado para pequenas placas frias que se conectam diretamente aos componentes geradores de calor dentro do equipamento, como CPUs.
Considerações sobre o cabeamento de data centers
Independentemente do tamanho e tipo do data center, da topologia de comutação e das aplicações, a infraestrutura de cabeamento subjacente é crucial para garantir os links confiáveis e de alta largura de banda necessários para conectar equipamentos de data center em várias áreas funcionais. Há várias considerações quando se trata de cabeamento de data center.
Gerenciamento de cabos
- ○ Mover cabos de alta densidade acima da cabeça é uma estratégia para evitar o congestionamento de cabos em vias sob o piso que podem bloquear o movimento do ar frio.
- ○ Dentro do gabinete, as soluções de gerenciamento de cabos horizontais e verticais ajudam a rotear e organizar adequadamente os cabos dentro e ao redor do equipamento para manter o fluxo de ar adequado.
- ○ Uma solução para cabeamento de cobre, que é maior do que a fibra e pode bloquear mais fluxo de ar, é usar cabos de patch de cobre de bitola menor.
- ○ O gerenciamento de cabos horizontais e verticais é fundamental para manter o raio de curvatura e o alívio de tensão adequados. Exceder o raio de curvatura do cabeamento e colocar tensão nos cabos podem degradar o desempenho ou levar a links não funcionais.
Testes de cabo
- ○ Os links de cabeamento de backbone entre ER, MDA e HDA quase sempre serão fibra monomodo e multimodo.
- ○ O cabeamento horizontal entre a HDA e a EDA (links switch-para-servidor) será de Categoria 6A ou conexões de cobre superiores ou fibra multimodo.
- ○ Se o EDA usar uma configuração ToR, os cabos de conexão direta (DACs) twinax SFP+ ou SFP28 serão frequentemente usados para essas conexões. O teste dos módulos SFP/QSFPs envolve a verificação de que a alimentação é fornecida corretamente. Para aprofundar-se no que é normalmente testado em cada área funcional do data center, baixe o nosso white paper gratuito, No data center — Onde e o que estou testando?
Orçamentos com perda de fibra
Padrões de mercado especificam o volume de perda de inserção permitido para que aplicações de fibra funcionem adequadamente, e aplicações mais rápidas, como 40GBASE-SR4 e 100GBASE-SR4, possuem requisitos de perda de inserção muito mais rigorosos.
Os data centers determinam seus orçamentos com perda de fibra determinados com base nas distâncias entre as áreas funcionais e a quantidade de pontos de conexão ao longo do caminho para assegurar que estejam dentro desses requisitos. A determinação precisa de um orçamento de perda de fibra requer conhecer os valores de perda de inserção de cabos e conectividade de fornecedores específicos.
Um teste de fibra básico (certificação Tier 1), mede a perda de inserção de todo o link de fibra em decibéis (dB) utilizando um teste de perda óptica (OLTS). Os fabricantes de cabos quase sempre exigem a certificação Tier 1 para adquirir uma garantia do sistema. Alguns também podem exigir certificação Tier 2 usando um reflectômetro óptico de domínio de tempo (OTDR ) que fornece uma visão da perda de pontos de conexão específicos e do cabo. O uso de um OTDR seguido por um OLTS oferece uma estratégia de teste completa que caracteriza todo o link e garante o teste de perda de inserção mais preciso.
Manter-se dentro do orçamento com perda de inserção para fibra também depende muito da limpeza das extremidades da fibra, já que extremidades de fibra contaminadas são a principal causa de problemas relacionados com fibras e falhas de teste nos data centers. Mesmo a menor partícula no núcleo da superfície da extremidade de uma fibra pode causar perda e reflexos que prejudicam o desempenho. Limpeza e inspeção são, portanto, medidas essenciais em terminações de fibra de data center.
Conectividade e cabeamento MPO
Recomenda-se testar links de cabeamento MPO com um testador de fibra com capacidade para MPO para economizar tempo, eliminar a complexidade e melhorar a precisão.
Para que os links do data center funcionem, eles devem manter a polaridade adequada de modo que o sinal de transmissão em uma extremidade de um link corresponda ao receptor correspondente na outra extremidade. Garantir a polaridade adequada da fibra pode ser mais complexo com a conectividade MPO, pois várias fibras de transmissão e recepção devem corresponder corretamente. Testadores de cabos MPO que verificam a polaridade correta podem ajudar a eliminar erros de polaridade.
Continue aprendendo
- • Teste na borda
- • A fibra monomodo está em ascensão. Você está pronto?
- • O A-B-C da polaridade da fibra
- • O caminho para 200 & 400 Gig já está pavimentado (e percorrido)
- • Testes nos espaços do Data Center
- • O Skinny em cabos de conexão AWG 28
- • Projetando até os limites de aplicativo
- • Conexões cruzadas e interconexões no data center
- • Largura de banda e taxas de dados
- • A ascensão do data center de hiperescala
- • RJ-45: Uma base no data center
- • Teste de cabeamento com conectores MPO — O que há de novo?
- • Benefícios de usar soluções de MPO Plug and Play de 8 fibras