Important Announcement
PubHTML5 Scheduled Server Maintenance on (GMT) Sunday, June 26th, 2:00 am - 8:00 am.
PubHTML5 site will be inoperative during the times indicated!

Home Explore Fundamentos de Redes de Armazenamento

Fundamentos de Redes de Armazenamento

Published by SNIA Brasil, 2019-06-12 07:43:28

Description: Livro do programa acadêmico SNIA Brasil

Keywords: SNIA

Search

Read the Text Version

150 FC-4 O FC-4 mapeia o protocolo de camada superior (muitas vezes SCSI) para o Fibre Channel. O FC-4 pega o protocolo da camada superior e formata-o em algo que possa ser transportado usando Fibre Channel. Por exemplo, o FC-4 deve pegar comandos e dados SCSI e formatá-los de tal maneira que possam ser desempacotados e remontados em eventos SCSI significativos na outra extremidade. Além disso, o FC-4 deve ser capaz de tomar eventos de erro de Fibre Channel e \"traduzi- los\" em eventos SCSI pertinentes, a fim de invocar um processo de correção de erro do software SCSI. O FC-4 é implementado no software do servidor (ou controlador inteligente de um dispositivo de armazenamento) e interage diretamente com os protocolos de camada superior.

151 Protocolos de Camada Superior (ULPs) Os protocolos de camada superior (ULPs) são os diferentes protocolos que podem ser colocados em camadas no Fibre Channel. Os ULPs não sabem que estão usando Fibre Channel como um portador e isso significa que drivers SCSI genéricos (por exemplo) podem ser usados sem modificação. Como a maioria dos sistemas operacionais tem incorporado internamente software SCSI genérico para conectar dispositivos de armazenamento, isso permite que o Fibre Channel seja integrado sem problemas com o software do sistema existente.

152 Topologias Fibre Channel Uma topologia em rede é, essencialmente, a estrutura de uma rede representada fisicamente ou logicamente. Seu objetivo é demonstrar como os dados fluem dentro da rede, independentemente de sua concepção física, distâncias entre nós, tipos de interconexão física ou velocidades de transmissão de dados. Estes fatores podem diferir entre duas redes, ainda que suas topologias sejam idênticas. As topologias Fibre Channel são definidas como parte das normas estabelecidas pelo Comitê T11 do ANSI (Instituto Nacional Americano de Padrões). Ponto a Ponto A mais fácil das topologias Fibre Channel definidas pelos padrões é uma conexão ponto a ponto, N Port* a N Port. A conexão ponto a ponto é simples - uma porta de nó conversando com outra porta de nó, muito parecido com um storage conectado direto. A vantagem de usar o Fibre Channel para fazer este tipo de conexão é que a distância entre o servidor e o dispositivo de armazenamento pode ser muito maior do que para sistemas de conexões paralelas. De fato, as distâncias podem ser medidas em dezenas de quilômetros. Isso permite que o armazenamento de dados esteja localizado em um ambiente seguro, sem a necessidade que os servidores estejam perto, mantendo as velocidades de acesso de dados.

153 Fibre Channel Arbitrated Loop (FC-AL) O Fibre Channel Arbitrated Loop (FC_AL) foi a primeira topologia Fibre Channel a ser amplamente adotada, com muitos a usando como um substituto para SCSI paralelo. Como o nome sugere, os dispositivos são conectados através de um loop usando NL Ports* (portas de nó em loop). Até 126 nós* podem ser conectados, mas apenas dois nós podem comunicar-se ao mesmo tempo. Nós, que querem usar uma conexão em loop, devem anunciar-se para o acesso e, se houver um conflito, um mecanismo em loop incorporado seleciona a prioridade para o acesso com base no endereço do nó. Este mecanismo de arbitragem é uma característica do NL Port que o diferencia do N Port. Se uma NL Port é conectada a um switch em vez de um loop, ela passa a operar como uma N Port. No entanto, N Ports não podem atuar como NL Ports num FC-AL. Nós conectados comunicam-se em modo full duplex (capaz de transmitir e receber dados simultaneamente). Quando os nós não estão se comunicando, eles estão em modo passivo, onde eles permitem que os dados dos nós ativos passem por eles sem qualquer interação. No entanto, se qualquer nó falha, o loop é quebrado e torna-se não funcional.

154 Hub FC-AL A introdução de um hub FC-AL endereçou essa questão. Um hub Fibre Channel Arbitrated Loop é basicamente um \"loop na caixa\", mas permite que um nó em situação de falha seja automaticamente ignorado, sem interferir na comunicação. O hub não ‘participa’ do protocolo FC- AL; é essencialmente um dispositivo passivo. Os hubs fornecem apenas características básicas de gerenciamento, tais como monitoramento do tráfego e registro de eventos. Os hubs não contêm portas Fibre Channel. Os hubs são dispositivos legados, mas a arquitetura de hub ainda pode ser encontrada internamente em várias gavetas de discos.

155 Topologia Fibre Channel em Switch Os switches Fibre Channel permitem que múltiplas conexões Fibre Channel sejam feitas simultaneamente com todas as conexões sendo capazes de funcionar com 100% da velocidade em full duplex (transmitir e receber ao mesmo tempo). Diferentemente de hubs, switches tipicamente têm largura de banda interna que é um múltiplo das conexões e a habilidade de mudar rapidamente as conexões de uma porta para outra, a fim de acomodar múltiplas comunicações simultâneas com largura de banda completa entre diferentes pontos da rede Fibre Channel. Os switches Fibre Channel são dispositivos inteligentes que funcionam de forma autônoma num fabric Fibre Channel. A inteligência é distribuída através do switch com múltiplas funções operando independentemente.

156 Conectando: Os switches Fibre Channel usam F Ports* (portas de fabric) como ponto de conexão ao switch. Essas portas operam de forma inteligente e, quando qualquer conexão é feita ao F Port, ela consulta o dispositivo conectado, configura-se para corresponder ao dispositivo que está conectado e constrói um registro das capacidades e funções suportadas desse dispositivo. Esta informação é armazenada no switch e pode ser consultada por qualquer outro dispositivo conectado para encontrar o que mais está conectado. Se múltiplos switches estão conectados em um fabric, esta informação é transmitida e armazenada em cada switch do fabric – isso significa que apenas o switch local precisa ser consultado, impedindo trocas de dados adicionais em todo a estrutura cada vez que uma mudança é feita.

157 Endereçamento: Quando um novo nó (N Port*) é conectado à um switch, é alocado um endereço Fibre Channel – conhecido como um ID Fibre Channel (FC-ID). Esse sistema de endereçamento é dinâmico e, se um nó é conectado e reconectado à um switch, não pode ser garantido que obtenha o mesmo endereço (FC-ID). Quando um endereço Fibre Channel é alocado, é compartilhado com todos os switches conectados. Esse nó não sabe se está conectado com um simples switch ou um fabric de switches, pois todas as interações são com o switch local ao qual está conectado. Teoricamente, o sistema de endereçamento Fibre Channel permite mais de 16 milhões de endereços, utilizando o range completo de endereçamento de 24 bits, mas o limite prático é ligeiramente menor pois alguns endereços estão reservados para outras funções. A cada porta do fabric Fibre Channel é atribuída um desses endereços. Quando múltiplos switches estão interconectados para criar um fabric de switches, eles se comunicam entre si e, para cada switch, é alocado uma parte do número total de endereços únicos. Ao switch, só é permitido a alocação de endereços Fibre Channel a partir desse pool de endereços. Se outro switch for adicionado, os grupos de endereços são realocados automaticamente.

158 Zoneamento: Nem sempre é apropriado que todos os dispositivos conectados possam descobrir todos os outros dispositivos conectados (por exemplo, requisitos de segurança). Fibre Channel tem nativo a capacidade de suportar zoneamento. O zoneamento permite que o fabric seja segmentado de modo que apenas nós em sua própria zona possam se ver e se comunicar. Quando as zonas são definidas, todos os switches estão cientes das limitações que os dispositivos podem enxergar uns aos outros, mesmo que o fabric seja mantido como um único fabric para funções como endereçamento. Nós podem pertencer a mais de uma zona. Se um novo nó junta-se a uma zona, o switch verifica a informação dessa zona e responde com os endereços de quaisquer dispositivos na mesma zona, mas não endereços de nós que não estão nessa zona.

159 Fabrics Lógicos: É importante notar que zoneamento não é a mesma coisa que a capacidade de pegar um único fabric físico e segmentar em fabrics lógicos. Criar fabrics lógicos é uma função específica do fornecedor e não um padrão Fibre Channel. Essencialmente, o conceito é que o fabric físico é mantido, mas a infraestrutura é apresentada aos nós como fabrics menores completos. Isso significa que cada fabric lógico tem todas as características e funcionalidade de um fabric físico. Os fabrics lógicos não podem sobrepor-se e cada um (embora fisicamente conectado) não tem conhecimento dos outros fabrics lógicos suportados pela mesma infraestrutura física. Isso permite que um único fabric físico seja implementado e mantido, enquanto tem a segurança adicional de ser capaz de criar fabrics lógicos totalmente isolados para fins de segurança. Fabrics lógicos são criados através da alocação de portas de switches físicos para fabrics lógicos específicos e as capacidades internas dos switches que suportam essa função mantém a separação. Os fabrics lógicos da Cisco são chamados de vSANs e a Brocade usam o que eles chamam de ‘Fabrics Virtuais’. A tecnologia por trás desses fabrics lógicos e sua funcionalidade operacional são diferentes e incompatíveis.

160 Roteamento: A forma como o tráfego de dados move-se entre dois pontos finais (nós) num fabric Fibre Channel é uma rota fixa. Desta forma, o Fibre Channel sempre mantém a ordem de entrega dos dados, uma vez que não há caminhos alternativos disponíveis. A rota selecionada é decidida em colaboração com os switches do fabric. A metodologia para a seleção de rotas é referida como primeiro caminho mais curto do fabric (FSPF – Fabric Shortest Path First). O FSPF é o padrão Fibre Channel para o protocolo de seleção de rota utilizado pelos fabrics Fibre Channel (o FSPF é similar em conceito à rota mais curta aberta usado pela primeira vez em redes IP). A funcionalidade FSPF é ativada por padrão em todos os switches Fibre Channel e automaticamente calcula a melhor rota entre quaisquer dois switches num fabric, estabelecendo a rota mais curta e mais rápida entre eles. Esse caminho é calculado pelo switch que possui o nó iniciador conectado e, em seguida, a informação de roteamento é compartilhada com todos os outros switches do fabric.

161 O FSPF também pode selecionar uma rota alternativa se o caminho primário falhar. O FSPF computa automaticamente uma rota alternativa em torno de um link que falhou e compartilha esta nova informação de roteamento com todos os outros switches. Para garantir que não se percam dados em caso de transição entre rotas, o Fibre Channel coloca automaticamente o fluxo de dados em espera até que a nova rota seja estabelecida. No caso de uma conexão física entre switches que tenham uma conexão intermitente (conhecida como flapping link), existe o potencial de impactar rapidamente um fabric à medida que cada quebra de uma conexão significa que a função FSPF inundará a estrutura com novas atualizações de rotas. Se isso está acontecendo muitas vezes por segundo, a estrutura pode sofrer problemas de desempenho ou até mesmo um desligamento total. Diferentes fornecedores têm suas próprias técnicas para lidar com esta situação, mas eles enfatizam a importância de obter a conectividade FC-0* correta no momento da implementação. * Abordado em mais detalhes em outra parte dessa publicação

162 Capítulo 5 Seção 4 Redes de Armazenamento de Dados Baseadas em Ethernet Introdução Nesta seção vamos explorar como as redes Ethernet podem ser implementadas como a tecnologia de interconexão para uma rede Fibre Channel (SAN). Mesmo que o modelo OSI tenha 7 camadas, para efeitos de conectividade de armazenamento, estaremos focando nas 4 camadas mais baixas – Transporte, Rede, Ligação de Dados e Físico. Ao longo desta seção, iremos nos referir às camadas inferiores como o TCP (camada de transporte), IP (camada de rede e parte da camada de ligação de dados) e Ethernet (parte da camada de ligação de dados e a camada física). Normalmente, a placa de interface de rede (NIC) executa as funções Ethernet e todas as outras funções são realizadas via software no servidor. Então, vamos recapitular rapidamente o que as camadas realmente fazem. Da camada 7 a 5, o pacote é apenas de dados. Na camada de transporte, os dados são fatiados em grandes blocos de dados conhecidos como segmentos. Uma vez que o endereço IP foi adicionado na camada 3, os dados são conhecidos como um pacote. Pacotes criados na camada 2 têm informações de endereçamento adicionadas, bem como a formatação do pacote para o transporte. Isso inclui adicionar verificação de detecção de erros para que a integridade dos dados possa ser verificada no destino final. Uma vez que todo o endereçamento e formatação foi realizado pela camada 2, o pacote é agora chamado de frame. Finalmente, os dados são colocados nos meios de transferência onde existem na forma de 1s e 0s representados por sinais elétricos, rádio, luz e digitais.

163 iSCSI - SCSI sobre IP iSCSI é uma alternativa ao Fibre Channel para a implementação de redes Fibre Channel (SANs)* e também é uma alternativa de transferência de dados em bloco para Fibre Channel, uma vez que reutiliza os recursos existentes do data center, tais como conexões Ethernet Gigabit e conectores de interface de rede (NICs). A maioria dos sistemas operacionais suportam drivers por software para iSCSI. Implementações de pequeno e médio porte muitas vezes implementam iSCSI com armazenamento de médio porte como uma solução econômica para aplicações não críticas. No entanto, iSCSI tem algumas desvantagens. O TCP/IP foi desenvolvido como um protocolo de passagem de mensagens e nunca foi projetado para lidar com altas concentrações de tráfego, como pode ocorrer em trocas de armazenamento de dados. O TCP/IP permite que os pacotes sejam descartados em redes congestionadas com recuperação realizada através da fila de tráfego e verificação se há alguma perda de pacotes antes de passar os dados para a aplicação ou iniciar uma retransmissão. A implementação de iSCSI tem a mesma abordagem que o Fibre Channel ao utilizar SCSI (o protocolo para conectar o armazenamento ligado diretamente – DAS) e colocando-o em camadas em cima dos protocolos TCP/IP utilizados para a conectividade de rede tradicional. Ao continuar a utilizar o protocolo SCSI, as tecnologias iSCSI e Fibre Channel minimizam a necessidade de mudança em muitos sistemas operacionais e aplicações existentes.

164 Usando o protocolo SCSI, o iSCSI também é capaz de utilizar I/O em bloco para transferências em alta velocidade ao invés de transferências com alta sobrecarga baseadas em arquivos, que é normalmente a maneira como os dados são trocados em uma rede LAN tradicional. O TCP realiza a recuperação de tráfego enfileirando tráfego e verificando se há alguma perda antes de passar os dados para a aplicação no servidor. Se algum dado está faltando, ele solicita uma retransmissão ao remetente ou inicia uma retransmissão. Este processo normalmente ocorre no software do servidor e, em condições de tráfego concentradas, a sobrecarga que o processo TCP coloca no servidor pode começar a impactar o desempenho da aplicação. Uma solução para isso é delegar as operações de carga TCP para a placa de rede – a NIC. Este tipo de descarga é conhecido como TOE – TCP Offload Engine. A transferência desta função para a NIC pode tornar o preço da placa de interface equivalente ao preço de uma HBA Fibre Channel. Ao implementar iSCSI, é importante lembrar que o alto volume de tráfego de armazenamento de dados na rede pode impactar o tráfego de transmissão de mensagens na LAN tradicional (rede local) e igualmente o tráfego local pode impactar a entrega de dados armazenados para o servidor. Essa questão é normalmente endereçada dando às conexões iSCSI seu próprio segmento dedicado (sub-rede) de uma rede LAN.

165 Sumário A implantação de uma solução baseada em iSCSI usando a tecnologia NIC padrão e a infraestrutura LAN existente pode ser uma solução econômica quando cargas de trabalho, congestionamento da rede IP e infraestrutura padrão são considerados e há espaço suficiente na rede para acomodar o requerimento. Isso inclui muitos dos ambientes menos intensos de carga de trabalho, como aplicações de back-office (RH, contabilidade, etc.). No entanto, se forem consideradas soluções de maior desempenho (aplicações de negócios de uma empresa), o aumento do custo da implantação de uma NIC com o TOE habilitado perde algumas das vantagens em custo. Nesse momento, talvez valha a pena considerar uma infraestrutura de conexão alternativa (ex. Fibre Channel) antes de se comprometer com uma implementação específica.

166 Fibre Channel over Ethernet (FCoE) O Fibre Channel over Ethernet foi projetado para usar 10 Gb Ethernet (ou velocidades mais altas como 40, 100, etc.) como meio de transporte para protocolos Fibre Channel. Essa técnica mapeia os frames Fibre Channel para os protocolos Ethernet padrão usando 10 GE como transporte. No entanto, existe uma potencial incompatibilidade com o Fibre Channel que requer um ambiente onde os frames não podem ser perdidos, enquanto em ambientes TCP/IP tradicionais são permitidas eventuais perdas de pacotes quando a rede está congestionada. Em uma seção anterior, nós usamos a analogia de Fibre Channel como um sistema ferroviário e redes TCP/IP-Ethernet sendo análogo a um sistema de rodovia. O sistema ferroviário permite entregas em ordem e sem perdas sobre rotas pré-determinadas, enquanto o sistema de rodovia não pode garantir que cada caminhão chegue na mesma ordem que deixou o depósito, ou que cada caminhão chegue ao seu destino (acidentes de trânsito rodoviário, etc.). Embora essa analogia não tenha uma correlação cem por cento, ajuda na comparação. Agora, se estendermos a analogia para colocar o Fibre Channel sobre Ethernet, estamos tentando cumprir um requisito (entrega em ordem e sem perdas) que o transportador nunca foi projetado para atingir.

167 A indústria tem enfrentado esse desafio usando a maior largura de banda de 10+ Gigabit Ethernet para permitir que alguns destes sejam usados exclusivamente para o Fibre Channel. Na nossa analogia, isto é semelhante ao alargamento de uma autoestrada com múltiplas faixas e com a capacidade de reservar algumas das faixas para o Fibre Channel quando necessário. No entanto, isso significa que todo o sistema de rodovias precisa estar ciente de que as faixas são reservadas, caso contrário, isso não é eficaz como um método de transporte fim a fim. Da forma como o FCoE foi implementado, os padrões 10 Gigabit Ethernet (e superiores) precisaram ser estendidos. As extensões para o padrão 10+ Gigabit Ethernet são conhecidas como Data Center Bridging (DCB). Estes padrões estendidos significam que o FCoE pode ser garantido como protocolo sem perdas usando o gerenciamento de largura de banda e priorização. Assim, os requisitos de entrega sem perdas podem ser mantidos. No entanto, isto só funciona através de links que suportam DCB em ambos as extremidades. Esses requisitos devem ser suportados por todos os dispositivos da rede. Como resultado, as implementações FCoE são tipicamente feitas para conectar racks de servidores a um switch Ethernet core, enquanto os dispositivos de armazenamento de dados permanecem conectados através do canal Fibre Channel nativo. O switch core é responsável pela conversão entre os dois protocolos.

168 O benefício dessa implantação resulta na redução do número de cabos em um rack de servidor (FC e TCP/IP requer apenas um cabo de 10+ GbE) – o que, por sua vez, reduz o custo e o potencial superaquecimento através dos cabos pela restrição do fluxo de ar. Em muitas implementações, a conexão 10+GbE (FCoE) termina no topo do rack (ToR) ou embaixo no rack que pode converter para canal Fibre Channel nativo, GbE ou continuar com protocolos 10+ GbE (FCoE). Esse dispositivo tem uma capacidade de switch padrão incorporado para permitir que diferentes protocolos sejam roteados corretamente. Um requisito adicional é que o GbE 10+ utilizado para o FCoE deve utilizar pacotes jumbo. Se voltarmos mais uma vez à nossa analogia, é como dizer que as cargas que foram carregadas pelo sistema ferroviário (Fibre Channel) são muito grandes para os caminhões padrões utilizados no sistema de rodovia (Ethernet), então caminhões maiores (Jumbo Frames) têm de ser utilizados. Isto é para impedir que a carga (frames Fibre Channel) sejam fragmentados em vários caminhões padrões (frames Ethernet) criando outra sobrecarga na velocidade com que a carga é capaz de ser movida da origem para o destino. * Abordado em mais detalhes em outra parte dessa publicação

169 Capítulo 5 Seção 5 Virtualização do Armazenamento em Rede Introdução De uma forma bem simples, virtualizar o armazenamento em rede significa organizar vários subsistemas de discos físicos em um ‘conjunto’ de recursos de armazenamento de dados que podem ser implementados, redistribuídos e gerenciados sem ter qualquer conhecimento de como os recursos físicos são arquitetados. Tradicionalmente, adicionar ou remover dispositivos de armazenamento significa desligar o servidor de aplicação, mudar os recursos de armazenamento de dados e ligar o servidor novamente. Atualmente nos data centers, esse tempo de inatividade é inaceitável do ponto de vista operacional. O uso de conjuntos de recursos de armazenamento de dados virtuais, ao invés de se gerenciar subsistemas de armazenamento físico individuais, permite que as alterações sejam feitas de forma mais eficiente e sem tempo de parada. Um novo storage pode ser adicionado para acompanhar as novas demandas de capacidade e as configurações de armazenamento podem ser alteradas para otimizar o desempenho, tudo isso feito sem desligar os servidores ou o storage. Separando a administração física do armazenamento (quais recursos físicos entram em quais conjuntos de armazenamento) da sua administração lógica (quais aplicações requerem quanto de armazenamento e de quais tipos), torna a implementação de recursos de armazenamento de dados mais simplificada para entregar os diferentes requisitos das aplicações. Por exemplo, um banco de dados poderia escrever um registro sem precisar saber nada sobre todos os processos que podem estar envolvidos na alocação real desse registro no espaço físico em disco. Quando consideramos um ambiente de nuvem, essa capacidade torna-se uma necessidade quando diferentes tipos de capacidade de armazenamento de dados e desempenho devem ser automatizados, rapidamente implantáveis e auditáveis.

170 Características da Virtualização de Armazenamento baseada em Rede Algumas das características que estão associadas com a virtualização de armazenamento baseada em rede são: Gerenciamento Simplificado da Capacidade de Armazenamento: a capacidade de armazenamento de dados pode ser simplesmente adicionada ou removida de um servidor de aplicação sem desligar o equipamento. Alocação Simplificada de Armazenamento: o usuário pode configurar o armazenamento em ‘discos virtuais’ que podem ser alocados aos servidores quando e onde a capacidade for necessária. Os servidores podem então retornar a capacidade para o conjunto de armazenamento quando não for mais necessário. Configuração Simplificada de Volume: os usuários podem expandir rapidamente discos virtuais on-line e configurar o armazenamento para um ambiente específico, como uma configuração on-line de RAID. Gerenciamento Simplificado de Dados: os dados podem ser facilmente gerenciados, copiados, espelhados e substituídos usando recursos de armazenamento disponíveis configurados em qualquer lugar do ecossistema de armazenamento em rede. Armazenamento Centralizado em Ambientes de Servidores Heterogêneos: servidores diferentes com sistemas operacionais diferentes (Windows, Linux, etc.) podem conectar- se e compartilhar um enorme conjunto de armazenamento de forma concorrente. Arquiteturas de Redes de Armazenamento Virtualizados Basicamente, a virtualização de armazenamento em rede é feita por software ou por um dispositivo de hardware que intercepta os pedidos de acesso do servidor de aplicação ao storage. Esse hardware ou software intermediário gerencia e traduz o endereçamento entre o armazenamento virtual (o que o servidor vê) e os dispositivos de armazenamentos físicos (a localização real). Este processo só traduz e manipula os metadados (informações sobre os dados) – neste caso o endereço dos dados – os próprios dados permanecem inalterados. Esse processo pode ser realizado em diferentes locais em um ecossistema de armazenamento em rede.

171 Virtualização baseada em servidor é implementada como software que roda no servidor. Isso é padrão para a maioria dos sistemas operacionais e é referido como um ‘gerenciador de volume’. No entanto, como algumas aplicações compartilham recursos de armazenamento e dados, a gestão centralizada é fundamental para evitar que um host tome uma ação que poderia afetar a integridade de todos os dados armazenados através da rede de armazenamento (por exemplo, dois servidores não podem ser autorizados a escrever no mesmo disco simultaneamente). Uma implementação de virtualização baseada em servidor é tipicamente a opção mais barata de implementar, no entanto é a mais difícil de gerenciar. É melhor implementado onde os servidores são homogêneos (mesmos sistemas operacionais, versões, revisões, etc.) e quando os dispositivos de armazenamento são heterogêneos (diferentes tipos de dispositivos de armazenamento – desempenho, capacidade, etc.).

172 Virtualização baseada em subsistema é realizada pelo próprio sistema de armazenamento (isso pode ser um controlador de RAID*). O subsistema de armazenamento divide seus discos físicos internos em pequenas partições e dinamicamente constrói volumes lógicos (discos lógicos) a partir desses pedaços menores. A metodologia utilizada no subsistema de armazenamento é proprietária e difere entre fornecedores. Ter a virtualização localizada dentro do subsistema de armazenamento pode significar que a capacidade de virtualização é limitada à sua capacidade de disco interno. No entanto, alguns fornecedores oferecem a capacidade de interconectar subsistemas de disco permitindo que os controladores internos comuniquem-se e tratem os discos em ambos os subsistemas como um único conjunto de capacidade de armazenamento. Isso requer que ambos os subsistemas sejam do mesmo fornecedor e compatíveis. A virtualização baseada em subsistemas é melhor implementada em ambientes onde os servidores são heterogêneos (Windows, Linux, etc.) e onde os dispositivos de armazenamento são homogêneos (mesma implementação de virtualização).

173 Virtualização baseada em rede é realizada com uma rede de armazenamento de dados (SAN). Há dois tipos de rede baseada em virtualização SAN, simétrica (in band) e assimétrica (out of band). In Band significa que os dados de metadados (informações de endereçamento) e os dados do usuário usam o mesmo caminho (band) - o principal caminho de dados. Out of band significa que os metadados (endereçamento, etc.) não trafegam através do mesmo principal caminho de dados (band) como trafegam os dados do usuário. Por exemplo, em uma implantação de virtualização de armazenamento em Fibre Channel out of band, os metadados poderiam trafegar separados do caminho de dados principal, através da rede LAN, enquanto os dados do usuário trafegariam através da rede Fibre Channel. No entanto, esta não é a única implementação, pois os metadados de controle também podem ser considerados out of band se eles trafegarem através de links Fibre Channel até o dispositivo de virtualização, mas percorre um caminho diferente para os dados do usuário através da rede do fabric Fibre Channel (este seria um exemplo de uma implementação in band, assimétrica de virtualização de armazenamento). Em uma Arquitetura de Virtualização Simétrica, o servidor requisita os dados diretamente do dispositivo de virtualização ou software. Esta plataforma de virtualização busca os dados do subsistema de armazenamento e passa-os para o servidor. Tudo isso é feito através da rede de armazenamento de dados (SAN). Soluções simétricas são, por definição, in band porque tanto os dados quanto os metadados trafegam pelo mesmo caminho sobre a SAN.

174 Em uma arquitetura de virtualização assimétrica, o dispositivo de virtualização é tipicamente conectado aos servidores através de uma LAN Ethernet. Os metadados (endereçamento, etc.) trafegam na LAN e os dados reais trafegam na SAN. Operacionalmente, a solicitação de dados do servidor para o dispositivo de armazenamento de dados é redirecionada (através da LAN) para o dispositivo de metadados (o dispositivo de virtualização). O dispositivo de metadados substitui o endereço lógico (onde o servidor pensa que está) pelo físico (endereço real) e retorna este metadado modificado para o servidor. O servidor então acessa diretamente o armazenamento físico. Isto é quase sempre uma arquitetura out of band. No entanto, também é possível ter uma solução de virtualização assimétrica in band. Neste caso, o servidor de metadados seria acessível através de um caminho separado na SAN.

175 Provisionamento Dinâmico O provisionamento tradicional de armazenamento aloca capacidade de armazenamento de dados baseado para as necessidades atuais e futuras (ninguém quer que o servidor pare de funcionar porque ficou sem espaço de armazenamento). Isto resulta na capacidade de armazenamento sendo alocada além das necessidades atuais, numa antecipação de uma necessidade crescente e uma maior complexidade dos dados. Consequentemente, a taxa de utilização é baixa e, como resultado, a capacidade de armazenamento permanece ociosa, desperdiçando o CapEx. O Provisionamento Dinâmico (Thin Provisioning) é uma técnica que aloca apenas os recursos de armazenamento físico para atender às demandas atuais, fazendo parecer ao servidor de aplicação que ele realmente tem muito mais capacidade (lógica) disponível. O provisionamento dinâmico utiliza a virtualização de storage para conseguir isso. A capacidade de armazenamento físico é adicionada ou removida dinamicamente sem que o servidor saiba. Por exemplo, vamos imaginar que o servidor tem 1 TB de capacidade de disco alocado, mas só usa 100 GB. Apenas 100GB de armazenamento físico seriam alocados, permitindo 900 GB de capacidade de armazenamento disponível para outros servidores e aplicações. Se o servidor inicial começou a se aproximar de 100 GB de uso, então outros 200 GB poderiam ser dinamicamente alocados, mesmo que o servidor ainda acredite que tem 1TB de capacidade de armazenamento disponível. Esta abordagem não só economiza em CapEx (reduz os gastos em capacidade de disco), mas também contribui para o OpEx através da redução de consumo de energia elétrica, menores requisitos de espaço de hardware e redução da geração de calor.

176 Virtualização de Armazenamento de Rede e ‘A Nuvem’ A habilidade de implantar e reimplantar ativos de armazenamento sem ter que reconfigurar fisicamente a infraestrutura é um requisito fundamental para uma entrega eficaz de serviços em nuvem. A forma como é feito e onde é feito dependerá de uma mistura de variáveis como custo (manter a entrega de serviço rentável), funcionalidade (pode abranger toda a nuvem ou apenas partes dela) e a variedade de equipamentos de fornecedores implantados (pode não funcionar da mesma forma criando problemas de compatibilidade). Este provisionamento e a implantação em tempo real podem significar que os recursos são otimizados e também criam o potencial para atender as especificações de requisitos de longo prazo dos clientes sem a necessidade de implantar ativos até que eles sejam realmente necessários. O cumprimento destes requisitos torna a virtualização de armazenamento de rede uma tecnologia fundamental para a nuvem. * Abordado em mais detalhes em outra parte dessa publicação

177 Capítulo 5 Seção 6 Armazenamento Conectado à Rede (NAS) Introdução No passado, a forma como o armazenamento era compartilhado entre servidores era ter um servidor dedicado, de uso genérico com armazenamento de dados de grande capacidade. Como esta comunicação era baseada em arquivos (enviando arquivos entre servidores sobre a LAN) ao invés de baseada em blocos (servidores se comunicam com dispositivos de armazenamento), o servidor que controlava o armazenamento tinha o nome ‘servidor de arquivos’. Os servidores de aplicação comunicavam-se com este servidor de arquivos através da rede local de dados (LAN). O appliance de armazenamento conectado à rede (NAS) substituiu o servidor de arquivos (neste contexto, um apliance é um equipamento de hardware separado com software/firmware integrado, concebido com propósito de fornecer um recurso de armazenamento de dados). Os appliances NAS também são referidos como NAS Filers. O NAS facilita o armazenamento e compartilhamento de arquivos tipicamente através de uma rede local de dados (LAN) e também permite que a capacidade de armazenamento em disco seja facilmente adicionada em qualquer lugar numa LAN. No entanto, conectar um appliance NAS a uma LAN existente pode causar congestionamento da LAN (grande aumento nos movimentos de dados) e, como resultado, o NAS é muitas vezes implementado no seu próprio segmento dedicado da LAN.

178 Um dos principais diferenciais entre DAS, SAN e NAS é que NAS transfere arquivos através da LAN e não opera no modo de Bloco I/O. Com o uso de conexão baseada em LAN e protocolos baseados em arquivos, admite-se que o tamanho, desempenho e a latência das transferências de dados não são críticas para o sistema, pois os prazos de entrega e os volumes de dados podem não ser garantidos. As SANs Fibre Channel, que utilizam transferências baseadas em blocos, oferecem transferências rápidas de um alto volume de dados, com a entrega podendo ser garantida em um determinado período de tempo. Quando uma organização está considerando alternativas para uma implantação de armazenamento em rede é importante que uma análise das cargas reais processadas seja realizada antes de escolher uma solução ao invés de outra. Um ambiente misto é muitas vezes apropriado para organizações maiores com uma variedade de cargas de trabalho e requisitos operacionais. Em geral, organizações de menor escala geralmente focam nas capacidades NAS, exceto onde a latência é uma questão importante. O Appliance NAS O appliance NAS não é apenas um dispositivo de armazenamento diretamente conectado à LAN, ele de fato tem um servidor otimizado contido dentro dele. Este servidor (por vezes referido como um NAS Head) normalmente executa um sistema operacional otimizado (funções não necessárias são removidas) que se comunica com outros servidores através da LAN e gerencia o subsistema de armazenamento de dados no appliance NAS. Alguns sistemas operacionais NAS usam versões modificadas de sistemas operacionais existentes como Unix/Linux ou Windows, com melhorias de desempenho para serviços de arquivos, enquanto outros usam um sistema operacional NAS especializado (tipicamente baseado em Linux). Toda a comunicação com os dispositivos de armazenamento de dados dentro do appliance NAS é através do NAS Head. Ao transferir as funções de gestão de dados e organização para o NAS Head, mais poder computacional é liberado no servidor de aplicação para executar suas funções primárias.

179 Sistemas de Arquivos NAS Para que um appliance NAS comunique com o servidor, ambos devem ser capazes de ‘entender’ os protocolos de troca de arquivos que ambos usam. Os appliances NAS normalmente suportam uma variedade de protocolos de troca de arquivos e os dois mais normalmente implementados são Sistema de Arquivos na Rede (NFS) e Sistema Comum de Arquivos na Internet (CIFS). O NFS é amplamente adotado como um padrão de rede e integrado na maioria dos servidores Linux/Unix. O CIFS é o protocolo de troca de arquivos da Microsoft e foi derivado de seu protocolo SMB (Servidor de Blocos de Mensagens). A maioria dos appliances NAS podem se comunicar com servidores baseados em NFS e CIFS simultaneamente. Armazenamento NAS Internamente, por trás do NAS Head, os dispositivos de armazenamento e conectividade podem variar muito entre fornecedores e conjuntos de produtos. Os subsistemas de armazenamento podem variar de um JBOD (apenas um conjunto de discos) até uma implementação de storage SAN baseado em Fibre Channel ou iSCSI. Os discos conectados podem variar de discos de alta qualidade, alto desempenho, como SSDs, até unidades de uso comum SATA. Dependendo dos sistemas de conexão e dispositivos de armazenamento usados, refletirá no preço cobrado pelos diferentes fornecedores.

180 Dados NAS O sistema que é usado para armazenar dados nos discos é uma implementação interna que não reflete necessariamente nenhum dos protocolos de troca de arquivos que o NAS Head usa para se comunicar com os servidores de Aplicação. Quando o NAS Head recebe um arquivo para ser escrito, ele o converte para seu próprio sistema interno de armazenamento. Quando o arquivo é acessado por um servidor, o protocolo de troca de arquivos requerido é reconstruído para transmissão na rede LAN. Este processo é a base de um dos principais pontos fortes do NAS. Um arquivo escrito em um protocolo de troca (por exemplo NFS) é capaz de ser lido em outro (por exemplo CIFS). Isto permite que o NAS se torne um repositório central para o compartilhamento de arquivos entre servidores heterogêneos. Por exemplo, se uma grande universidade tivesse uma pesquisa relacionada sendo conduzida em dois departamentos diferentes – um dos quais opera em um ambiente Windows e o outro é baseado em Linux – como eles compartilhariam suas descobertas? Através da implantação de um appliance centralizado NAS, arquivos podem ser armazenados em um lugar, mas acessados por ambos.

181 Expandindo o NAS Como o NAS tem um servidor integrado e independente, não há razão para que (se a energia do servidor estiver disponível) mais funcionalidades possam ser incluídas como parte da oferta do NAS. Por exemplo, como o NAS Head tem todos os ativos de armazenamento sob seu controle, a virtualização de armazenamento poderia ser implementada. Isso permitiria que a capacidade de armazenamento fosse dinamicamente implantada e reimplementada para os servidores de aplicação. Suporte para virtualização de armazenamento será dependente do fornecedor. Outro exemplo é a capacidade de descarregar o requisito de backup para o appliance NAS. Como o appliance NAS tem controle de todos os dados armazenados, implementar as funções do servidor de backup no NAS Head faria o processo de backup mais automatizado e transparente para o ambiente principal dos servidores de aplicações.

182 Algumas implementações NAS aproveitam o fato de que a conexão do NAS ao servidor é tipicamente baseada em Ethernet. Neste exemplo, eles projetaram a NAS Head para aceitar dados de bloco via iSCSI, bem como dados de arquivos do servidor de aplicação. O NAS Head aceita os dados de blocos iSCSI e escreve-os para o armazenamento como blocos. Isso permite que o NAS apareça como um dispositivo de armazenamento e compartilhamento de arquivos e um dispositivo de armazenamento para servidores de aplicação. O número de variações disponíveis realmente depende da exigência do mercado e da vontade dos fabricantes de implementar características como parte do appliance NAS.

183 NAS e \"A Nuvem\" O NAS tem vários atrativos para implantação em um ambiente de nuvem. Vamos primeiro considerar o que é provavelmente o maior tipo de uso da nuvem – backup de dados na nuvem. Vimos anteriormente que o appliance NAS tem um servidor integrado que pode ter uma funcionalidade mais ampla do que apenas um servidor de arquivos e uma destas funções é atuar como um servidor de backup – permitindo que o appliance NAS faça backup de seus próprios dados armazenados. No entanto, para fazer backup na nuvem, temos que ser capazes de entender o fato de que a conexão do appliance NAS e do dispositivo de backup na nuvem (por exemplo, fita) pode estar sobre longas distâncias e ser relativamente lenta. Para lidar com isso, precisamos de algum tipo de carregamento e uma maneira que isso possa ser alcançado é tirar uma cópia* de ponto no tempo (PiT) dos dados primários e, em seguida, enviá- los através de uma conexão (lenta) para a nuvem. Através da implementação da capacidade de tirar snapshots* no appliance NAS, podemos garantir que as melhores taxas de dados possam ser mantidas e o backup não tenha impacto nas operações locais.

184 É improvável que os clientes da nuvem tenham os mesmos sistemas operacionais e sistemas de arquivos em operação. Quando há uma diversidade de tipos de arquivos que estão sendo armazenados na nuvem ou sendo usados por aplicações que rodam na nuvem, um atrativo adicional para a implantação de NAS na nuvem é que se trata de um único appliance de armazenamento para arquivos criados por diferentes sistemas operacionais. Isso permite um único appliance armazenar, gerenciar e compartilhar arquivos de vários clientes.

185 Considerações sobre NAS Ao considerar uma solução baseada em NAS, é importante considerar os requisitos atuais e futuros de armazenamento de dados. Aqui estão algumas questões que devem ser analisadas antes de se comprometer com uma solução ou outra: • Carga de trabalho- está claro qual é a carga de trabalho atual e como ela pode mudar no futuro? - Que tipo de dado está sendo armazenado – isso seria melhor tratado por uma solução de armazenamento baseada em arquivo ou bloco? - Quão congestionada é a LAN atual? - Qual a probabilidade da carga de trabalho mudar ao longo do tempo? Existem novas aplicações ou processos de negócio sendo planejados? Estes sistemas são críticos (SAN pode ser melhor) ou operações usuais do dia a dia (NAS pode ser adequado)? • Uma vantagem percebida de uma solução NAS é a capacidade de utilizar recursos existentes. - Verificar se o cabeamento existente é capaz de suportar quaisquer atualizações de velocidade em toda a rede (por exemplo, 100BT/1GbE a 10GBE) que possam ser necessárias para manter níveis de desempenho aceitáveis. • Também é importante integrar a política de backup da organização com qualquer implantação de NAS. - Onde o backup será executado – localmente ou remotamente? - Com que frequência os dados armazenados no NAS precisam ter seu backup realizado? - Como será realizado o backup NAS? Ele vai impactar a LAN existente ou vai exigir um segmento específico dos recursos da LAN a ser alocado? - Quanto tempo levará o volume de dados armazenados no NAS para ter seu backup realizado? * Abordado em mais detalhes em outra parte dessa publicação

186 Capítulo 5 Seção 7 Conectividade Física e Conexão a Distância Introdução Quando se conectam redes SANs (Fibre Channel ou iSCSI), quer sejam interconexões internas ou a uma distância maior, para fins de recuperação de desastres/continuidade de negócios, o tipo de conexão física altera fundamentalmente as características do ecossistema. Realizar as conexões físicas de forma correta pode significar a diferença entre uma SAN de desempenho ótimo e uma rede propensa a erros devido ao seu desempenho ser degradado por repetições de acesso. O Fibre Channel tem um padrão (FC-0*) que especifica tipos de conexões entre as portas Fibre Channel e outro padrão (FC-BB-2) que especifica como os protocolos do Fibre Channel podem ser transportados através de uma ligação IP para conexões a longa distância. Este é conhecido como FCIP (Fibre Channel sobre Protocolo Internet), não deve ser confundido com FCoE*. Estes são padrões estabelecidos, embora as iniciativas de fornecedores e a tecnologia tendem a superar os padrões vigentes e muitas vezes podem ser usados para ganhar vantagem de mercado. Para distâncias máximas que podem ser alcançadas usando qualquer tecnologia ou protocolo em particular, é aconselhável referir-se aos padrões existentes ou material do fornecedor, uma vez que estes valores estão em constante evolução. Conectividade Física A conectividade física é provavelmente o aspecto menos compreendido e o pior implementado de qualquer SAN. Isto porque tem muito mais a ver com a física do que com a computação e até mesmo a terminologia pode ser uma barreira para que técnicos competentes tenham uma completa compreensão do que é necessário e por que isso faz diferença. Mesmo que o padrão de Fibre Channel permita conexões de fio de cobre entre as portas de canais de fibras, isso é normalmente implementado dentro de um gabinete para interconexão dos discos (FC-AL*), mas devido às distâncias muito curtas que podem ser alcançadas, antes que o sinal degrade, conexões externas são quase exclusivamente de fibra óptica.

187 Conectividade de Fibra Óptica Existem dois tipos básicos de fibra óptica, Fibra Multimodo (MMF) e Fibra Monomodo (SMF). Você às vezes vai ver em um cabo uma referência de 62,5/125, 50/125 ou 9/125. O 125 é o tamanho do revestimento da fibra. O tamanho da fibra de vidro define a sua eficácia operacional e o revestimento é para protegê-la e para parar a fuga de luz. A Fibra Multimodo (MMF) tem um diâmetro de núcleo maior do que SMF-50 µm (micrômetros) ou 62,5 µm. É menos cara do que fibra monomodo, mas suas propriedades físicas tornam-na inadequada para distâncias maiores do que algumas centenas de metros. Como resultado, a fibra multimodo é geralmente usada para curtas distâncias e é comum para interconectar portas de canais de fibras dentro de um data center. A MMF utiliza normalmente 850 nanômetros de comprimento de onda. A Fibra Monomodo (SMF) tem um menor diâmetro de núcleo de 9 µm e transporta apenas um único modo de luz através do núcleo de fibra. Isso o torna capaz de manter a integridade do feixe de luz em longas distâncias. A fibra monomodo é sempre usada para longas distâncias. Os custos de fabricação das SMFs são superiores às MMF, o que as tornam mais caras. Existem vários tipos de fibra monomodo, cada um com características diferentes que devem ser levadas em consideração ao implementar uma solução de extensão de Fibre Channel. A fibra monomodo funciona melhor em certas frequências de luz (cores). As primeiras versões da SMF eram muito eficazes em um comprimento de onda de luz (1310 nanômetros), mas ruins em outro comprimento de onda amplamente utilizado (1550 nanômetros). Um tipo diferente de SMF foi produzido, que acomodou ambos os comprimentos de onda, mas foi constatado ter um fraco desempenho no comprimento de onda usado pela DWDM (Multiplexação por Divisão de Onda Densa) (DWDM*) – 850 nanômetros. As ofertas mais novas de SMF funcionam eficazmente em todos os três comprimentos de onda. Então porque estamos te contando isto? É porque, a menos que você entenda como combinar a sua SMF com o seu ponto de conexão, você não pode esperar um desempenho ótimo de seu sistema como um todo.

188 Conectividade Física de Porta Fibre Channel Em uma fabric de Fibre Channel, as portas são conectadas às fibras ópticas usando pequenos transceivers (SFPs). Estes se encaixam em conectores montados na placa do circuito da porta Fibre Channel. Isso permite que diferentes SFPs sejam montados para atender diferentes requisitos de conectividade. Transceivers SFP estão disponíveis em uma variedade de tipos de transmissores e receptores, permitindo que os usuários selecionem o transceiver apropriado para cada link para atender as distâncias necessárias de transmissão. Módulos SFP estão comumente disponíveis para cabos de fibra óptica multimodo e monomodo. As SFPs multimodo podem ser identificadas por ter uma alavanca de retirada preta ou bege, enquanto a alavanca de retirada no SFP monomodo é azul. O SFP+ é uma versão otimizada do SFP e suporta taxas de dados de até 10 Gbit/s. O SFP+ suporta Fibre Channel de 8 Gbit/s e 10 Gigabit Ethernet.

189 QSFP QSFP é uma abreviação de Quad Small Form Factor Pluggable. O QSFP é um transceiver que se conecta em um switch ou HBA e possui 4 canais em uma única fibra ou cobre. Isso permite oferecer uma maior largura de banda agregando 4 conexões seriais. O QSFP+ evoluiu como o padrão para suportar taxas de dados mais elevadas sem nenhuma alteração no fator de forma e está substituindo o QSFP. O QSFP+ é independente de protocolo e pode ser usado para entregar Ethernet de 40 Gb/s (4 x 10 GbE) e até 128 Gb/s Fibre Channel (4 x 32Gb). O cabeamento QSFP+ pode ser fibra óptica ou cobre – cobre para uso em distâncias muito curtas (até 1 metro) e conexões ópticas sendo capazes de se conectar até 100 metros. O cabeamento pode ser de 1 a 1 ou o cabo pode ser construído para dividir os quatro canais em quatro conexões. Dividir em quatro conexões pode ser útil onde uma porta de switch pode se conectar a 4 nós – cada um rodando em até 32GB Fibre Channel. Isto economiza portas nos switches.

190 Estendendo o Fabric do Fibre Channel utilizando o FCIP O FCIP (Fibre Channel over IP) é um protocolo padrão para uso local ou remoto, transportando frames de Fibre Channel através de TCP/IP/Ethernet usando switches e roteadores Ethernet existentes. Isto o torna adequado para aplicações de redes de longa distância e de abrangência continental (WAN). O FCoE* (Fibre Channel over Ethernet) desempenha a mesma função. No entanto, como seu nome sugere, o FCoE só usa Ethernet, funcionando sem o elemento TCP/IP de uma conexão, o que significa que ele não pode usar protocolos de roteamento. Isto torna o FCoE mais adequado para conectividade local dentro de um data center. A combinação da capacidade do FCIP de rotear dados remotamente, enquanto o FCoE mantém os dados locais na mesma rede Ethernet, pode tornar esses protocolos atraentes para as organizações que desejam consolidar e gerenciar uma infraestrutura de rede comum. No entanto, é provavelmente difícil gerenciar e requer competências especializadas para implementar.

191 Operação do FCIP Operacionalmente, o FCIP é um protocolo de tunelamento que substitui um único ISL entre dois switches que normalmente não estão localizados perto um do outro. Ele é usado para conectar dois E Ports juntos em uma arquitetura que une redes separadas de Fibre Channel em um único fabric de Fibre Channel. Este processo é tipicamente realizado por um módulo específico, que é uma opção em um switch do tipo Fibre Channel director. Estes tipos de módulos possuem inteligência interna que o torna capaz de encapsular protocolos Fibre Channel padrão em FCIP e, assim, utiliza a rede TCP/IP/Ethernet como meio de transporte. Quando chega ao seu destino, os elementos de Fibre Channel TCP/IP/FCIP são retirados e o protocolo padrão Fibre Channel se mantém. Uma questão óbvia, que provavelmente será experimentada fazendo-se este tipo de conexão em distâncias maiores, é que haverá grande chance de ter latência no momento em que os sinais são transmitidos e recebidos. Alguns fornecedores incluíram recursos internos em seus módulos para mitigar este problema. Estes módulos podem incluir compressão FCIP e aceleração de escrita em FCIP, que otimiza a largura de banda na rede WAN, reduzindo a latência nas trocas dos comandos IP. Outro desafio com a fusão das duas redes em uma única rede é que ambos os sites têm acesso a toda rede SAN. Do ponto de vista da segurança, isso pode ser um problema, pois o site principal provavelmente terá dados e processos que deveriam permanecer privados. Alguns fornecedores também suportam iSCSI. Este é um protocolo alternativo para estender as SANs. No entanto, gerenciar uma rede estendida iSCSI pode exigir competências e configurações específicas. Uma resposta a isso é criar fabrics lógicos* (VSAN, LSAN, etc.) e dividi-los em grupos lógicos isolados de operação. Estes fabrics lógicos podem conectar o link fornecido pela conexão FCIP e

192 permite que a rede seja segmentada para atender a diferentes necessidades organizacionais. Este é um caso específico de uma organização que pretende aproveitar os serviços de nuvem, sem que haja qualquer potencial comprometimento com a segurança. Tecnologias de Conexão a Longa Distância Existem vários métodos para se estender fabrics de Fibre Channel a longas distâncias através de redes ópticas. A escolha das tecnologias mais apropriadas, que podem fornecer uma solução viável de conectividade a longa distância, depende de uma série de variáveis - incluindo a disponibilidade e o custo das tecnologias. Fibre Channel Nativo sobre ‘Fibra Apagada’ O termo ‘fibra apagada’ normalmente se refere ao cabo de fibra óptica que foi passado, mas permanece desligado ou não utilizado. Este é o método mais simples (basta conectar duas portas através de um cabo dedicado de fibra óptica), porém não é necessariamente o método que tem o melhor custo. Se uma organização decide por esta abordagem, será preciso realizar a conexão diretamente na fibra apagada usando transceivers SFP* para longa distância.

193 Multiplexação por Divisão de Onda O DWDM (Multiplexação Densa por Divisão de Comprimento de Onda) foi otimizado para redes de alto desempenho e alta capacidade e longas distâncias. O DWDM é adequado para grandes empresas e prestadores de serviços que tem um modelo de negócio de aluguel de fibra óptica apagada ou comprimentos de onda aos clientes. O DWDM é um protocolo neutro - ele pode trafegar Fibre Channel, IP ou qualquer outro protocolo. Ele não requer mapeamento ou tradução de protocolo – por exemplo, ele apenas transporta nativamente Fibre Channel e não requer protocolos intermediários, como o FCIP. Com o DWDM, múltiplos canais de protocolo nativo são multiplexados em um único par de fibra óptica, usando um comprimento de onda de luz diferente (cor) para cada canal. Por exemplo, se uma plataforma DWDM suporta 64 comprimentos de onda em uma fibra, então seria possível carregar nela 64 ISLs de Fibre Channel. É improvável que 64 ISLs sejam necessários e isso permite que qualquer comprimento de onda não utilizado possa ser usado por outros protocolos (tais como IP). O DWDM permite que volumes elevados de armazenamento e de tráfego de dados na rede sejam estendidos de forma transparente e econômica em distâncias ponto a ponto de até 250 km. Não são necessárias alterações nos SFPs* e são utilizadas conexões padronizadas. O DWDM é uma opção relativamente cara, a menos que todos os canais disponíveis sejam utilizados. O equipamento DWDM pode ser configurado para fornecer um caminho de proteção em caso de falha do enlace.

194 O CWDM (Multiplexação Espaçada por Divisão de Comprimento de Onda) provê o mesmo meio óptico de transporte e mesmas características do DWDM, porém com suporte a um menor número de comprimentos de onda (cores), fazendo que o custo seja mais baixo. O CWDM é geralmente utilizado para distâncias mais curtas (normalmente 50 a 80 km) e usa fontes de luz com especificações mais baixas (menor custo). A maioria dos dispositivos CWDM irá suportar até 8 ou 16 canais. O CWDM geralmente opera a uma velocidade de transmissão mais baixa do que os sistemas DWDM topo de linha - tipicamente até 4 Gigabit/seg. As soluções CWDM são geralmente implantadas usando SFPs* CWDM, que são como qualquer transceiver padrão usado em switches Fibre Channel, exceto pelo fato de que eles transmitem em um comprimento de onda específico (cor). Cada comprimento de onda é então colocado em uma única fibra através do uso de um multiplexador CWDM. O multiplexador CWDM é um dispositivo relativamente simples e barato. Um multiplexador CWDM é tipicamente um dispositivo passivo, sem alimentação e é essencialmente um prisma muito preciso que simplesmente refrata a luz recebida de cada uma das SFPs coloridas em uma única fibra. Synchronous Optical Network (SONET) e Synchronous Digital Hierarchy (SDH) A SONET e a SDH são normas para a transmissão de informação digital através de redes ópticas e têm sido utilizadas para transportar voz, vídeo, dados e armazenamento de corporações através de redes locais e metropolitanas. A SONET e SDH são particularmente adequadas para transportar tráfego de armazenamento de missão crítica da empresa. Sua latência é determinística e consistente. * Abordado em mais detalhes em outra parte dessa publicação

195 Capítulo 6 Seção 1 - Uma Introdução às Técnicas, Tecnologias e Terminologias de Proteção de Dados A proteção de dados é um conjunto de técnicas e tecnologias utilizadas para garantir que os dados armazenados permaneçam seguros e disponíveis. Uma organização deve analisar quais políticas de retenção de dados devem se aplicar (que dados podem ser ‘perdidos’, sem afetar significativamente as operações da organização, e o que nunca pode ser ‘perdido’, por razões legais), a fim de produzir um requerimento eficaz de proteção de dados. A proteção de dados tem o seu próprio vocabulário e terminologia. Nesta seção, apresentaremos de forma resumida algumas delas. Recuperação de Desastres e Continuidade do Negócio (DR/BC) A Recuperação de Desastre (DR) geralmente se refere à recuperação e acesso a dados operacionais, a partir de um determinado ponto no tempo, após uma perda total ou parcial de um data center. Isto envolve todos os dados, hardware e software essenciais necessários para manter o processamento desses dados e transações. A Continuidade do Negócio (BC) refere-se a processos e procedimentos para garantir a continuidade das operações de negócio, enquanto uma recuperação completa é implementada. A diferença essencial entre estes dois processos é que a recuperação de desastres concentra-se em retornar o data center em um determinado ponto no tempo, enquanto a continuidade dos negócios concentra-se em manter as operações enquanto o processo DR é realizado.

196 Objetivo de Ponto de Recuperação (RPO) e Objetivo de Tempo de Recuperação (RTO) Existem duas medidas que estabelecem os requerimentos do DR/BC. Tratam-se do Objetivo de Ponto de Recuperação (RPO) e do Objetivo de Tempo de Recuperação (RTO). O RPO determina a quantidade de dados que podem ser perdidos. Isto é ponderado entre o custo de se implementar uma estratégia DR/BC e o custo da perda de dados. Trata-se muito mais uma decisão de negócio do que uma questão de tecnologia, já que o custo torna-se quase exponencial quanto mais perto se está do ponto em que não se perde dados. O RTO determina quanto tempo o seu ambiente pode ficar parado até que seus dados e sistemas sejam recuperados. Mais uma vez, trata-se de uma análise de custo/benefício, uma vez que a rapidez com que a empresa precisa voltar a operar é uma decisão de negócio. É importante lembrar que o RPO e o RTO não podem ter a mesma métrica de tempo para toda a empresa. Provavelmente, o RPO e o RTO irão variar com base na aplicação envolvida. Por exemplo, se o departamento de Recursos Humanos de uma organização fica fora de operação por 24 horas, é provável que haja um impacto mínimo nos negócios da empresa, mas se as atividades críticas para o negócio, como o registro de vendas e entregas, ficarem paradas por apenas 1 hora, o impacto para o negócio pode ser bastante significativo. Devemos também ter em mente que alguns dados não podem ser perdidos de maneira alguma, por exemplo, dados financeiros e de assistência médica. Em muitos casos, existem requisitos legais e regulatórios e, nestes casos, as aplicações associadas devem ter RPOs muito baixos; no entanto, elas também podem ter um RTO bem elevado, em comparação com o RPO. Isto porque estas aplicações devem ser 100% recuperadas, mas não imediatamente. Da mesma forma, algumas aplicações podem ter RPOs bastante altos, mas devem ter um RTO muito baixo. Um exemplo disso seria um servidor web que suporta um site de e-commerce que pode perder milhões de dólares a cada minuto que está fora do ar.

197 Backup e Restore A atividade de backup e Restore refere-se à criação e retenção de cópias alternativas de dados a serem usadas durante um processo de restauração de dados (específicos ou completos) do sistema, após uma falha completa do sistema ou uma simples perda de dados. O backup é uma cópia de dados definida em um ponto no tempo (PiT). Normalmente, uma cópia completa dos dados é feita, com a opção de alterar posteriormente partes destes dados. Estas alterações posteriores podem modificar os dados iniciais que foram submetidos a um backup, ou podem ser armazenados separadamente e recombinados com o backup inicial, caso seja necessário para um Restore. Os dados de backup são armazenados em mídias distintas dos dados primários e, de preferência, mantidos em um local diferente. Existem quatro tipos principais de processos de backup, cada um com suas próprias características e recursos (estas são tratadas com mais detalhes em outra parte desta publicação). Backup completo - copia 100% dos dados originais para um dispositivo ou local alternativo. Backup Incremental - neste caso, só será feito o backup dos dados que mudaram desde o último backup. Um exemplo seria fazermos um backup completo no domingo. O backup incremental da segunda-feira conterá apenas as mudanças feitas a partir do backup completo do domingo. O backup incremental da terça-feira conterá apenas as mudanças feitas a partir do backup incremental da segunda-feira. O backup incremental da quarta-feira conterá apenas as mudanças feitas a partir do backup incremental da terça-feira. Então estamos construindo camadas de backups incrementais, cada uma dependendo das outras estarem disponíveis. Quando fazemos um Restore, temos que restaurar o backup completo mais recente e, em seguida, todos os backups incrementais subsequentes em sequência. Se, por exemplo, perdêssemos o backup incremental da quinta-feira, não conseguiríamos restaurar os dados da quarta-feira anterior. Portanto, qualquer mudança na quinta e na sexta-feira estaria perdida. A recombinação das alterações incrementais dos dados com o backup inicial completo pode causar um aumento no consumo de recursos do sistema em uma necessidade de um Restore. O benefício de se usar backup incremental é que ele reduz o tempo de backup pois apenas os dados alterados são enviados para o dispositivo de backup.

198 Backup diferencial - copia todos os dados alterados desde o último backup completo. Isto é diferente de um backup incremental em que há apenas uma camada de dados alterados. Assim, um Restore só requer o último backup completo e o último backup diferencial feito. Por exemplo, se fizermos um backup completo no domingo, o backup diferencial de segunda- feira conterá todas as mudanças feitas desde domingo. O diferencial de terça-feira conterá todas as mudanças desde domingo. O diferencial de quarta-feira conterá todas as mudanças desde domingo. Desta forma, os backups diferenciais ficam cada vez maiores. Não existe uma dependência de recuperação de vários backups sequenciais, então, quando fazemos um Restore, restauramos apenas o backup completo e o diferencial mais recente. Assim, se perdermos o diferencial de quarta-feira ainda podemos restaurar o de quinta-feira porque não precisamos do backup de segunda, terça, quarta-feira (recapturamos todos esses dados). Backup progressivo - combina os benefícios do backup incremental e do Restore diferencial. Ele usa um banco de dados para acompanhar as mudanças e só restaura a última versão de um arquivo – não todas as alterações. Normalmente, o backup é semicontínuo e os dados são progressivamente salvos pouco depois que são escritos para o dispositivo de armazenamento primário. Alguns fornecedores implementam esta funcionalidade fazendo um backup completo apenas uma vez e, em seguida, todos os backups subsequentes são incrementais ou progressivos. Componentes Funcionais dos Softwares de Backup Quando estamos fazendo um backup, normalmente temos 3 componentes de backup. Eles podem rodar de maneira consolidada em um servidor (um host) ou eles podem rodar em dispositivos separados, dependendo do que está sendo feito de backup e do tamanho da organização. O servidor de backup (às vezes chamado de servidor mestre, o scheduler mestre) aloca o recurso e, então, essencialmente controla a programação. Ele também será responsável por catalogar informações, tais como o local onde os dados são armazenados e onde as fitas individuais estão localizadas. O cliente de backup é executado na aplicação ou no servidor de arquivos. Isso vai identificar quais os dados precisam de backup (arquivos, blocos, etc.). O servidor de mídia (também conhecido como servidor de biblioteca, host de montagem, servidor tutor) controla a escrita dos dados para a mídia física (por exemplo, para uma fita ou fita virtual). Se houver apenas um servidor na organização com uma fita diretamente conectada a ele, todos os 3 componentes funcionais serão executados nesse único servidor. Essas funções podem ser separadas com o crescimento de uma organização para vários servidores.

199 Esquemas de Rotação de Backup Um esquema de rotação de backup determina como e quando cada parte de armazenamento removível é usada e por quanto tempo ela é retida, uma vez que ela tem dados de backup armazenados. O esquema GFS (Grandfather-father-son/Avô-pai-filho) é uma metodologia de rotação bastante comum. Tipicamente, três conjuntos de backups são definidos, por exemplo, filho diário, pai semanal e avô mensal. Os backups diários são rotacionados em uma base diária mudando-se para o status de pai a cada semana e, a cada mês, o backup da última semana (pai) muda para se tornar o backup mensal (avô). O método de rotação das Torres de Hanói é baseado na matemática do quebra-cabeça da Torre de Hanói. Ele permite que os dados possam ser restaurados a partir de backups de um, dois, quatro, oito e dezesseis dias, usando apenas cinco fitas. Esta técnica é menos popular pelo fato de que poucas pessoas as entendem - mas é muito eficiente para o uso de fita.


Like this book? You can publish your book online for free in a few minutes!
Create your own flipbook