Important Announcement
PubHTML5 Scheduled Server Maintenance on (GMT) Sunday, June 26th, 2:00 am - 8:00 am.
PubHTML5 site will be inoperative during the times indicated!

Home Explore Fundamentos de Redes de Armazenamento

Fundamentos de Redes de Armazenamento

Published by SNIA Brasil, 2019-06-12 07:43:28

Description: Livro do programa acadêmico SNIA Brasil

Keywords: SNIA

Search

Read the Text Version

100 Desduplicação dos Dados no Caminho A abordagem alternativa é ter uma plataforma dedicada no caminho de backup que consiga lidar com a desduplicação ao mesmo tempo. Isso efetivamente centraliza o processo. Os benefícios aqui são que esta plataforma fornece o poder de processamento para a desduplicação, e com isso não requer quaisquer mudanças nos softwares instalados nos servidores, sendo efetivamente transparente para o usuário. A desvantagem desta abordagem é que um equipamento intermediário tem o potencial de se tornar um ponto único de falha. Isto pode ser mitigado pela existência de dispositivos redundantes com balanceamento de carga e chaveamento automático em caso de falhas entre eles. Embora isso dê proteção adicional, evitando também que um único dispositivo se torne gargalo no desempenho, os custos aumentam, reduzindo a economia obtida no processo da desduplicação.

101 Dispositivos de Armazenamento com Desduplicação Embarcada Muitos fabricantes de dispositivos de armazenamento oferecem a desduplicação incorporada num subsistema. No entanto, nem todos implementam a solução da mesma forma. Alguns fabricantes veem isso como uma função pós-processo. Isto significa que os dados são armazenados sem a desduplicação, que ocorre em segundo plano, uma vez que os dados já foram gravados. O outro método é basicamente ter um dispositivo embutido de desduplicação intermediária (in- line), executando a desduplicação depois que o dado foi recebido pelo dispositivo de armazenamento, e antes que tenha sido gravado efetivamente em disco. Nos dois casos, a metodologia utilizada dependerá da forma que cada fornecedor concebeu o método de desduplicação. No entanto, este tipo de desduplicação intermediária tende a ser usada no bloco enquanto outras técnicas de processamento ocorrem após armazenamento em arquivo (que requer significativamente mais poder de processamento e tempo). Implementações in-line e pós-processadas podem ser usadas tanto com subsistemas de armazenamento baseados em fita quanto em disco.

102 Usando Desduplicação para Armazenamento Primário (Dados de Produção) A desduplicação tem sido tradicionalmente implementada como uma operação de pós- processamento nos dispositivos de armazenamento com dados de produção. Esta estratégia de implantação escreve dados no disco em tempo real, em seguida executa os passos de desduplicação nos períodos que o sistema de armazenamento esteja menos ocupado, minimizando a chance de impactar o desempenho das aplicações. No entanto, à medida que o poder de processamento aumenta e o custo da memória diminui, alguns ambientes estão sendo reavaliados para o potencial da desduplicação in-line nos dispositivos de armazenamento primário (dados de produção). Existem agora algumas evidências que, se pudermos fazer o processo da desduplicação de forma mais eficiente, o custo do processamento adicional é compensado no ganho, em virtude da redução de dados que precisam ser armazenados em disco. Uma consideração sutil é se os dados de produção serão armazenados em RAID 5 ou RAID 6. Cada dado escrito requer um cálculo de paridade na controladora RAID – assim a redução da quantidade de dados sendo escritos reduz o número de cálculos de paridade, minimizando o tempo gasto de escrita para cada grupo de RAID. Cada passo extra eliminado faz com que o subsistema de armazenamento torne-se, de forma geral, mais eficiente. SSD e Desduplicação À primeira vista, SSD e desduplicação são tecnologias improváveis de coexistirem, com SSD implantado para maximizar o desempenho de armazenamento e desduplicação focada na redução dos custos de armazenamento por meio de eficiência. A preocupação óbvia será o impacto na performance que a desduplicação teria sobre o SSD, dado que a desduplicação é tradicionalmente implantada para tarefas de backup ou a nível de arquivo, implantada com técnicas de pós-processamento, de modo a não interferir com leitura e escrita de dados ativos ou de produção. Como já discutimos anteriormente, usar desduplicação para dados ativos em dispositivos de armazenamento em produção tornou-se uma opção devido à velocidade da tecnologia de processamento atual. No entanto, isso tem sido tipicamente usado em dispositivos de armazenamento em produção com tecnologia HDD, pois o processamento adicional de desduplicação é compensado pela redução do

103 número de operações eletromecânicas de escritas, relativamente lentas, que precisam ser realizadas. No entanto é improvável de ser aplicado em discos SSDs, onde a leitura e a escrita são realizadas a velocidades eletrônicas. Uso de desduplicação e SSD Uma das primeiras considerações com o SSD é se o máximo desempenho do SSD está realmente sendo usado. Ter um disco ultrarrápido não significa que o servidor e a aplicação podem tirar o máximo proveito deste nível de desempenho. Em ambientes onde o SSD é considerado apenas como um HDD ultrarrápido, o SSD não é aproveitado em todo o seu potencial, então o processamento adicional da desduplicação pode ser compensado pelo ganho de espaço, sendo este processamento adicional transparente numa visão final. A vantagem disso é que a capacidade de armazenamento do SSD, relativamente cara, pode ser utilizada de forma mais eficiente, reduzindo custos.

104 A desduplicação pode ter outro benefício quando usada com SSD, podendo prolongar a vida útil do dispositivo. A maioria dos SSDs têm um número limitado de operações de escritas aceitáveis, que influenciam na redução do tempo de vida útil previsto, tornando-os cada vez menos confiáveis. Isto é muitas vezes referido como o write cliff, quando a degradação acontece inesperadamente. Os fabricantes utilizam vários métodos para prolongar a vida útil do SSD, tais como detecção de erros e técnicas de correção. Como eles podem mascarar a deterioração do SSD, isto só disfarça o problema, sem resolvê-lo. A melhor maneira de estender a vida útil de um SSD é reduzir o número de operações de escritas que ele sofre, o que agrega valor para desduplicação. SSDs são dispositivos de armazenamento relativamente caros e prolongar sua vida útil contribui para reduzir CapEx nos data centers.

105 Capítulo 4 Seção 1- Fundamentos de Fitas Há muito tempo existem pessimistas que preveem o desaparecimento iminente da tecnologia em fita. No entanto, ela continua cogitada nos dias de hoje e vem ganhando força. A razão para isso é por conta do atributo particular que a tecnologia de fita possui em relação aos sistemas de armazenamento baseados em disco, o fato da mídia e os dispositivos mecânicos serem independentes. Se um disco falhar, os dados nele armazenados são perdidos na mesma hora. Isto pode implicar em ter sistemas de proteção de dados, tais como paridade e duplicação para evitar a perda de dados, com um custo adicional em qualquer solução de armazenamento de dados. Se um drive de fita vir a falhar, podemos simplesmente mover a fita para outro dispositivo e dar prosseguimento. Com o conteúdo armazenado em uma mídia que é separada dos dispositivos mecânicos de leitura e gravação, a fita torna-se a tecnologia ideal para baixa latência, desde que os dados não precisem estar disponíveis instantaneamente e que seja aplicado em alto volume de dados, tais como arquivamento. Um mecanismo pode gerar múltiplas fitas de dados que podem ser armazenadas separadamente, tornando esta abordagem tanto econômica quanto potencialmente segura. No entanto, não devemos esquecer que o armazenamento de fita não está completamente livre de alguns desafios. Para o armazenamento de longo prazo, a mídia da fita e os dados armazenados nela podem deteriorar-se e não deve ser assumido que os dados ali arquivados não necessitarão de mais manutenção. Há também a questão do formato em que a fita é escrita. Os formatos tendem a desaparecer ao longo do tempo, por exemplo, quantas fitas de música com 8 trilhas você conseguiria reproduzir nos dias de hoje? Os aparelhos não estão mais disponíveis. Não é apenas a fita. Quantas pessoas podem recuperar dados dos antigos disquetes de 8 polegadas ou Zip drives? A manutenção de dados a longo prazo requer o acompanhamento de uma estratégia. Gravando dados em fita Para sistemas de fita de leitura e escrita, a mídia de gravação deve mover-se sobre uma cabeça, da mesma maneira que o disco gira sob a cabeça de leitura/escrita num HDD. A principal diferença entre as duas técnicas de gravação de fita é como este movimento entre a cabeça e o meio de gravação é executado e como isso resulta em dois métodos diferentes de gravação em fita.

106 Gravação Helicoidal O primeiro deles é conhecido como ‘Helicoidal’. Esta técnica de gravação é semelhante à forma que um videocassete doméstico opera com fitas VHS (Video Home System). As cabeças de leitura/gravação fazem parte do equipamento e a fita está dentro de um cartucho que possui bobinas de abastecimento (supply) e recolhimento (take-up), permitindo à fita se mover entre as cabeças. A fita é retirada do cartucho e enrolada em torno das cabeças de leitura/gravação, ajustando a tensão com os rolos. Quando o final da fita é atingido, o cartucho pode ser removido ou rebobinado, pronto para uso futuro. Uma característica desta técnica é que a cabeça de leitura/gravação gira. Isto permite que a fita se mova mais lentamente entre bobinas, à medida que a cabeça giratória ajuda a criar o efeito da fita, movendo-se muito mais rápido do que realmente é. A vantagem de uma fita em movimento lento é que reduz o impacto do desgaste da fita devido ao efeito abrasivo da fita, movendo-se através da cabeça.

107 Gravação Linear A segunda forma de gravação é conhecida como ‘Gravação Linear’. Com ela, as cabeças de leitura/gravação são parte do mecanismo, mas na maioria dos casos possuem também a bobina de recolhimento (take-up reel). Apenas a bobina de abastecimento (supply) é fornecida como parte do cartucho, minimizando os custos de fabricação dos mesmos. Com esta técnica de gravação, a fita é puxada do cartucho e enrolada nas bobinas de recolhimento (take-up reel), dentro do equipamento. A fita passa através da face das cabeças de leitura/gravação sem tocar, o que torna este formato de gravação menos abrasivo. Os dados são posicionados ao longo do comprimento da fita, gravando uma única faixa de cada vez, em oposição à técnica helicoidal de gravação de dados que é posicionada na diagonal através da fita. Quando o fim da fita é alcançado, a direção é revertida e continua a escrever mais faixas na direção oposta. Quantas faixas podem ser escritas na fita e a forma como os dados são gravados (usando técnicas de compressão, etc.) define a capacidade da fita. Quando o fim da fita é alcançado, ela já é rebobinada automaticamente e pode ser removida ou está pronta para uso futuro.

108 Shoe-Shining (engraxate) Uma opinião comum é que a tecnologia de fita é mais lenta do que os HDDs. No entanto, a premissa básica do uso de uma cabeça de gravação e meios magnéticos são muitos parecidos. Se nós pudermos entregar dados rápido o suficiente para manter a fita movendo-se sobre a cabeça de gravação (streaming), as fitas podem realmente ser mais rápidas para grandes volumes de dados, pois não levam tempo para reposicionar as cabeças (é por isso que a indústria geofísica usa fitas como uma tecnologia de captura ao recolher os primeiros dados de testes de choque sísmico para petróleo e minerais). No entanto, se a taxa contínua de dados para fita não puder ser mantida, então cada vez que os dados param de chegar, a fita avança além do ponto, tem que parar e se reposicionar para estar pronta para quando os próximos dados chegarem. O reposicionamento de fita entre rajadas de dados é conhecido como shoe-shining ou engraxate (imitando o movimento para engraxar um sapato). Esta é a principal razão pela qual os discos oferecem um desempenho maior do que as fitas em muitos ambientes e também por que manter as taxas de dados contínuas durante um backup pode reduzir a janela de backup. Isto significa que é essencial para o usuário entender a natureza dos dados que estão sendo registrados. Ou seja, não existe solução única. Se o fluxo de dados é ininterrupto, então fita é uma boa tecnologia para a gravação de dados. Se os dados são casuais, então a fita será menos eficaz.

109 Capítulo 4 Seção 2 - Linear Tape Open (LTO) LTO (Linear Tape Open) Atualmente o formato de fita mais amplamente utilizado é conhecido como LTO, que é um acrônimo de fita linear aberta (em inglês Linear Tape Open). Como o nome sugere, usa técnicas de gravação em fita lineares baseadas em padrões abertos, controlada pelo consórcio LTO. É uma solução de armazenamento desenvolvida e mantida pela Hewlett Packard Enterprise, IBM e Quantum, promovido através do programa LTO. É também um formato aberto, licenciado por alguns dos nomes mais proeminentes na indústria de armazenamento, para garantir uma ampla gama de unidades de fitas e cartuchos compatíveis. O fator de forma padrão do LTO leva o nome Ultrium. Suas gerações variam desde LTO-1 que foi lançado em 2000 até a sétima geração, LTO-7, lançada em 2015, todos baseados no mesmo tamanho do cartucho de mídia. Cada geração de LTO suporta maior capacidade e inclui um conjunto de recursos em evolutivos, como: compressão, criptografia, WORM (Write Once Read Many) e particionamento – itens que serão abordados logo mais. Os dispositivos de gravação e leitura dos dados na mídia de fita vêm em dois fatores de forma: altura total e meia altura. Altura total e meia altura referem-se ao tamanho do dispositivo e não às mídias utilizadas. Ambos fatores de forma suportam as mesmas mídias, capacidade e funcionalidade da geração LTO que são projetados para suportar.

110 Cada geração de LTO suporta maior capacidade e inclui um conjunto de recursos em evolutivos, como: compressão, criptografia, WORM (Write Once Read Many) e particionamento – itens que serão abordados logo mais. Já estão previstos os lançamentos de LTO-8, LTO-9 e LTO-10. Como a mídia de fita não está diretamente associada a nenhum dispositivo (como no caso do HDD), o desafio para a tecnologia de fita é quando existe a necessidade de se fazer um upgrade, de forma a garantir que os dados existentes em fita continuarão sendo lidos. A LTO lida com este desafio, fornecendo compatibilidade com as gerações anteriores, sendo capaz de ler as fitas de duas gerações anteriores e, adicionalmente, escrever nas fitas de uma geração anterior. Criptografia A partir da LTO-4, a tecnologia LTO suporta criptografia, o que é particularmente importante, uma vez que as fitas são normalmente armazenadas separadamente do dispositivo, o que torna os dados armazenados vulneráveis, a menos que a criptografia seja aplicada. Compressão A compressão é um opcional na tecnologia LTO. Todas as tecnologias atuais oferecem isso, mas é uma decisão do usuário de implantar este recurso. A compressão é realizada pelo dispositivo, o que alguns consideram uma sobrecarga para os mesmos, quando os dados são gravados ou lidos na fita, embora, em muitos casos, seus fabricantes contestem isso. As especificações dos fabricantes para dispositivos LTO tendem a ser baseadas na capacidade comprimida e taxas de dados transferidos por escrita ou leitura dos dados comprimidos. Este posicionamento é devido à quantidade de dados efetivamente na fita ser menor do que a quantidade de dados que estão sendo transferidos de ou para o servidor.

111 Até LTO-5 (5ª geração), a taxa de compressão foi especificada em 2:1. A partir de LTO-6 (6ª geração), a taxa de compressão foi especificada em 2,5:1. Agora, uma nota de atenção. Os números abaixo são especificados pelos fabricantes, mas nem todos os dados podem ser comprimidos. Por exemplo, imagens padrão JPEG e vídeos MPEG já são comprimidos e não podem ser comprimidos novamente. Assim, as taxas de compressão obtidas dependerão dos dados que estão sendo armazenados na fita. Quando a funcionalidade de criptografia é usada com compressão, a compressão é sempre realizada antes da criptografia ocorrer. WORM (Write Once Read Many) Muitas jurisdições de conformidade e regulação exigem que os dados arquivados sejam escritos de tal forma que não possam ser alterados ou que qualquer alteração seja registrada. A capacidade do WORM da LTO ajuda a resolver estes regulamentos de conformidade, garantindo que os dados, uma vez escritos, não possam ser alterados. Ela consegue isso pela memória dentro do cartucho, em conjunto com a codificação de baixo nível que é gravada na mídia da fita, no momento da fabricação, para evitar adulteração. Particionamento As gerações recentes de tecnologia LTO incluem uma característica de particionamento. O particionamento permite que uma parte da fita seja reservada para ponteiros, que diz a unidade precisamente onde na fita um arquivo está armazenado. Uma segunda partição contém os dados reais do arquivo. Este recurso requer o uso de software Linear Tape File System (LTFS) no servidor. O LTFS lê a informação do ponteiro na unidade LTO e apresenta-a num formato simples e fácil de usar, que permite funcionalidades de drag and drop.

112 Capítulo 4 Seção 3 - Dispositivos de Armazenamento em Fita Autoloaders - Carregadores Automáticos O autoloader é a terminologia usada para descrever um dispositivo de fita que contém uma unidade de fita e mecanismos robóticos que podem inserir e trocar os cartuchos de fita. Este sistema é ideal quando uma unidade é suficiente para o desempenho de leitura/escrita, mas várias fitas serão necessárias devido a capacidade ou controle de versão. O termo stacker (empilhador) também é algumas vezes usado para autoloader. O autoloader não é um termo usado especificamente para a tecnologia de fita – ele também pode se aplicar a autoloaders que operam com CDs e DVDs. Os autoloaders (ou stackers) operam carregando os cartuchos de fita sequencialmente sem instruções específicas do servidor. O mecanismo de carregamento simplesmente espera até que o cartucho de fita em uso seja ejetado, remove o cartucho de fita da unidade, coloca-o de volta na posição original da prateleira, pega e carrega a próxima fita em ordem sequencial. O mecanismo irá repetir a operação até que todos os cartuchos de fita da prateleira estejam carregados. Esta operação autônoma e sequencial (uma por vez) distingue os autoloaders dos jukeboxes. Jukeboxes são dispositivos de acesso aleatório (podem ser selecionados em qualquer ordem) e requerem o software no servidor para instruir o mecanismo de carregamento, qual das fitas na prateleira será carregada na unidade de leitura/gravação. Ele não faz qualquer carregamento automático independentemente das instruções do servidor. Os autoloaders são normalmente utilizados quando grandes volumes de dados estão sendo escritos em fita e onde somente um cartucho de fita não possui espaço suficiente. O autoloader muda os cartuchos de fita sem qualquer intervenção do servidor. Um exemplo disto poderia ser um backup completo de um sistema de dados, em fitas sequenciais.

113 Bibliotecas de Fitas Uma biblioteca de fitas difere de um autoloader pois possui várias unidades de leitura/gravação com robôs que podem inserir e mudar fitas a pedido do servidor. Este sistema é ideal quando várias unidades são necessárias para manter o desempenho de leitura/gravação, com os dados podendo ser escritos em vários cartuchos de fita simultaneamente. Os cartuchos de fita são rastreados através de um código de barras adicionado a eles. A biblioteca de fitas pode ler e identificar uma fita específica usando o código de barras. As bibliotecas de fitas podem variar desde dispositivos que não são muito maiores do que um autoloader, até monstros mecânicos contendo milhares de cartuchos de fita. Elas fornecem uma maneira muito eficaz de armazenar massas de dados onde os tempos de acesso não são cruciais, como por exemplo no arquivamento de conteúdo. Adicionalmente, a capacidade de restaurar um único arquivo de um backup muito grande também pode se beneficiar da capacidade de acessar fitas específicas.

114 Bibliotecas de Fita Virtual (VTLs) Uma biblioteca de fita virtual (VTL) apresenta seu armazenamento baseado em discos (HDD) como bibliotecas de fita ou unidades de fita para um servidor. Isso permite que o software de backup e recuperação existente, processos e políticas permaneçam inalterados enquanto o armazenamento com HDD é usado como o meio de backup real. Os benefícios desta virtualização incluem a consolidação de armazenamento (armazenamento primário já é baseado em HDD) e processos mais rápidos do Restore de dados. Muitas soluções de VTL utilizam arrays de HDD de custo relativamente baixo para conter custos. O uso de arrays de HDD permite que a capacidade de armazenamento de backup seja facilmente escalável (bastando adicionar mais discos) - enquanto uma solução de fita autônoma pode exigir a adição de unidades de fita adicionais para efetivamente escalar (o que pode significar uma atualização completa do sistema de fita).

115 Em alguns casos, os dados que são armazenados na VTL são exportados para fitas físicas (tipicamente em uma biblioteca de fita) - este processo é conhecido como Disco para Disco para Fita (D2D2T). Os dados são inicialmente copiados para a VTL e periodicamente copiados novamente para uma fita física. Uma vez que o disco utilizado para armazenamento está sempre conectado a energia e fontes de dados, e nunca está fisicamente isolado eletricamente, ele pode estar vulnerável a potenciais danos e corrupção de dados devido a um raio nas proximidades ou na rede elétrica. Enquanto tais eventos podem comprometer os dados, ter uma segunda etapa onde se utiliza fita, que poderá ser removida e armazenada em um local remoto, fornece uma camada adicional de proteção de dados.

116 Capítulo 4 Seção 4 - Multiplexação de Fita e Multi- Streaming A multiplexação e o multi-streaming de fita são duas opções disponíveis para ajustar o desempenho de fita, a fim de reduzir os tempos de janela de backup (abordaremos à frente sobre backups com mais detalhes). A opção de multiplexação permite a escrita de múltiplos fluxos de dados para uma única unidade de fita simultaneamente, enquanto a opção de múltiplos fluxos de dados permite que o mesmo seja dividido em dois ou mais. Ambas as opções estão disponíveis a partir da maioria dos fornecedores de software de backup. Multiplexação de Fita A multiplexação requer que o software de backup em fita envie vários fluxos de dados de backup simultâneos para um único dispositivo de armazenamento. O software intercala os fluxos de dados à medida que são gravados na mídia montada na unidade de fita. Não é necessária nenhuma ação especial para restaurar um backup multiplexado. O software de backup localiza a fita correta e restaura o backup solicitado. No entanto, a multiplexação pode afetar o desempenho do restore, como restaurar apenas um dos fluxos de dados requer a leitura de todos os dados de todos os servidores que estão multiplexados na fita.

117 A multiplexação é geralmente usada para reduzir as janelas de backup (tempo necessário para completar um processo de backup). Nem todos os ambientes são adequados para a implantação da multiplexação de fita, porém pode ser vantajoso em algumas das seguintes situações: • Onde o servidor de aplicações é relativamente lento; • Onde a conexão com a unidade de fita possui largura de banda livre e que pode ser utilizada por múltiplos fluxos de dados simultâneos; • Onde os backups relativamente pequenos são utilizados - por exemplo, se apenas os dados alterados forem salvos (backup incremental). Utilizar a multiplexação para manter o fluxo de dados para unidade de fita reduz as ocorrências de shoe-shining (visto anteriormente). Em resumo, multiplexação de fita é o processo de escrita alternando ou intercalando múltiplos fluxos de dados para uma única fita. Isso ajuda a atenuar o problema de shoe-shinig. No entanto, a multiplexação pode reduzir o desempenho do restore. Quanto maior for o número de multiplexações de fluxos de dados, maior o impacto potencial no desempenho do restore.

118 Multi-Streaming de Fita O multi-streaming de fita é o local onde um único servidor transmite dados para várias unidades de fita ao mesmo tempo em que a capacidade do servidor de transmitir dados é maior do que uma única unidade de fita pode manipular. Utilizar o multi-streaming pode reduzir o tempo de backup para grandes backups, dividindo o backup em vários fluxos. O multi-streaming tem impacto potencialmente adverso no desempenho se o servidor estiver obtendo seu fluxo de dados a partir de um único array de HDD, uma vez que isso pode não ser capaz de manter a taxa de dados necessária. No entanto, se o servidor é robusto o suficiente, várias fontes de dados em HDD podem ser usadas simultaneamente com multi-streaming. Se o SSD é utilizado com fonte de dados primária para o armazenamento, isso pode não ser um problema. Multiplexação e Multi-Streaming em conjunto É possível combinar multiplexação e transmissão múltipla de dados na mesma tarefa. Se isso será utilizado ou não depende do ambiente do usuário. Um exemplo de onde isso pode ser útil é onde a conexão entre o servidor e as unidades de fita possui muita largura de banda disponível, porém as unidades de fita em si não são dispositivos com um alto desempenho.

119 Capítulo 4 Seção 5 - Criptografia de Fita Meios de armazenamento removíveis de alta capacidade, tais como fitas de backup apresentam um risco de segurança de dados se eles forem perdidos ou roubados. Criptografar os dados nestas fitas pode atenuar este problema. Nesta seção, vamos considerar algumas das abordagens e questões que cercam a criptografia de fita. Atualmente existem três opções principais de criptografia de fita: • Baseado em host (servidor); • In Band; • Baseado em dispositivo (unidade de fita). Criptografia Baseada em Host (Servidor) A criptografia baseada em host pode ser mais útil quando a criptografia é necessária para um único servidor ou um conjunto limitado de servidores. Criptografar em um host permite que várias fitas criptografadas sejam acessadas simultaneamente sem ter que se preocupar se a criptografia é suportada pela infraestrutura subjacente.

120 Criptografia In Band Na criptografia in band, é necessário colocar um appliance na infraestrutura para conexão entre o servidor e a fita. Nesta operação, os dados são criptografados e transferidos através da infraestrutura de conexão. Este appliance pode ser um dispositivo independente ou ser incorporado em um switch de rede de armazenamento (tipicamente uma característica opcional). A vantagem desta abordagem é que, como é implementada em hardware, não consome poder de processamento do host e, como o appliance está no meio da conexão de armazenamento, ele pode ser compartilhado por diversas aplicações e hosts diferentes. Os dados transmitidos entre hosts conectados e os appliances sempre serão decriptadas. Criptografia Baseada em Dispositivo (Unidade de Fita) A criptografia baseada em dispositivo (unidade de fita) utiliza uma variedade de tecnologias para criptografar os dados. A criptografia pode ser implementada em uma biblioteca de fita, biblioteca de fita virtual (VTL), ou em unidades de fita individuais (tipicamente unidades LTO). Todos estes dados criptografados são gravados para a fita.

121 Chaves de Criptografia Em uma criptografia convencional, uma chave é utilizada tanto para encriptar como para decriptar. A chave é o que 'bloqueia' os dados não encriptados e ' desbloqueia ' os dados encriptados. Para que a criptografia funcione, tanto o remetente como o receptor devem ter a mesma chave. Isto é conhecido como criptografia simétrica. Chave Pública A criptografia de chave pública usa um par de chaves para criptografia: uma chave pública, que encripta os dados, e uma chave privada ou secreta para decriptá-los. Você pode publicar a sua chave pública enquanto mantém a sua chave privada em segredo. Qualquer um com uma cópia de sua chave pública pode encriptar as informações e somente você pode ler. Qualquer um que tenha uma chave pública pode encriptar informação, porém não pode

122 decriptá-la. Somente a pessoa que tem a chave privada apropriada pode decriptar a informação. Isto é conhecido como criptografia assimétrica. A criptografia em fita utiliza ambas as técnicas dependendo da implantação e da implementação do fabricante. Gerenciamento de Chaves O gerenciamento de chaves é a gestão da geração, troca, armazenamento, uso e substituição das chaves. O sucesso da gestão de chaves é fundamental para a segurança de qualquer sistema de criptografia. Isso envolve uma política do sistema, treinamento dos usuários, as interações organizacionais e departamentais e a coordenação entre todos estes elementos. Como isso possui muitos aspectos para a gestão de chaves, a criptografia baseada em fita deve ser considerada como uma técnica autônoma, mesmo que haja outra criptografia no ecossistema de data center. A fim de minimizar uma potencial perda ou esquecimento de quais chaves se aplicam e onde, a gestão de chaves precisa ser o mais automatizada possível. Alguns softwares de backup baseados em servidores (por exemplo, o Tivoli Storage Manager) podem gerenciar as chaves para sistemas de fita, enquanto os fabricantes de fita oferecem gerenciamento de chaves já embutidos. A interoperabilidade entre sistemas de gerenciamento de chaves é uma questão que é abordada pela norma emergente do Oasis Key Management Interoperability Protocol (KMIP). O KMIP visa tornar possível um único sistema de gerenciamento de chaves para todos os sistemas corporativos.

123 Encriptação LTO Os sistemas de fita LTO anteriores ao LTO-5 utilizam um sistema de criptografia de chave simétrica, exigindo a mesma chave para encriptar e decriptar dados. Para manter a segurança, a chave não é transferida para o cartucho LTO em nenhum momento e só é retida pela unidade LTO enquanto a energia está ligada. As chaves são fornecidas no cartucho LTO usando um comando específico (comando SPOUT SCSI). Normalmente, uma nova chave seria fornecida para uma sessão de backup, ou para cada cartucho LTO. O LTO-5 introduziu uma segunda camada de chaves para aumentar a segurança. Isto é conhecido como wrapped keys, e destina-se a aumentar a segurança onde grandes quantidades de dados estão sendo manipulados. Enquanto a chave inicial opera da mesma forma que as unidades LTO anteriores a LTO-5, a LTO- 5 e as unidades LTO mais recentes criam uma segunda chave que é criptografada usando a chave inicial e, em seguida, armazenada de forma segura no cartucho de fita LTO. A chave inicial originalmente fornecida é necessária para \"desembrulhar\" ou decriptar a segunda chave no cartucho LTO para ler de volta os dados. Efetivamente, isso significa que cada cartucho de fita

124 LTO é encriptado com uma chave diferente, mesmo que a chave inicial fornecida pelo comando do host não seja alterada. Isto é útil quando são utilizados conexões e armazenamento de fitas externos, potencialmente inseguros. O LTO-5 e unidades posteriores têm um LED de criptografia azul incluído no painel frontal, que é iluminado quando a criptografia é ativada. Se houver um erro no processo de encriptar/decriptar (como uma chave incorreta), então o LED irá piscar. Criptografia de Fitas - Questões de Implantação Ao implantar soluções de fita encriptada, existem várias opções e alternativas disponíveis. Então vamos olhar para algumas abordagens e melhores práticas que podem ajudar. Todas as fitas devem ser encriptadas As soluções que irão garantir a criptografia de todas as fitas não devem permitir contornos/desvios na encriptação. Isso pode ocorrer com a criptografia in band e significar que os caminhos de dados devem ser isolados da infraestrutura de conexão principal. Criptografia de Fita na Unidade Encriptar as fitas diretamente na mídia (basicamente no dispositivo de armazenamento de fita) permitirá que processos como a desduplicação e compressão de dados ocorram antes da criptografia. Uma vez que os dados foram encriptados, a capacidade de desduplicar ou comprimir os dados é perdida. A criptografia realizada no host, antes da transmissão dos dados através da infraestrutura de conexão, pode reduzir o processamento adicional posterior no ambiente. No entanto, o benefício da criptografia baseada em host é que os dados são encriptados em todas as fases através da conectividade e do armazenamento. Criptografia por Fita (Cartucho) Ter criptografia única por fita (por exemplo, chaves \"embutidas\") pode oferecer uma proteção adicional. Isso significa que a revelação de uma única chave não vai pôr em risco nem mesmo uma única fita, e a chave exposta pode ser resetada.

125 Sumário Em contraste com a criptografia baseada em dispositivo de mídia, a criptografia baseada em host e em appliance pode ser difícil de trabalhar para encriptar dados em fita. Abordagens baseadas em host possuem um gerenciamento maior e podem consumir recursos importantes do host. Além disso, a criptografia é tipicamente uma característica licenciada de qualquer software de backup e pode exigir licenças adicionais para sistemas de gerenciamento de chaves. Estes custos podem significar que os appliances de criptografia in band podem ser economicamente mais viáveis. Abordagens baseadas em appliances que atendem vários requisitos de armazenamento (além de apenas fita) podem transformar a criptografia de fita em uma prática multidisciplinar da equipe e pode ter impacto na gestão de backup em fita. As implementações baseadas em appliances devem também considerar todos os caminhos que podem ser usados pelos dados para escrever em fita – a fim de garantir que não existem caminhos de dados em torno do appliance de criptografia. Embora a criptografia baseada em dispositivos de mídia trate muitos destes problemas, esta abordagem também possui seus próprios problemas. Por exemplo, quais servidores de gerenciamento são responsáveis pela atribuição, segurança e gestão das chaves para a fita? Para muitos produtos de backup no mercado, a gestão integrada de chaves pode não ser altamente automatizada ou construída para escalar a milhares de fitas. Enquanto a criptografia baseada em mídia é uma abordagem geral aceita, tenha em mente que há sempre necessidades de negócio únicas que podem criar uma exceção.

126 Capítulo 4 Seção 6 - Compressão de Dados em Fita O objetivo da compressão de dados é aumentar as capacidades de armazenamento de dados usando um processo matemático para reduzir redundâncias em fluxos de dados. Existem muitos esquemas diferentes de compressão que podem ser realizados por software ou hardware. Quando a compressão por software é usada, os dados são comprimidos em um servidor antes de serem enviados para os dispositivos de armazenamento de dados. Isso aumenta a carga no servidor, porém isto economiza largura de banda entre o servidor e os dispositivos de armazenamento de dados. Este é tipicamente usado para o disco em vez de armazenamento de fita. A compressão por hardware é feita por um dispositivo de armazenamento de dados (tipicamente uma unidade de fita). Consequentemente, não há carga de CPU nos servidores. No entanto, os dados não comprimidos são enviados do servidor para o dispositivo de armazenamento de dados, requerendo mais largura de banda do que a necessária para a compactação por software. A compressão por hardware também é mais rápida do que a compressão por software, porque ao contrário da compressão por software, não se compartilha recursos do servidor. Isso é transparente para o sistema operacional e os dados são comprimidos \"em tempo real\". Para unidades de fita, a compressão é tipicamente implementada em hardware. A quantidade de compressão de dados obtida irá variar dependendo das características dos dados.

127 Dados encriptados comprimem muito mal e a compressão deve ser sempre realizada antes da criptografia. Taxa de Compressão Muitas unidades de fita oferecem taxas de compressão de 2:1 (LTO 6 em diante oferece 2.5:1 e algumas unidades IBM 3:1). No entanto, a taxa de compressão de dados operacional que é atingida depende do tipo de dados que você está escrevendo para a fita. Para tipos de dados não comprimidos (tais como txt, bmp, etc.), a taxa atingida pode estar perto do valor anunciado, mas se você estiver gravando dados pré-comprimidos (por exemplo, tipo de dados multimídia como mpg, jpg, mp4, etc.), esta taxa será muito ruim e, em alguns casos, os dados gravados podem ser maiores do que os dados originais. Processo de Compressão O processo típico para comprimir dados em uma unidade de fita (por exemplo, um dispositivo de série LTO) inicia com a unidade de fita comprimindo cada bloco de dados e, em seguida, verificando se ele é maior ou menor do que o bloco de dados original (raw). Se for maior (por exemplo, quando o formato de dados original já está comprimido), então o bloco original (não comprimido) é escrito na fita. Se for menor, o bloco de dados comprimido é escrito em fita. Cada bloco de dados escritos em fita tem um cabeçalho complementar adicionado, indicando se o bloco é comprimido ou não.

128 Taxas de Compressão e de Transferência de Dados A compressão baseada em software normalmente degrada as taxas de transferência de dados, uma vez que o software no servidor tem que comprimir os dados antes de escrever o fluxo de dados para fita. O tempo de recuperação também é mais longo, uma vez que o software deve descomprimir o fluxo de dados que está sendo lido. A compressão baseada em hardware em um dispositivo de fita é tipicamente muito mais rápida do que a taxa em que os dados podem ser escritos e lidos na mídia de fita. Portanto, a compressão não introduz qualquer sobrecarga significativa nos processos de escrita ou leitura. Uma vez que a compressão reduz o tamanho do fluxo de dados sendo escrito ou lido a partir da mídia de fita, ganhos de desempenho significativos podem ser percebidos. Por exemplo, a leitura de 1 MB de dados de uma fita onde os dados foram comprimidos em 1,5:1 efetivamente produziria 1,5 MB de dados de leitura para o servidor no tempo que leva para ler 1MB da fita. Por outro lado, se estamos escrevendo 1,5 MB de dados para o dispositivo de fita, nós só precisamos realmente escrever 1MB para acelerar o processo de escrita.

129 Capítulo 5 Seção 1 Introdução às Técnicas, Tecnologias e Terminologias de Redes de Armazenamento Introdução Redes de armazenamento é um termo genérico que se refere a um conjunto de técnicas e tecnologias que são implantadas para criar uma rede cuja principal finalidade é a transferência de dados entre sistemas computacionais e elementos de armazenamento. Nesta seção, apresentaremos de forma resumida algumas delas. Estas questões serão abordadas com maiores detalhes mais adiante neste capítulo. Rede de Armazenamento de Dados (SAN)* A Storage Network Industry Association (SNIA) define uma rede de armazenamento de dados (SAN) como “uma rede cuja principal finalidade é a transferência de dados entre sistemas computacionais e dispositivos de armazenamento e entre dispositivos de armazenamento”. Basicamente, uma SAN é uma rede dedicada e de alta velocidade que liga servidores e dispositivos de armazenamento. É importante notar que a definição SNIA especificamente não identifica o termo SAN com qualquer tecnologia de conexão específica. Isso ocorre porque há mais de uma tecnologia de conexão que pode suportar uma implantação de SAN - Fibre Channel e Ethernet/IP. O Fibre Channel era a tecnologia originalmente associada à SANs, mas é comum referir-se a uma SAN que utiliza esta tecnologia, como um ‘Fibre Channel SAN’.

130 Armazenamento Conectado à Rede (NAS)* Segundo a SNIA, o armazenamento conectado à rede (NAS) refere-se a “dispositivos de armazenamento que se conectam a uma rede e fornecem serviços de acesso a arquivos para sistemas computacionais”. Essencialmente, o NAS é um sistema de armazenamento autônomo com um servidor especializado integrado que interage com os servidores de aplicação e faz a gestão dos dispositivos de armazenamento sob o seu controle. O servidor integrado tem seu próprio sistema operacional (às vezes proprietário) e, ao contrário de SANs que transferem dados como blocos, o NAS fornece serviços de arquivos para computadores usando protocolos de acesso a arquivos como NFS* (sistema de arquivos na rede) ou CIFS* (sistema comum de arquivos na Internet). Normalmente, os mundos de armazenamento de arquivos e blocos são tratados como mundos diferentes, cada um em seu próprio domínio de gestão e cada um com suas próprias vantagens e desvantagens. No entanto, estamos cada vez mais vendo fornecedores desenhando esses dois mundos integrados em soluções híbridas que consolidam dados baseados em blocos e arquivos através da mesma conexão NAS. Com um servidor incorporado a um NAS, houve movimentos para que a energia do servidor fosse usada para fazer mais do que apenas gerenciar o ambiente de armazenamento. A implantação de soluções NAS com aplicações adicionais rodando dentro deles são referidas como hiperconvergentes*. Um exemplo de um NAS hiperconvergente é onde o NAS também tem uma aplicação de backup incorporada a ele.

131 SCSI - Small Computer System Interface SCSI, pronunciado como 'Scuzzy', é uma das interfaces mais usadas para sistemas de disco. Inicialmente lançada em 1982, ela originalmente suportava dispositivos de armazenamento individual usando uma estrutura de barramento paralelo que poderia suportar vários discos e fitas com uma única conexão ao servidor. SCSI tinha uma estrutura de barramento paralela que evoluiu para se tornar mais ampla (mais conexões) e mais rápida com suporte para mais dispositivos conectados. Eventualmente, a estrutura paralela de barramento torna-se fisicamente muito pesada, propensa a falhas e tecnologias seriais mais rápidas e caras começaram a evoluir. No entanto, SCSI tinha uma característica inestimável - o driver de software foi integrado em quase todos os sistemas operacionais. Como resultado disso, o acoplamento tradicional de hardware e software SCSI foi quebrado e as tecnologias seriais em evolução (Fibre Channel e iSCSI) usaram drivers de software SCSI existentes, mas usando seus próprios protocolos de transmissão para se conectar aos dispositivos de armazenamento em uma SAN. Existem outras tecnologias seriais para conectar sistemas de disco - SATA*/Serial Attach SCSI (SAS) - mas são usadas para conexões de interface de disco ao invés de conexões para SANs.

132 Fibre Channel* Fibre Channel (sim, essa é a ortografia correta) é uma tecnologia em série que começou a evoluir há cerca de 25 anos para enfrentar o desafio crescente de mover dados em massa a uma alta velocidade. A ortografia da palavra “fibra\" tem a sua origem no comitê original cujos membros eram de nações como a Nova Zelândia e a Austrália, onde esta é a ortografia usada para uma fibra. As redes comutadas Fibre Channel são referidas como fabrics - uma forma estendida de uma rede. O fornecedor 'Brocade' derivou o nome da empresa e dos produtos a partir da ideia de um tecido de pano (fabric) – referenciando de perto a tecelagem intimamente conectada na construção de tecidos. Fibre Channel foi originalmente projetado como uma poderosa tecnologia de rede e que se inspirou em outras técnicas, tais como a ESCON desenvolvida pela IBM (https://en.wikipedia.org/wiki/ESCON) e HIPPI (https://en.wikipedia.org/wiki/HIPPI) e técnicas de destaque, tais como largura de banda fracionada, que estão apenas começando a ser exploradas hoje. Apesar de sua flexibilidade, poder e potencial, o Fibre Channel só tem sido explorado como um transportador SCSI serializado. Fibre Channel (FC) tem sido tradicionalmente a tecnologia dominante para redes de armazenamento de alto desempenho (SANs). Utilizando o protocolo SCSI sobre o transporte Fibre Channel, a compatibilidade dos protocolos de conexão com os sistemas de armazenamento é mantida. O Fibre Channel requer suas próprias placas de interface dedicadas no servidor. Estes são conhecidos como host bus adapters (HBAs). O principal benefício do Fibre Channel é a capacidade de fornecer um desempenho muito alto atualmente com suporte para uma velocidade nativa de operação de até 128 GBs, sem sobrecarregar o sistema de arquivos (assim como seriam servidores em uma LAN), e com uma garantia de entrega sem perdas (sem a sobrecarga das técnicas de recuperação de pacotes perdidos, assim como em uma LAN TCP/IP/Ethernet típica).

133 iSCSI (SCSI sobre IP) * iSCSI é uma tecnologia alternativa para a implementação de redes de armazenamento (SANs). Tecnicamente, iSCSI utiliza o mesmo método que o Fibre Channel, utilizando o protocolo SCSI e colocando-o em camadas acima dos protocolos TCP/IP utilizados para a conectividade de rede tradicional. Ao continuar a utilizar o protocolo SCSI, as tecnologias iSCSI e Fibre Channel minimizam a necessidade de mudança em muitos sistemas operacionais e aplicações existentes. iSCSI utiliza os recursos existentes do data center como redes 10 Gigabit Ethernet (ou superiores) e conectores de Interface de rede padrão (NICs). No entanto, o TCP/IP foi desenvolvido como um protocolo de transporte de mensagens e nunca foi projetado para lidar com os elevados volumes de tráfego que podem ocorrer em trocas de dados de armazenamento. O TCP/IP também permite que pacotes sejam descartados em redes congestionadas. Esta característica significa que deve haver algum mecanismo de verificação e recuperação. Isto é realizado pelo TCP (Transport Control Protocol) do modelo TCP/IP/Ethernet. O processo TCP normalmente ocorre no software do servidor e isso pode colocar uma carga significativa no servidor, podendo impactar o desempenho da aplicação. Uma solução para isso é delegar as operações de carga TCP para a placa de rede – a NIC. Este tipo de redirecionamento do processamento da carga TCP é conhecido como TOE (TCP Offload Engine). O valor do iSCSI (preço mais baixo da NIC do que o Fibre Channel HBA), juntamente com o preço mais baixo para os equipamentos intermediários de armazenamento, torna o iSCSI uma opção atraente para implementações menores e com performance menos críticas. No entanto, o offloading da função TOE para a NIC pode tornar a interface tão cara quanto um HBA Fibre Channel – acabando com parte da vantagem de preço do iSCSI.

134 Fibre Channel over Ethernet (FCoE)* Fibre Channel over Ethernet (FCoE) foi inicialmente desenvolvido para operar com 10 Gigabit Ethernet (GE) (ou velocidade superior). O FCoE mapeia o Fibre Channel com o padrão dos protocolos Ethernet. No entanto, existe aqui uma potencial contradição, pois o Fibre Channel requer transferências de dados altamente confiáveis (ou sem perdas), enquanto ambientes TCP/IP tradicionais permitem que pacotes sejam perdidos quando a rede está congestionada. Para endereçar esta preocupação, o padrão 10 GE foi estendido. As extensões da norma para 10 GE são coletivamente conhecidas como Data Center Bridging (DCB). Estes padrões estendidos significam que o tráfego FCoE pode ser garantido, sem perdas. Para que o FCoE funcione, os requisitos do DCB devem ser suportados por todos os dispositivos da rede FCoE. * Abordado em mais detalhes em outra parte dessa publicação

135 Capítulo 5 Seção 2 Fibre Channel: Terminologia e Componentes Introdução Nesta seção, examinaremos a tecnologia Fibre Channel. Então, vamos começar com uma pergunta feita com frequência: se já temos a tecnologia de conexão bem estabelecida com IP/Ethernet, por que precisamos de Fibre Channel? Para mim, isso é como perguntar – temos rodovias, então, por que precisamos de ferrovias? Deixe-me explicar o que quero dizer com isto. Vamos olhar para Ethernet e suas camadas superiores associadas (TCP/IP etc.) como um sistema de rodovias. Há uma rede de rodovias e o modo como cada veículo viaja, de uma origem para um destino, é uma decisão que afeta apenas esse veículo em particular. Agora, imagine que estamos enviando uma frota de caminhões com componentes para uma fábrica. Cada caminhão tomará a sua própria decisão sobre a rota a seguir, o que dependerá das condições de tráfego e talvez até do sistema GPS utilizado. Isso pode afetar quanto tempo cada um dos caminhões levará para chegar ao destino. A fim de manter a fábrica em movimento, os componentes nos caminhões precisam chegar a tempo e na ordem certa para a montagem do produto final. Se os caminhões atrasarem, a fábrica fica parada aguardando a entrega. Se um caminhão quebra ou se envolve em um acidente de trânsito, a fábrica deve parar e pedir que outro caminhão seja enviado. Uma vez que ele chega lá, ele tem que ser colocado na ordem correta de entrega. Esta não é uma analogia completa de como Ethernet/IP/TCP opera, mas é uma aproximação suficiente para sustentar o ponto de vista. Mas demonstra, essencialmente, o empenho com uma expectativa razoável de entrega eficiente – mas sem garantias. Isto porque esta tecnologia foi desenvolvida para atender a um requisito de passagem de mensagens e não o movimento de dados em grande quantidade, como seria de esperar em um ambiente de armazenamento de dados. Afinal de contas, se o servidor tem que esperar por dados do dispositivo de armazenamento, a aplicação tem que pausar – não é algo que o ambiente de negócios de uma organização gostaria de experimentar. Agora, vamos considerar a analogia do Fibre Channel e de uma ferrovia. Uma ferrovia é construída em torno do transporte em larga escala de passageiros e materiais. Tem rotas fixas da origem ao destino e trabalha com um cronograma predeterminado. Se parte de uma rota for bloqueada, uma rota alternativa estará imediatamente disponível e os vagões chegam na mesma ordem em que partiram. Essencialmente, é uma transferência rápida em larga escala, com latência e ordem de entrega previsíveis. Esta é uma analogia razoável do que o Fibre Channel oferece.

136 O Fibre Channel é uma tecnologia serial baseada em um conjunto de padrões. A Comissão responsável pela definição e manutenção destas normas é o INCITS (International Committee for Information Technology Standards) Fibre Channel (T11) Technical Committee. Toda a tecnologia Fibre Channel está em conformidade com estes padrões, sendo que os fabricantes diferenciam seus produtos através da adição de funcionalidades extras. Então, como já posicionamos a tecnologia Fibre Channel, vamos ver o que a faz funcionar. Falando sobre Fibre Channel Fibre Channel (FC) é a tecnologia dominante para Storage Area Networks (SANs) de alto desempenho. Utilizando o protocolo SCSI sobre o transporte Fibre Channel, a compatibilidade dos protocolos de conexão com os sistemas de armazenamento é mantida. Um diferencial significativo entre o SCSI paralelo tradicional e o Fibre Channel é que este último é uma tecnologia serial. O uso de uma tecnologia serial evita o problema de estender conexões a distância sem criar erros de dados e elimina a exigência de múltiplas conexões físicas. No entanto, o Fibre Channel vem com um vocabulário próprio. Por isso, antes de avançarmos, vejamos brevemente quais são os termos e seus significados.

137 Termos Genéricos Nós - um servidor na rede é chamado de nó. Um dispositivo de armazenamento é chamado de nó. Ambos são nós na rede. Os nós apresentam os dados para a rede Fibre Channel. Os nós não têm conhecimento do Fibre Channel e não tem ciência de seu uso, ou de alguma outra tecnologia de conexão. É importante notar que switches e hubs não são nós e sim dispositivos interconectados que são transparentes para o nó. Portas - os nós comunicam-se através de portas podendo ser acessíveis através de uma ou mais portas. As portas podem encontrar-se no HBA (Host Bus Adapter), nos switches Fibre Channel e nos dispositivos e subsistemas de armazenamento. As portas conectam dispositivos à rede Fibre Channel e sua função é transmitir e receber dados de e para o fabric. Links - as portas comunicam com outras portas através de um link. O termo link inclui todos os componentes correlatos como cabos, conectores e transceivers ópticos-elétricos. Uma porta de nó ligada a uma porta de um switch é um link. Se duas portas de switch são conectadas, temos então um Inter Switch Link (ISL).

138 Tipos de Portas N Port (Porta de Nó) é uma porta em um nó (por exemplo, um servidor ou dispositivo de armazenamento). NL Port (Porta Nó de Loop) é uma porta de nó com a topologia Fibre Channel Arbitrated Loop (FC-AL) *. E Port (porta de expansão) é conectada a outra Porta E para criar um link do tipo Inter Switch Link (ISL) entre dois switches*. Só os switches têm portas E. Múltiplos ISLs podem ser agregados entre dois switches. Os ISLs agregados são chamados de trunk pela Brocade e port channel pela Cisco. F Port (Porta no Fabric) está incluída em um switch e está ligada a um N Port em um nó. Uma Porta F só pode ser ligada a uma única porta N. FL Port (porta de Fabric Loop) está incluída em um switch e está ligada a uma ou mais portas NL (incluindo portas FL em outros switches) para formar Fibre Channel Arbitrated Loop*. Mesmo que as portas do switch sejam definidas na norma Fibre Channel, a maioria das portas de switches são autoconfiguráveis e não têm de ser dedicadas a qualquer tipo de porta. A autoconfiguração de portas detecta o que está conectado e configura a porta para o tipo correto, sem a necessidade de qualquer intervenção.

139 Componentes do Fibre Channel Hubs de Fibre Channel Os hubs de Fibre Channel são mais ou menos análogos aos hubs Ethernet, pois não fornecem uma função de switch. Pelo fato das portas no hub estarem conectadas em um loop físico, esta topologia é chamada de arbitrated loop* (ou loop arbitrado). O arbitrated loop* permite que um par de dispositivos se comuniquem entre si a qualquer momento. Os hubs não contêm portas Fibre Channel. Apesar dos dispositivos Fibre Channel poderem ser fisicamente e diretamente conectados para criar uma topologia de loop arbitrado sem um hub, uma das principais vantagens de se usar um hub é a sua capacidade de contornar automaticamente uma porta em falha (em um loop físico sem um hub, uma conexão quebrada desligaria todo o loop). Os dispositivos de hub em si são raramente usados hoje em dia, mas a função de um hub pode ser integrada na eletrônica interna em um subsistema de disco. Estes subsistemas de disco são tipicamente chamados de JBOD – Just a Bunch of Disks. Switch Fibre Channel Os switches Fibre Channel são muito semelhantes aos switches Ethernet. Todas as portas conectadas a um switch podem funcionar em velocidade máxima. Os switches são capazes de operar em velocidade máxima, full duplex em todas as portas conectadas. Isto significa que podem estar acontecendo trocas de dados múltiplas e simultâneas, tudo em largura de banda total em cada porta de um switch (para aqueles que estão familiarizados com as redes Ethernet, não há um equipamento de Fibre Channel equivalente a um roteador, embora o Fibre Channel seja uma arquitetura de roteamento). Os switches Fibre Channel são o núcleo de uma infraestrutura SAN. Se conectarmos switches de Fibre Channel em topologia mesh de forma a produzir uma Extended Fabric, muitas das ISLs desperdiçam conectividade. Afinal de contas, a infraestrutura é implantada para conectar nós, não apenas para interconectar switches.

140 Switches Categoria Director Isso deixa a opção de colapsar a fabric em um único switch categoria director. Isso resolve um problema, liberando as portas comprometidas como ISL, mas nos impõe outro desafio: o switch categoria director se torna um ponto único de falha. O termo \"Categoria Director\" veio da terminologia IBM usada para o director de ESCON. (https://en.wikipedia.org/wiki/ESCON) A \"Categoria Director\" implicava em um switch maior, mais confiável, com mais desempenho e com mais funcionalidades. A fim de enfrentar este desafio, os switches categoria director vêm com um nível mais elevado de confiabilidade do que os switches padrão.

141 Esta funcionalidade melhorada inclui: Alta Disponibilidade: Switches de Fibre Channel categoria director são construídos com componentes de especificação mais elevada e muitos deles são duplicados (redundantes), de forma que podem ser substituídos sem afetar a disponibilidade e o desempenho do switch. Possuem a funcionalidade de troca \"a quente\" (hot-swappable) e normalmente incluem componentes como fontes de alimentação. De Fácil Manutenção: Níveis elevados de utilização exigem a realização de procedimentos de manutenção sem que o switch tenha que ser desligado ou reiniciado. Os Switches de Fibre Channel categoria director são capazes de atualizar (upgrade) ou retroagir (downgrade) o seu software operacional enquanto está em funcionamento (switches padrão normalmente precisam ser reiniciados quando estes processos são realizados). No entanto, como resultado desta funcionalidade melhorada, os switches de Fibre Channel categoria director tendem a ter um custo maior por porta do que os switches padrão. O custo adicional por porta se paga pela confiabilidade adicional, mas isso pode ser mitigado pelo número reduzido de portas necessárias (não são necessários ISLs). A construção de um switch categoria director é tipicamente baseada em um backplane no qual diferentes placas de circuito impresso podem ser conectadas. As funções destas placas podem variar, embora a maioria contenha portas de Fibre Channel. Estas placas, que são hot-swappable, podem ter um número variado de portas e uma velocidade de operação diferente em cada uma delas, sendo que o preço cresce à medida que o número de portas e o desempenho aumentam. Isto permite que o número de portas no switch categoria director seja dimensionado à medida que os requisitos operacionais mudam, sem a necessidade do custo de aquisição de um novo switch. Alguns fornecedores oferecem até 528 portas em um único switch categoria director. A possibilidade de instalar placas de circuitos também foi explorada pelos fabricantes para agregar valor à conectividade do Fibre Channel numa SAN*. Ao se conectar e ligar diferentes placas, funcionalidades como recursos de segurança, capacidade de gestão de fabric, etc, podem ser oferecidas como diferenciais do produto (afinal de contas, o Fibre Channel é baseado em padrões e todos os fornecedores devem aderir a eles, por isso tais diferenciadores são comercialmente importantes).

142 Host Bus Adapter (HBA) Um Host Bus Adapter de Fibre Channel (HBA) fornece processamento de I/O e conectividade física entre um servidor e um fabric de Fibre Channel ou dispositivo de armazenamento. O termo HBA é usado quase que exclusivamente em ambientes Fibre Channel (FC) SAN, embora tecnicamente também pode se referir à interface do servidor para dispositivos SCSI e SATA. A maior parte do ‘trabalho pesado’ do lado do servidor no Fibre Channel é feita em hardware no HBA, removendo uma grande carga de processamento do servidor (falaremos mais sobre isso mais tarde). O HBA se conecta no barramento do servidor e contém a porta de Fibre Channel que se liga ao fabric. Cada HBA vem com um driver de software que precisa ser instalado no servidor. Dependendo de qual modelo e fabricante de HBA é implantado, podem haver várias portas de Fibre Channel e uma variedade de diferentes velocidades de porta disponíveis. Outras características que podem criar diferenciação entre os fabricantes de HBA e seus produtos incluem: se os transceivers* no HBA são fixos ou removíveis; se os HBAs instalados em um servidor podem operar no modo de failover no caso de uma falha de um deles. Grandes data centers possuem múltiplas instâncias de sistemas operacionais rodando em vários servidores. Isto significa que a escolha do fabricante do HBA a ser usado pode exigir mais cuidado. Essencialmente, as organizações devem considerar a escolha de um HBA que forneça uma arquitetura de driver comum em várias gerações de hardware e sistemas operacionais. A padronização em um único fornecedor de HBA pode simplificar a gestão de vários HBAs relacionado à manutenção. A atualização de HBAs de diferentes fabricantes pode apresentar desafios operacionais, tanto para a atualização do driver de cada um deles, quanto para manter a compatibilidade em função de mudanças do sistema operacional. Alguns fabricantes têm disponível uma capacidade de gestão centralizada, mas obviamente isso requer que somente os seus próprios HBAs estejam instalados. O número de fabricantes de HBAs declinou para dois (QLogic e Emulex) – todos os outros são tipicamente versões OEM desses fabricantes.

143 Converged Network Adapter (CNA) O adaptador de rede convergente (CNA) aparece funcionalmente para o host como dois dispositivos PCI: um adaptador de rede (NIC) e um adaptador de Fibre Channel (HBA). Os CNAs combinam a funcionalidade de um HBA de Fibre Channel com uma interface de rede (NIC), efetivamente ‘convergindo’ o acesso a redes de armazenamento (SANs) e redes locais (LAN). O software no host se comunica com a função apropriada (de rede ou armazenamento) no CNA. As conexões externas do CNA são Ethernet, tipicamente 10 Gb Ethernet ou mais rápido. O CNA conecta-se ao servidor no seu barramento interno PCI Express (PCIe). Em redes sem CNA, os servidores precisam ter pelo menos dois adaptadores: um com um HBA Fibre Channel para conectar o servidor à rede de armazenamento, e outro com uma NIC TCP/IP Ethernet para conectar o servidor à rede local (LAN) ou rede de armazenamento iSCSI. Do ponto de vista de armazenamento, o principal objetivo de um CNA é habilitar a operação de Fibre Channel over Ethernet (FCoE)*. Normalmente, isso é conseguido usando 10Gb Ethernet (ou mais rápido – para atender às demandas de transferências de dados de alta velocidade). No entanto, como o Fibre Channel requer uma entrega garantida sem perdas, isso significa que há uma incompatibilidade potencial, dado que os frames de Fibre Channel não podem ser perdidos, enquanto que é aceitável haver perdas de pacotes em ambientes tradicionais TCP/IP quando a rede está congestionada. Para fazer face a esta preocupação, é necessário ampliar as normas 10 GE. As extensões do padrão para 10 GE são coletivamente conhecidas como Data Center Bridging (DCB)*. Estes padrões devem ser suportados em ambos os extremos de uma conexão Ethernet de 10 Gb para que FCoE* esteja disponível através dessa conexão. O uso de um CNA para conectar servidores a storage e rede reduz os custos ao exigir menos placas adaptadoras, cabos e slots de barramento de servidores. Os CNAs também reduzem a complexidade da rede de armazenamento, pois há apenas uma conexão e cabo para gerenciar. * Abordado em mais detalhes em outra parte dessa publicação

144 Capítulo 5 Seção 3 Fibre Channel: Modelos de Arquitetura e Operação Introdução Vamos dar uma breve olhada em alguns dos elementos que permitem que o Fibre Channel entregue toda sua capacidade de alta velocidade e dados em massa. Modelo em Camadas de Fibre Channel O Fibre Channel (tais como os modelos ISO/OSI ou TCP/IP/Ethernet em operações de LAN) funciona como um modelo em camadas. Isto significa que existem várias camadas definidas pelos padrões de Fibre Channel. Funcionalmente, o Fibre Channel opera de forma diferente do modelo OSI, ambos são um quadro conceitual para ajudar a entender melhor as interações complexas que estão acontecendo. Em ambos os modelos, o controle é passado de uma camada para a outra, começando na camada de aplicação de um lado e avançando para a camada inferior, sobre o sistema de conexão no nível mais baixo e de volta para as camadas de cima. Tentar encontrar uma equivalência entre o modelo OSI e Fibre Channel é difícil, dado que eles não se correspondem mutuamente. O modelo OSI foi construído para facilitar a passagem de mensagens (pequenos disparos de tráfego intermitente), enquanto o Fibre Channel foi projetado para permitir a transferência contínua de um alto volume de dados a uma alta velocidade. É bom lembrar que o Fibre Channel não foi projetado apenas como uma tecnologia de conexão de armazenamento (embora isso tenha se tornado sua forma de implementação principal), mas que também é capaz de suportar múltiplos protocolos (por exemplo, aviônica, áudio/visual, etc.) simultaneamente, colocando-os no Fibre Channel como uma portadora transparente de dados.

145 Modelo em Camadas de Fibre Channel Cada camada tem uma função específica que atua nos dados à medida que trafegam entre a aplicação e o sistema operacional, a rede FC e os dispositivos de armazenamento. A separação de funções em camadas permite que padrões futuros alterem a funcionalidade implementada em uma camada, sem impactar as demais camadas. Isto permite que os fabricantes se adaptem mais rapidamente a padrões em evolução e facilita a compatibilidade reversa. A arquitetura em camadas simplifica a depuração, permitindo que o analista primeiro determine a camada na qual a falha ocorreu, e depois se concentre nos componentes da mesma. A camada FC-4 interage com os protocolos de camada superior (estamos usando o exemplo de SCSI, embora outros protocolos possam ser usados) e mapeia para o Fibre Channel, a fim de usar o transporte físico do Fibre Channel. As três camadas inferiores são especificadas no conjunto FC- PH da documentação das normas.

146 As Camadas do Fibre Channel FC-0 O FC-0 especifica a ligação física e lida com os aspectos físicos da transmissão e recepção de um sinal a uma velocidade diferente. Apesar do nome sugerir, o Fibre Channel suporta conexões de cobre e fibra óptica*. A importância desta camada é que ela é crucial para manter a integridade dos dados, o que é uma característica chave do Fibre Channel. O FC-0, implementado de forma apropriada, deve ser capaz de alcançar uma taxa de erro de 1x10-12 (1 em um trilhão). Fisicamente, o FC-0 é implementado no HBA, conectores e cabeamento Fibre Channel (para as velocidades atuais e projetadas, ver http://fibrechannel.org/wp- content/uploads/2015/11/FCIA_RoadMap_Front.jpg)

147 FC-1 O FC-1 separa o esquema de codificação em uma camada separada. O Fibre Channel codifica os dados adicionando bits extras. Isto permite que o fluxo de dados seja sincronizado, gerenciado e que problemas sejam detectados. É importante lembrar que o Fibre Channel não tem um mecanismo incorporado para fazer qualquer coisa que não seja detectar um erro no fluxo de bits – ele não tem um sistema de correção de erros. Quaisquer erros detectados devem ser passados para as camadas superiores (por exemplo SCSI) para que ele seja tratado neste nível (pelo processo de SCSI retry). É por isso que os padrões para FC-0 são tão rigorosos. Uma conectividade ruim cria erros e isso, por sua vez, gera uma perda significativa de tempo com a recuperação de erros. No entanto, esta transferência de dados com alto nível de integridade também faz com que o Fibre Channel seja muito mais rápido, se nenhum erro ocorrer. O FC-1 é implementado no HBA Fibre Channel.

148 FC-2 O FC-2 é a camada que faz a maior parte do trabalho pesado no Fibre Channel, definindo a estrutura, organização e entrega dos dados. O FC-2 garante que os dados enviados entre os dois pontos do Fibre Channel, aderentes à norma, sejam compatíveis e controláveis. Em muitos aspectos, é semelhante à combinação de camadas de transporte, rede e link de dados no modelo OSI. Todos os atuais fabricantes implementam FC-2 no HBA Fibre Channel*. Não há nenhuma razão pela qual isso não possa ser implementado como uma camada de software no servidor, mas isso consumiria o seu poder de processamento, deixando pouco ou nenhum para a aplicação. Esta implementação do FC-2 em hardware é um diferenciador do tradicional arranjo TCP/IP / Ethernet onde a NIC (a controladora de interface de rede) tem apenas tecnologia básica de conexão e todos os processos de dados reais são realizados em software no servidor. Isto faz uma NIC muito menos cara do que um HBA – porque eles não desempenham a mesma função. A falta deste entendimento é uma das principais razões pelas quais algumas organizações veem uma solução de Fibre Channel como \"muito cara\".

149 FC-3 O FC-3 é uma camada 'vazia' na medida em que está disponível para fabricantes e desenvolvedores para implementação de capacidades de serviços comuns. Os serviços comuns são técnicas que podem ser aplicadas em diferentes protocolos e tipos de conexão que são suportados pelo Fibre Channel. Exemplos de serviços comuns incluem autenticação*, criptografia * e compressão de dados*. O FC-3 é atualmente mais usado para suportar autenticação*, criptografia* e distribuição de chave*. Estes serviços não são definidos pelas normas do Fibre Channel. Os fabricantes são livres para implementar seus próprios serviços, que podem não ser compatíveis com outros fabricantes. Consequentemente, em qualquer fabric em que técnicas FC-3 estejam sendo utilizadas, pode ser aconselhável considerar a utilização de apenas um fabricante, devido a questões de interoperabilidade. O FC-3 é implementado no software servidor (ou no controlador inteligente de um dispositivo de armazenamento). Isso permite a implementação, alteração e atualização que podem ser realizadas sem alterar os requisitos do HBA.


Like this book? You can publish your book online for free in a few minutes!
Create your own flipbook