Adição de nós em Cluster-Problema com “Owner” da unidade CSV

SINTOMA

Ao acrescentar um novo nó em um cluster já existente enfrentei um problema no HA (High Avaliability) quando ao mover o storage ocorreu o erro “This node is not a possible owner for this resource”.

CAUSA

Em geral este erro não acontece, pois ao se acrescentar um novo nó ao cluster este já adiciona o novo host como “Possible Owner”, porem neste caso em especial o problema foi a configuração do iSCSI que estava incorreta e o novo host não conseguia acessar uma das unidades do CSV, ocasionando “Redirect Access”.

Após resolver o problema dos endereçamentos do iSCSI os discos ficaram visiveis, porem ele não era migrado para o novo host e acusa o erro indicando que o novo host não era um dos possiveis owners.

No caso de uma VM ou o Quorum basta clicar com o botão direito para acessar a lista de Possible Owners, mas isso não existe em unidades de storage.

Solução

Utilizando o PowerShell Modules execute o cmdlet abaixo e veja que uma das unidades do storage não tem o novo servidor na lista de nós:

Get-ClusterSharedVolume | Get-ClusterOwnerNode

ClusterObject                                            OwnerNodes
-------------                                               ----------
Unidade_G                                               {ServerA}
Unidade_H                                              {ServerA, ServerB}

Na sequencia utilize o comlet abaixo para definir os Owners da unidade que está incorreta:

Set-ClusterOwnerNode –Owners ServerA,ServerB -Resource "Unidade_G"

Por fim, execute o comando inicial novamente e veja que agora os Owners estão corretos:

Get-ClusterSharedVolume | Get-ClusterOwnerNode

ClusterObject                                            OwnerNodes
-------------                                               ----------
Unidade_G                                               {ServerA, ServerB}
Unidade_H                                               {ServerA, ServerB}

Nota

Antes de conseguir resolver o problema tentava utilizar o cmdlet Get-ClusterResource  | Get-ClusterOwnerNode porém unidades CSV não listados, com excessão do Quorum.

Emulador para Tape Drive compativel com DPM (VTL)

Desde os posts que montei sobre DPM e uso de Tapes (http://bit.ly/o5IFjG http://bit.ly/mZOtsz http://bit.ly/odf897) que me perguntam como montar o ambiente em laboratório.

O que é um VTL?

É claro que na ocasião utilizei um Tape Drive real, mas é possivel emular, e muito bem. Fiz isso ontem para testes com o DPM 2012 (http://bit.ly/uW3c0D) e notem que funciona perfeitamente. Esta tecnologia é chamada de VTL (Virtual Tape Library).

image[4]

O nome do programa que uso para VTL é o FireStreamer (https://www.cristalink.com/fs/Default.aspx) podendo emular até 8 robos com 255 tapes drives e 60 mil slots!!!

Se quiser baixar o programa para testes ou demonstrações com DPM pode utilizar a trial de 30 dias disponivel no site.

Mas qual a função real de um VTL?

Sua função é permitir backups ”long term” em mídias que não sejam tapes detectáveis pelo DPM ou outros softwares.

Por exemplo, imagine que sua intenção seja criar um backup movél para Blu-Ray ou HD Externo, uma vez que o DPM não enxerga estes dispositivos como library já que midias removíveis não são válidas. Outra necessidade comum é mover o backup para outra localidade e com o backup normal “short term” do DPM não é possivel por ser formato proprietário.

Nestes casos, a solução é usar um VTL e apontar a fita para o dispositivo desejado, que nada mais é do que um caminho de disco local, como mostra a imagem abaixo.

FireStreamer

Veja que no exemplo será emulado 5 Tape Drives com 200 slots ao todo, sendo que adicionei uma fita com apontando que irá criar um arquivo “Fita.bak” no diretório “Tapes”.

É isso ai, com este ou outro software VTL está resolvido o problema de uso de HDs externos para backup!!!

Gerenciamento de Storage com o System Center Virtual Machine 2012

Seguindo a série de posts sobre recursos do SCVMM 2012 integrados com VMWare ESX e Xen Server agora abordaremos outro recurso que é o gerenciamento de storages. Post anteriores: Integração com live migration http://bit.ly/pf0v9M e Dynamic e Power Optimization http://bit.ly/pJ6KLf.

Com o VMM 2012 você poderá classificar storages pela performance, definir o storage a ser utilizado e criar as LUNs sem a necessidade de conhecer o software de cada fabricante. Ou seja, você poderá utilizar o conceito de virtualização de storage com as interfaces do VMM 2012.

API SMI-S

Uma nova funcionalidade que está sendo discutida com os fabricantes de storages é a criação de um protocolo de comunicação muito similar ao SNMP mas que permita detalhes das especificações de um storage, chamado de Storage Management Initiative Specification (SMI-S).

Este protocolo é um API baseada nos modelos CIM/WBEM, que muitos já conhecem por ser também a especificação básica do WMI presente nos sistemas operacionais Windows. Utilizar este procolo não é tão simples, e é necessário ter um CIMOM que nada mais é que um proxy para “traduzir” as APIs nativas do storage para o protocolo SMI-S.

Porem, os fabricantes de storages já tem estes padrões bem estabelecidos e com upgrades de firmware podem incluir o CIMOM, um deles é o OpenPegasus, no storage já existente.

SMI-S no VMM 2012

Agora entra em cena o VMM 2012 que possui a interface de comunicação SMI-S para se comunicar com os storages e obter informações, e com base nestas pode classificar os storages conforme a sua performance, como a tabela abaixo retirada do TechNet (referencia ao final do documento):

Storage

Automação de Storage no VMM 2012

Agora podemos colocar em prática esta funcionalidade por criar arrays de storage e vincular aos hosts.

Imagine que em sua empresa haja storages com disco SAS e SATA, onde a classificação automática é SILVER e BRONZE respectivamente e tanto o grupo de servidores quanto uma VM pode ter especificado não a LUN, mas sim a classificação.

VMM2012

Essa automação inclui a criação das LUNs, ou seja, não será mais necessário ter conhecimento do software do fabricante para criar as LUNs individualmente já que a API SMI-S implementa os comandos necessário para gerenciar.

Storage Groups

Figura 1 – Tela principal do gerenciador de storages

Storage Pool

Figura 2 – Pool default e criação de um novo pool

Storage Add

Figura 3 – Inclusão de um storage ao pool

Storage

Figura 4 – Vinculando um storage pool a um grupo de hosts hypervisors

Com este recurso o gerenciamento de um datacenter será mais fácil, e quando temos diversos storages independentemente do fabricante poderemos utilizá-lo de forma simples com as APIs SMI-S.

Referencia TechNet http://technet.microsoft.com/en-us/library/gg610600.aspx e http://blogs.technet.com/b/server-cloud/archive/2011/10/14/windows-server-8-standards-based-storage-management.aspx