Azure Arc–Gerenciamento integrado Multi-cloud

O Azure Arc é um produto em preview que tem a função de padronizar e permitir utilizar recursos do Azure para gerenciamento de VMs e Clusters Kubernets hospedados em ambientes on-premisse ou outras clouds integrado. https://azure.microsoft.com/en-us/services/azure-arc/ Habilitando o Serviço por Registrar os Componentes O primeiro passo é acessar as subscrições onde irá hospedar os serviços do Arc. Uma vez escolhida a subscrição, deve-se registrar os recursos de Hybrid como abaixo. Em geral o recurso ADHybridHS já estará habilitado e tem a ver especificamente com a sincronização de AD, mas os recursos de Compute, Data e Network precisam ser habilitados antes de incluir recursos: Registrando Computadores e Recursos Ao criar o recurso do Arc, escolha uma subscrição e um Resource Group para servir de base e que futuramente após o Preview irá ter o débito (se existir) dos serviços. Logo após habilitar clique no botão Adicionar do primeiro print deste artigo e baixe o script para executar nos servidores. Caso queira abrir o script ele é bem simples e basicamente faz o download de um msi e o executa com os dados da subscrição. A primeira execução do script mostra a obrigatoriedade de ativar os recursos, que foi o primeiro tópico desse artigo, e será um erro recorrente já que ao habilitar o Arc esse processo deveria ser automático. Note que na execução do script ele gera um código que deverá ser confirmado no site indicado https://microsoft.com/devicelogin Utilizando Politicas e Iniciativas Assim que vinculados, já podem ser criadas e habilitadas as diferentes Politicas e iniciativas que serviriam para criar alertas e definir padronização de recursos no que geralmente chamamos de Compliance. Por default as politicas acima são configuradas, mas é possivel criar novas para gerar reports de compliance. Para isso utilize as regras pré-existentes que irão facilitar diversos tipos diferentes de alertas como backup, antivirus, ASR, etc. Já para as Iniciativas não estamos apenas verificando, mas implementando alguns tipos de padrões como o nivel de auditoria ou requisitos legais/padrões regulatórios: Habilitando o Log Analytics Para que os recursos funcionem corretamente é importante o auxilio do Log Analytics que irá capturar os dados do servidor para gerar alertas e mapas de relacionamento. Para isso acesse os servidores e clique no aviso na tarja que é exibida e com isso poderá habilitar os recursos para cada servidor ou em Insights. Uma caracteristica interessante é que cada servidor pode utilizar subscrições diferentes ou até workspaces diferentes de Log Analytics. A partir da integração que irá demorar de 5 a 10 minutos, já é possivel usar os monitores, alertas e até o mapa de relacionamento: CONCLUSÃO Em comporações com servidores fisicos, servidores virtuais e maquinas em clous ter a facilidade de integrar as funções de gerenciamento do Azure irá ajudar muito. Grande parte do trabalho já é possivel no Log Analytics mas de forma passiva. Com a integração simples com as politicas, iniciativas e interface o uso do Azure Arc irá ser uma ferramenta excelente para profissionais de TI com ambientes multiplos de hospedagem.

Possibilitando trabalho remoto em período de Corona Vírus

Nesse período em que muitos colaboradores estão sendo movidos para remote office, que soluções podem ser adotadas rapidamente para isso? Cenário 1 – Uso de VPN A primeira solução é o uso de VPNs, onde o colaborador irá acessar de sua casa o ambiente de rede da empresa via internet. Quais as vantagens? Esse método é bem interessante por ser rápido de implementar, em geral no firewall que a  empresa já utiliza. O usuário poderá acessar seus e-mails, servidores e aplicações como se estivesse fisicamente dentro da empresa, usando seu computador pessoal. Como utiliza um produto já existente na maioria dos ambiente, o custo é mínimo para habilitar no firewall e muitos fabricantes basta habilitar. Quais as desvantagens? O maior risco no uso de VPNs é a falta de segurança advindo de  conexões externas diretas, de equipamentos desconhecidos. Por exemplo, imagine que a maquina do colaborador é a mesma que ele baixa conteúdos da internet, joguinhos e outros. Que garantia eu tenho que não entrará um worm ou vírus por essa conexão? Nenhuma. Quais soluções posso usar para complementar a segurança? NAC (Network Access Control) são protocolos e proteções instaladas no firewall que ao tentar se conectar um script é executado no equipamento remoto para validar se ele tem anti-virus valido, atualizações de sistema operacional, etc por meio de uma regra NPS (Network Policy Service/Server). Porem, os NPSs costumam ser limitados no que podem checar e ai é quando precisamos instalar um agente antecipadamente e só validam no momento de entrada na rede sem validar configurações que possam ser alteradas ou permitam que o equipamento fique desprotegido. Já a solução de MDM no portfólio de Microsoft é o Microsoft Intune que agora se chama Microsoft Endpoint Management Service por ter se juntado ao SCCM (System Center Configuration Manager). O Intune é uma solução em nuvem com funções similares ao SCCM, mas com módulos para dispositivos como telefone e tablets. Ele permite que o administrador crie regras de validação para serem aplicadas na máquina do usuário a partir do software de monitoramento e essas regras podem envolver: • Atualizações de sistema operacional • Instalação de aplicações corporativas automaticamente • Regras de Compliance como obrigatoriedade e tipo de senha, uso de recursos compartilhados entre diferentes ambientes no mobile (KNOX e Apple Secure) • Restrição a troca de informações entre aplicativos classificados como corporativos (copiar e colar) • Diversas outras regras que variam entre Android, iOS, MAC e Windows • Se integram com vários modelos de NAC físicos Cenário 2 – Uso de PaaS e SaaS para aplicações de trabalho Muito conhecido como Modern Workplace essas soluções no portfolio de Microsoft estão no Microsoft Office 365. Vendidos em pacotes individuais de serviços, pacote Business (até 300) e enterprise (Office 365 e Microsoft 365) possibilitam que um colaborador trabalhe remoto sem qualquer tipo de acesso a rede interna. Quais as vantagens? Por terem diferentes modelos de aquisição contratual (CSP por demanda, MPSA e EA com preços fixados) é acessível a todos os clientes. A segurança dos dados é maior pois o usuário acessa arquivos e email diretamente da Microsoft por meio da internet comum e não tem acesso aos servidores internos da empresa. Por ser um modelo de serviços em nuvem, não precisa de instalações, servidores e infraestrutura local além do TCO de manutenção e operação desses serviços. Bem, não precisamos falar muito porque hoje já é consolidado o modelo de PasS e SaaS com Exchange, Teams, SharePoint, OneDrive e outros produtos da suíte. Quais as desvantagens? Existem poucos pontos negativos, já que aqui estamos tratando de serviços essenciais (email, mensageria, áudio e vídeo conferencia, troca de arquivos). Mas o acesso irrestrito dos dados sem a facilidade de criar regras de segurança que temos com ACL em um servidor de arquivos físicos assusta muita gente... Uma vez que os arquivos estão na nuvem e acessíveis de qualquer lugar e dispositivo como evitar o acesso indevido? Quais as soluções que protegem o meu conteúdo? Nesse ponto é que as coisas ficam mais fáceis! No modelo de PaaS e SaaS do Office 365 temos pacotes de segurança disponíveis para qualquer uma das opções tanto contratuais como tipo de pacote: • Criptografar, categorizar e identificar conteúdo protegido temos o AIP (Azure Information Protection) que é o antigo RMS do Windows, agora em nuvem, que pode identificar por exemplo que um usuários está passando CPFs e Passaportes para outras pessoas dentro ou fora da empresa • Detectar atividades suspeitas temos o ATP (Azure Advanced Threat Protection) que analisa a atividade no AD local e em nuvem • Com o CASB (Cloud App Security) Fazer detecções avançadas de uso, integrando aplicações de terceiros e identificando possíveis violações e problemas como logins em diferentes localidades simultâneas ou em deslocamentos impossíveis (chile e Australia em menos de 2 horas por exemplo) • Permitir a criação de regras de acesso e login (similar ao NAC) com o AD Premium, que também possibilita relatórios detalhados de atividades Esses recursos citados são os que cobririam a segurança do acesso aos dados da empresa em qualquer dispositivo! Cenário 3 – Virtual Desktop Solução já muito conhecida, pode ser implementada em modelo de acesso direto a aplicativos a partir de servidores (RDS) ou maquinas virtuais independentes para os usuários (VDI). Quais as vantagens? Nada está fora da empresa, não existe troca de dados via internet. Nesse modelo, os dados são acessados de dentro da empresa, uma vez que o usuário irá ver a tela do servidor ou de sua VM pessoal que está na infraestrutura e rede da corporação. Então o acesso aos dados é muito controlado e 100% similar ao que o colaborador estaria vendo e fazendo sentado na sua mesa de escritório. Quais as desvantagens? Custo, tanto de equipamentos quanto licenciamento. Para montar uma estrutura de RDS (Remote Desktop Service) é possível usar direto o Windows Server e ter um custo bem mais atrativo ou soluções como VMWare Horizon e Citrix. Já para a solução de VDI (Virtual Desktop Infrastructure) temos um alto custo, já que para cada usuário logado é necessário ter uma VM Windows 10 ativada. Sendo assim, se houver 200 usuários remotos será necessário ter 200 VMs ativas em servidores físicos, que acabando o surto deixariam de ser necessárias. Quais alternativas para a falta de Hardware nesse momento de isolamento? A Microsoft possui um serviço chamado WVD (Windows Virtual Desktop) que é um VDI hospedado, com a vantagem de ser escalável podendo ir de 1 a 25.000 VMs em minutos! Esse serviço é aberto a todos os clientes por meio de uma conta no Azure e o licenciamento de Windows Enterprise com SA ou Windows E3 que é subscrição. Usuários que já tem o Microsoft 365 (exceto F1) já estão habilitados, uma vez que o M365 E3 e E5 incluem o licenciamento de Windows Enterprise. E para os que não tem, pode fazer a subscrição de licenças Windows E3 no modelo CSP mensal, onde irá pagar apenas pelo que ativar de WVDs.

Azure File Sync–Otimizando seu File Server e Storage

Duas aplicações mais consomem storage em ambientes de TI: Banco de dados – Por conterem dados analiticos e indexados podemos utilizar tecnicas de drill down para separar os dados analiticos dos dados resumidos facilitando o acesso e otimizando custos File Server – Ao longo dos anos as empresas acumulam milhares de arquivos, o que custa caro e raramente é agrupado ou tierizado Tierização: Tecnologia onde os dados são separados conforme regras de performance em discos mais caros ou mais baratos. Por exemplo, arquivos pouco usados ficam em discos SATA, arquivos com acesso ocasional em discos SAS e arquivos que são acessados diariamente em discos SSD. Vamos abordar como utilizar o Azure File Sync para criar uma tierização dos dados em um File Server para permitir que arquivos mais acessados fiquem localmente guardados e os mais antigos apenas em nuvem. Cenários Frequentes O primeiro cenário é o de diminuir o tamanho total de espaço ocupado por arquivos antigos. Nesse caso utilizamos as configurações de data do arquivo e espaço livre desejado para diminuir o espaço em disco que o File Server ocupa, liberando para uso com outras necessidades. O segundo cenário é servidor de arquivos distribuidos, onde em cada filial da empresa é necessário ter um servidor para acessar os dados. Nesse exemplo todos os servidores replicam a mesma pasta, o que não cria problemas de saturação local, já que o cache é apenas dos arquivos recentes e controlado pelo percentual desejado de espaço livre a ser mantido. Componentes do Azure File Sync Storage Account – Um storage virtual onde os dados serão armazenados File Share no Storage Account – Pasta dentro do Storage Account para receber os arquivos que serão enviados Azure File Sync Service no Market Place – É o serviço e deve ser habilitado, diferente de outros serviços nativos. Porem, apesar de estar no Market Place o AFS não tem um custo, trata-se apenas da inclusão de um serviço File Sync Service – É o serviço no painel do Azure onde podemos criar os grupos, incluir os servidores e configurar storage Registered Services (servidores) – São os servidores que serão sincronizados, onde os arquivos estão armazenados e servirão de cache Sync Group – Forma a lista de servidores que irá receber a cópia dos arquivos a serem copiados e dar acesso aos arquivos em qualquer localidade Criando um Storage Esse é o primeiro passo e bem conhecido de quem já utiliza o Azure, uma vez que para tudo precisamos de um storage. Para usar o AFS não é necessário qualquer configuração adicional, você poderá escolher qual região, tipo de storage e replicação que melhor se aplique ao seu ambiente. Obviamente algumas coisas precisam ser levadas em conta: O tipo de conta envolve a performance maxima e irá afetar tanto o download quanto upload quando os usuários utilizam os arquivos Replicação é importante se você terá servidores em várias localidades/paises Camada Hot or Cold envolve a performance diretamente e tambem o custo, já que o acesso é bem lento em discos Cold e não recomendaria para uma solução como essa Na sequencia é necessário criar o File Share para onde os arquivos irão quando sincronizados, e o conceito é o mesmo de um servidor comum: Quando sincronizado, os arquivos irão aparecer primeiro na pasta Sincronization e depois na pasta principal como podemos ver abaixo. Lembrando que as duas telas acima se referem a sincronização já finalizada, a primeira para ver os arquivos sendo copiados e a segunda quando a primeira sincronização já finalizou. Habilitando o Azure File Sync Procure no Marketplace pelo Azure File Sync ou Serviço de Sincronização do Azure em portugues: Nesse momento pode-se optar por utilizar um Resource Group existente ou um novo, não importando em qual Resource Group o Storage foi criado, uma vez que ele pode ter varios outros serviços atribuidos. Criando o Serviço de Sincronização A criação do grupo de sincronização é bem simples, bastante indicar a assinatura, storage e a pasta compartilhada definida anteriormente. Registrando Servidores de Arquivos Você poderá indicar servidores: Novos servidores que não tenham arquivos e incluí-los em um grupo já sincronizado para que ele sirva de cache dos arquivos que já estão na pasta compartilhada do Storage no Azure Servidor com dados onde o conteudo será copiado para o Azure e acrescentado O primeiro passo é instalar as bibliotecas PowerShell do Azure (AZ) no servidor, o que pode ser feito seguindo os passos na página https://docs.microsoft.com/pt-br/powershell/azure/install-az-ps?view=azps-2.6.0&wt.mc_id=4029139 Após ter o Azure CLI instalado, baixe e instale o Agente de Sincronização que é muito simples de ser feito. Após isso, já será possivel ver o servidor no painel do Azure: Nesse passo não é necessário configurações nem qualquer definição adicional, já que se trata de uma operação simples de agente. Criando o Endpoint (Servidores Cache) Aqui é onde realmente criamos o serviço e vemos a mágica acontecer! Entrando dentro do grupo de sincronização que criamos anteriormente e usar a opção Adicionar ponto de extremidade ou Add Endpoint para incluir o servidor no grupo que criamos. Vamos ver as opções que estão listadas: Caminho – É o diretório que queremos que fique sincronizado, lembrando que se estiver vazio para um grupo já existente ele irá baixar o conteudo conforme for sendo utilizado. Se for um servidor que já contem arquivos, esses serão carregadso para o Azure. Importante: Não é possivel usar a unidade root (C:) e sim um disca parte por conta dos arquivos de sistema. Percentual livre no volume – Não definimos quanto irá ser usado para cache e sim quanto de espaço no volume deverá ficar livre. Pode parecer um calculo invertido mas não é por conta de outros arquivos que o mesmo disco contenha. Por exemplo, se o volume é de 100GB e contem outros arquivos totalizando 40GB e definirmos que queremos deixar 50% do disco livre, apenas 10GB será usado pelo cache (50% de 100GB=50GB sempre livre) e conforme o uso de outros arquivos aumentar que não sejam sincronizados, menos irá ter espaço para o cache. Dica: Por conta dessa dificuldade, prefira utilizar um volume dedicado para fazer o File Sync Cache apenas de arquivos acessados ou modificados a x dias – Vimos que temos a opção de preservar um percentual do disco. Mas e se arquivos antigos ocupam muito espaço não irá adiantar muito. Nesse caso do meu exemplo qualquer arquivo com mais de 60 dias irá automaticamente para o Azure e será deletado no disco do servidor, ganhando espaço livre mesmo que o percentual de cache ainda esteja disponivel. Ao finalizar essa configuração já é possivel acompanhar a sincronização clicando no servidor: Assim que sincronizado, podemos usar os paineis de metricas abaixo da tela para criar alertas quando ocorrerem erros ou distorções: No meu exemplo posso utilizar uma regra que se o numero de arquivos sincronizados for maior que 100 para upload no intervalo de 15 minutos pode ser uma alteração em massa causada por uma cópia indevida ou mesmo um malware.

Azure Virtual Datacenter (VDC) Parte I- Migração AS IS e TO BE

Quando trabalhamos em um projeto de migração para Public Cloud e o desenho é voltado a Azure, é muito comum os cenários de “AS IS”. AS IS Para os não iniciados com este termo, “AS IS” significa levar como está me ingles, ou seja copiar as VMs de um ambiente a outro sem qualquer alteração, utilizando o Azure como um virtualizador. Em geral os modelos de migração AS IS não são eficientes, pois consomem muito recursos em IaaS (VMs) que custam caro, não aproveitando nada de serviços (SaaS ou PaaS) que são mais baratos. Porem, a vantagem é que é mais rápido e não exige mudanças. TO BE (ou LIft and Shift) Já as boas migrações são as “TO BE”, que em tradução livre seria “SERÁ” no sentido de transformação. O modelo de migração TO BE tem como premissa usar os serviços e não apenas migrar VMs. Migrações TO BE são trabalhosas e mais demoradas, uma vez que esse mapeamento envolve entender o que está DENTRO DAS VMs. O custo de execução é muito menor pois SaaS e PaaS tem vantagens financeiras grandes quando comparados ao modelo de IaaS. Por exemplo, no AS IS um servidor IIS e outro de SQL serão simplesmente copiados os discos virtuais e iniciados. Já no modelo TO BE iremos isolar cada uma das aplicaçÕes que o IIS executa e criar Web Plan para isolamento e Web Services para cada site, e no caso do SQL Server usariamos o serviço de Banco de Dados (SaaS ou PaaS). Utilizando o Service MAP O primeiro passo para fazer uma migração é mapear o que cada VMs ou servidor fisico executa no ambiente. Para isso utilizamos o Service MAP: http://www.marcelosincic.com.br/post/Azure-Log-Insigths-Service-Map.aspx Com ele será possivel ver as interligações e serviços que cada servidor utiliza entre no ambiente e mapear qual serviço temos para substituir. Entendendo o Conceito de Datacenter do Azure Para desenhar um datacenter usando VMWare, Hyper-V ou KVM é necessário que o desenho dos hosts, rede e outros detalhes sejam feitos por especialistas no hypervisor. O mesmo vale para Azure, precisamos entender os diferentes componentes para desenhar um datacenter com seus recursos. Para isso, é necessário estudar, e muito.   Tambem é necessário quebrar os paradigmas de datacenter fisico e pensar em serviços. Uma das formas de fazer isso é utilizar o Guide da própria Microsoft disponivel em https://docs.microsoft.com/en-us/azure/architecture/vdc/ Esse guia tem todas as perspectivas de um datacenter virtual, o ajudará a entender a camada de virtualização, rede, segurança, serviços e o lift and shift, ou seja a transformação para um modelo mais eficiente. Para começar baixe a apresentação disponivel em https://aka.ms/VDC/Deck Conclusão Não é fácil fazer uma migração correta, mas é possivel e o resultado será muito melhor. Ao longo do mês iremos explorar os itens que compõe o VDC e verá que é possivel fazer esse tipo de migração com recursos novos, mais eficientes e custos apropriados.

Microsoft Virtual Machine Converter (MVMC)–Retirada do Produto

A Microsoft anunciou esta semana a retirada do MVMC como produto já no final deste ano. https://blogs.technet.microsoft.com/scvmm/2016/06/04/important-update-regarding-microsoft-virtual-machine-converter-mvmc/ Para quem não conhece o MVMC ou não lembra sua função, ele é um plugin para converter maquinas fisicas (P2V) ou virtuais de outras plataformas (V2V) para VMs no Hyper-V.   O que usar no lugar do MVMC? A sugestão apresentada é utilizar o Azure Recovery Site, mas ele na verdade é um serviço e não seria útil quando o desejo é subir VMs em ambiente on-premisse. Porem, no caso do cliente que quer transformar o ambiente fisico (P2V) para nuvem (IaaS) o Azure Recovery Site é a melhor opção. E para quem precisa fazer V2V hospedadas no VMWare para o Hyper-V pode utilizar o próprio VMM (System Center Virtual Machine Manager) que processa a conversão nativamente. Por fim, para os casos de conversão de maquinas fisicas para virtuais (P2V) pode-se usar o Disk2VHD como já comentado em outras ocasiões e é um produto muito conhecido para gerar VHDs a partir de discos fisicos, que abordei em 2009: http://www.marcelosincic.com.br/post/Ferramenta-para-converter-HD-fisico-(em-uso)-para-VHD.aspx Link do Disk2VHD: https://technet.microsoft.com/en-us/sysinternals/ee656415.aspx

MVP V-Conf – Evento Online de MVPs

A Microsoft está organizando um evento virtual com MVPs em vários lugares do mundo, e o Brasil foi um dos escolhidos. A data do evento no Brasil será a mesma dos outros países do mundo, dias 14 e 15 de Maio, detalhes em http://mvp.microsoft.com/en-us/virtualconference.aspx A inscrição pode ser feita pelo link: http://aka.ms/mvpvirtualconference2015 No link http://mvp.microsoft.com/en-us/virtualconference-sessions.aspx#Brazil é possivel ver a grade completa das palestras em portugues, feitas por MVPs brasileiros. Junto com o Vidal teremos duas palestras e convidamos todos a participar!

Deduplicação do Windows Server 2012 R2 com Hyper-V

Ontem em um cliente usei o meu servidor para as Demos de System Center e ele se interessou quando disse que utilizava o recurso Deduplication (ou Dedup) do Windows Server 2012 R2. Consequentemente, a reunião migrou do System Center para otimização de discos com o Hyper-V. Afinal de contas, o ganho com Dedup em VHDs é impressionante, chegando no meu caso a quase 80% de espaço adicional: Importante: Primeiro ponto nessa conversa é deixar claro que a Microsoft não suporta Dedup para Hyper-V em hosts de Hyper-V para VMs em produção. O motivo é explicado no TechNet http://technet.microsoft.com/en-us/library/hh831700.aspx, e basicamente é porque Dedup em ambiente onde os arquivos estão abertos pode gerar diversos erros: “Deduplication of open files has not been fully validated for general virtualization or other applications, and additional issues may be encountered.” Porem, surgem sempre duas perguntas neste caso: Pergunta 1: Mas o Dedup do Windows 2012 R2 pelo PowerShell tem o modo “Files” e o modo “Hyper-V”, como não é suportado? Resposta: Para Hyper-V só é suportado para ambiente VDI, onde as maquinas são de usuário com SO cliente. Como em geral ambientes de VDI utilizam o modo de pool e uma única VM é duplicada a cada nova seção, se 100 usuário estão online teríamos 100 VHDs sendo criados dinamicamente com dados duplicados. Neste caso fica evidente que o uso do Dedup será suportado, uma vez que os VHDs são dinamicos e não estão o tempo todo em uso. Alem disso em geral são utilizados discos diferenciais, mantendo o disco parent imutável. Pergunta 2: Se não é suportado, porque eu estou usando?  ;-) Resposta: Não é suportado, mas no meu caso não é ambiente de produção e utilizo Dedup manual: Não mantenho meu servidor 24 horas por dia ligado, então quando todas as VMs estão paradas, normalmente faço isso semanalmente, inicio o Job do Dedup com o comando: Start-DedupJob -Type Optimization -Volume X: Depois basta monitorar se o Job já terminou com Get-DedupJob: Assim, meus arquivos VHD não correm o risco de serem manipulados enquanto estão em uso e garanto que periodicamente está sendo atualizado o Dedup. Porem, é sempre bom lembrar que para não ter problemas o ideal é ter um disco ou volume separado para os VHDs, pois na configuração do Dedup este volume estará configurado como VDI (ou Hyper-V no PowerShell):