MVP: System Center Cloud and Datacenter Management, MCT, MCSE, MCITP, MCPD, MCDBA
MVP Logo

Pageviews The process cannot access the file 'D:\home\site\wwwroot\Visitas2.xml' because it is being used by another process.
Pageviews 2019: 4355776
Pageviews 2018: 4296564
Pageviews 2017: 4351543
Pageviews 2016: 3991973
Pageviews 2015: 2675433
Pageviews 2014: 2664208
Pageviews 2013: 2399409
Pageviews 2012: 3209633
Pageviews 2011: 2730038
Pageviews 2010: 1470924
Pageviews 2009: 64608

Últimos posts

Categorias

Arquivo

Tags

Boot no Windows 7 e Windows 2008 com VHD

A um tempo atrás comentei que o Windows 7 e o Windows 2008 permitiam o uso nativo de discos virtuais (VHD): http://www.marcelosincic.eti.br/Blog/post/Virtual-Hard-Disk-(VHD-e-WIM)-no-Windows-7-e-Windows-2008.aspx

Porem, como fazer boot por eles?

Existem duas formas. A primeira é mais simples, mas cria um boot primario. A segunda é um pouco mais detalhada.

 Segue o primeiro método, passo-a-passo:

  • Siga os passos do post acima para acrescentar o VHD na lista de discos
  • Acesse o command prompt (administrador no Windows 7)
  • Digite a seguencia:
    • cd <letra>:\Windows\System32
      bcdboot <letra>:\Windows

Este método é simples porque acrescenta uma entrada de boot baseada nos dados do diretório windows do VHD.

Segue o segundo método, passo-a-passo:

  • Siga os passos do post acima para acrescentar o VHD na lista de discos
  • Acesse o command prompt (administrador no Windows 7)
  • Digite a seguencia:
    • bcdedit /copy {current} /d “Nome do SO”   (Este comando retorna o CLSID que deve ser usado nos outros comandos)
      bcdedit /set {CLSID} device vhd=[<letra>:]\Arquivo.vhd
      bcdedit /set {CLSID} osdevice vhd=[<letra>:]\Arquivo.vhd
      bcdedit /set {CLSID} detecthal on

Este segundo método primeiro cria um clone do SO que já existe, altera o nome e a localização apontando para o VHD e liga o detector de hardware.

Deletando a entrada no BOOT

Utilize os dois comandos abaixo, o primeiro para descobrir o CLSID e o segundo para deletá-lo:

  • bcdedit (irá listar, veja o que quer deletar e copie o CLSID
  • bcdedit /delete {CLSID}

OBSERVAÇÃO IMPORTANTE:

O fato de VHDs poderem ser criados no VirtualPC, Virtual Server, Hyper-V ou VirtualBox não quer dizer que você pode subir a maquina virtual nestes programas, instalar o SO e depois utilizar para Dual-Boot normalmente. O problema neste caso é que estes virtualizadores trabalham com drivers de hardware "virtuais" o que pode não funcionar na maquina fisica.

 

Posted: jul 30 2009, 14:54 by msincic | Comentários (9) RSS comment feed |
  • Currently 0/5 Stars.
  • 1
  • 2
  • 3
  • 4
  • 5
Filed under: Windows 2008 | Windows 7

TechNet Community: System Center (SCOM/SCCM/SCDPM) e Migração Exchange 2003 para Exchange 2007

Os dois eventos abaixo estão abertos para inscrição pela Microsoft, não deixem de comparecer !!!

terça-feira, 28 de julho de 2009 9:00 - terça-feira, 28 de julho de 2009 12:00 Brasília

http://msevents.microsoft.com/CUI/EventDetail.aspx?EventID=1032422367&Culture=pt-BR

segunda-feira, 3 de agosto de 2009 19:00 - segunda-feira, 3 de agosto de 2009 22:00 Brasília

http://msevents.microsoft.com/CUI/EventDetail.aspx?EventID=1032422365&Culture=pt-BR

Posted: jul 24 2009, 10:51 by msincic | Comentários (14) RSS comment feed |
  • Currently 0/5 Stars.
  • 1
  • 2
  • 3
  • 4
  • 5

MSDN Community: Visual Studio 2008 - WPF/WCF/Silverlight e Sharepoint 2007 para Desenvolvedores

Os dois eventos abaixo estão abertos para inscrição pela Microsoft, não deixem de comparecer !!!

segunda-feira, 27 de julho de 2009 9:00 - segunda-feira, 27 de julho de 2009 12:00 Brasília

http://msevents.microsoft.com/CUI/EventDetail.aspx?EventID=1032422336&Culture=pt-BR

quarta-feira, 5 de agosto de 2009 19:00 - quarta-feira, 5 de agosto de 2009 22:00 Brasília

http://msevents.microsoft.com/CUI/EventDetail.aspx?EventID=1032422335&Culture=pt-BR

Posted: jul 24 2009, 10:44 by msincic | Comentários (10) RSS comment feed |
  • Currently 0/5 Stars.
  • 1
  • 2
  • 3
  • 4
  • 5
Filed under: .NET | Sharepoint

Scripts de exemplo dos cursos Scripting (2433) e WMI (2439)

Já não ministrava estes cursos a um tempo, para ter uma idéia ainda se baseavam no Windows 2000.

Estou deixando disponivel a biblioteca de scripts que criei a uns 3 anos atrás quando este curso era bem mais comum.

Estão separados em 2 arquivos, o primeiro para scripts de administração, incluindo alguns que acessam base de dados, e o segundo especifico com exemplos de WMI.

Bom proveito !!!!!

 

Scripts Básicos e Administrativos.zip (95,08 kb)

Scripts WMI.zip (7,00 kb)

Posted: jul 23 2009, 22:43 by msincic | Comentários (13) RSS comment feed |
  • Currently 0/5 Stars.
  • 1
  • 2
  • 3
  • 4
  • 5
Filed under: Outros | Windows

Videos do TechNet série Migração

Gravei a alguns meses 6 videos sobre a migração de Windows Server 2003 para Windows Server 2008 e Exchange Server 2003 para Exchange Server 2007 (rodando no Windows Server 2008).

Os videos já foram editados e finalizados e podem ser assistidos online ou baixados.

http://technet.microsoft.com/pt-br/ee331664.aspx 

Posted: jul 22 2009, 21:59 by msincic | Comentários (0) RSS comment feed |
  • Currently 0/5 Stars.
  • 1
  • 2
  • 3
  • 4
  • 5
Login
Marcelo de Moraes Sincic | System Center
MVP: System Center Cloud and Datacenter Management, MCT, MCSE, MCITP, MCPD, MCDBA
MVP Logo

Pageviews 2020: 32494776
Pageviews 2019: 4355776
Pageviews 2018: 4296564
Pageviews 2017: 4351543
Pageviews 2016: 3991973
Pageviews 2015: 2675433
Pageviews 2014: 2664208
Pageviews 2013: 2399409
Pageviews 2012: 3209633
Pageviews 2011: 2730038
Pageviews 2010: 1470924
Pageviews 2009: 64608

Últimos posts

Categorias

Arquivo

Tags

Novo Modelo de Updates do SCCM 2016

Como já havia escrito a algum tempo, uma das mais interessantes novidades do System Center 2016 é a capacidade dos produtos em se atualizarem automaticamente.

No System Center Operations Manager (SCOM) e Service Manager (SCSM) são so Management Packs e no System Center Configuration Manager (SCCM) a atualização inclui os binários do servidor, agente e console.

 

Atualização Automática do SCCM

Pelo console do SCCM acesse Administration –> Cloud Services –> Updates and Servicing e será possivel ver a lista de atualizações, que no caso do SCCM são os Builds, uma vez que ele não possui mais versões.

Clique sobre a versão que está disponivel, o SCCM irá manter o histórico das atualizações já realizadas.

Capturar

Ao selecionar a atualização é possivel ver os novos recursos que a atualização irá fazer, a lista de Knowlegde Bases:

Capturar0

Um item interessante ao iniciar atualização é que podemos ignorar os pré-requisitos como pode ser visto na tela abaixo no checkbox para ‘forçar” a atualização.

Claro que é importante deixar que os requisitos sejam testados, instalar uma atualização que não está com o ambiente completo pode gerar problemas e indisponibilidade permanente.

Capturar1

Outro item importante é a possibilidade de escolher as features que serão incluidas no SCCM com a atualização. Por exemplo, o Apple Volume Purchase é instalado nesse momento como se fossem as features pelo console em “Site Roles and Services”.

Caso não opte por instalar as features no momento da instalação da atualização, é possivel executar novamente mais tarde pelo mesmo caminho:

Capturar2

Como as atualizações “carregam” as novas features podemos escolher quais iremos habilitar como em outras configurações de roles:

Capturar3

Por fim após o update o SCCM poderá pedir para reiniciar o console e finalizar a instalação:

Capturar4

 

Conclusão

Realmente é um recurso excelente ter as atualizações a mão de forma tão simples e confiável.

Esse recurso tornará mais fácil manter o SCCM e outros produtos System Center saudáveis com as ultimas atualizações.

Windows Defender ATP–Entenda o Novo Produto

Parte dos novos recursos do Windows 10 é a capacidade de detalhamento na segurança e integração com recursos do Microsoft DCU (Digital Crime Unit), que é a unidade da Microsoft que trabalha com o departamento de defesa para gerar e identificar ataques ao redor do mundo (https://blogs.windows.com/windowsexperience/2016/03/01/announcing-windows-defender-advanced-threat-protection/).

Tipos de Proteção Disponiveis

Em geral os antivírus são baseados em DAT que são arquivos com assinaturas de vírus e conseguem identificar programas que tenham atividades ou parte destes códigos considerados perigosos. Nessa categoria estão todos os antivírus atuais, o que inclui o Windows Defender.

Já os sistemas de proteção avançados contem com análise comportamental interna e externa, ou seja, eles identificam potenciais ameaças por comportamentos como fazem alguns produtos da Symantec e McAfee, que identifica maquinas enviando pacotes para outras maquinas, logins com força bruta, etc.

Já os sistemas de proteção comportamental com análise externa são produtos bem diferentes. Eles analisam comportamentos de maquinas no ambiente e comunicações externas. Com isso é possível identificar:

  • Um grupo de maquinas recebendo pacotes de uma determinada maquina com conteúdo suspeito
  • Pacotes oriundos de países onde o ataque de phishing e similares são comuns
  • Pacotes oriundos de maquinas já identificadas como “zumbi”

Ou seja, com base na análise do próprio ambiente e de comportamento de hackers, é possível identificar que determinado hacker está tentando invadir uma empresa ao analisas que este hacker está enviando pacotes para a rede da empresa alvo.

 

O que é o ATA e o ATP

Nos produtos Microsoft esse produto é o ATA (Advanced Thread Analisys) que trabalha no Active Directory e logins, e o ATP (Advanced Thread Protection) que trabalha com Machine Learning (análise de dados) sobre os logs das maquinas individuais.

Na prática o Windows Defender ATP trabalha com o mesmo log que o Windows Defender, mas online e com base nas análises e dados do DCU. Com isso é possível identificar ameaças que não são encontradas nos tradicionais DAT ou com base apenas em uma única maquina que é a forma como os antivírus tradicionais trabalham.

O ATA é parte do EMS (Enterprise Mobility Suite), mas pode ser adquirido a parte: https://www.microsoft.com/pt-br/server-cloud/products/advanced-threat-analytics/overview.aspx

O ATP ainda está em preview com acesso por solicitação: https://www.microsoft.com/en-us/WindowsForBusiness/windows-atp

 

Overview do ATP

Como já possuo acesso ao ATP, vamos ver como ele funciona. Para pedir esse acesso, entre na página acima e complete com seus dados. É possível incluir maquinas de seu ambiente, mas o sistema gera algumas maquinas com vírus e problemas para testes automaticamente. Note nas telas abaixo que o usuário utilizado é gerado pela Microsoft para os testes.

Ao receber o acesso, o primeiro passo é indicar tempo de retenção e perfil da empresa que serve para elaborar threads por tipo de segmento:

capture20160724155740716

Na sequencia geramos o pacote ou o script para distribuição das configurações. Note que é possível criar os pacotes para distribuição por GPO, SCCM, Intune ou Local que é o que utilizarei nos meus testes:

capture20160724155906768

O passo seguinte é baixar o pacote, no meu caso o Local Script:

capture20160724155940968

O script contem um arquivo CMD para ser executado manualmente nas maquinas que desejo que o log do Defender seja enviado para o ATP. Esse script cria uma chave no registro para indicar o meu tenant e ativar o ATP:

Capturar

A partir de agora as suas maquinas passarão a enviar dados para o ATP em algumas horas.

No caso do meu teste, posso utilizar os dados da maquina que a Microsoft gera com testes e ver os alertas e o dashboard. A primeira tela é o Dashboard que indica o comportamento geral no ambiente monitorado:

capture20160724161031396

Neste caso não tenho alertas gerados nos últimos 30 dias, mas tenho os de criação do tenant para demonstrar como utilizar o gerenciamento de alertas:

capture20160724155810843

Cada alerta pode ser ignorado, marcado como resolvido ou suprimido em todo o tenant ou apenas para esta maquina específica:

capture20160724155833547

 

Conclusão

Este tipo de análise dos dados é essencial para a segurança da corporação. Em breve disponível como serviço no Azure, o ATP é uma nova forma de analisar e garantir seu ambiente.

Utilizando o Azure Log Analytics (OMS) e o SCOM na Mesma Maquina

Para utilizar o Log Analytics, antigo Operational Insights, junto com o System Center Operations Manager é possível fazer isso pelo console do próprio SCOM.

Essa forma de integração já em Março/2014: http://www.marcelosincic.com.br/post/Integrando-o-SCOM-ao-System-Center-Advisor.aspx

Apesar de ter alterado o nome de System Center Advisor, depois para Operational Insights e agora Log Analytics, o processo de integração com o SCOM se manteve o mesmo.

Porem a uma limitação no processo de integração do SCOM, pois ele só permite uma conta de OMS/Log Analytics por organização. Em muitos casos é necessário usar mais de uma conta, por exemplo:

  • Provedores de serviço e CSC em que cada cliente tem uma conta diferente no Azure
  • Quando utilizamos múltiplas assinaturas para monitorar um mesmo ambiente físico
  • Quando uma das contas é beneficio de Visual Studio com créditos limitados e desejamos separar os servidores em contas diferentes

Nestes casos podemos utilizar os dois métodos os mesmo tempo, instalar o agente do SCOM e não vincular a uma conta do Log Analytics e fazer o processo apenas nas maquinas desejadas.

Para isso, o primeiro passo é abrir o Log Analytics e copiar o Workspace ID e o Primary Key. Veja no exemplo abaixo que já tenho meu SCOM integrado ao Log Analytics.

capture20160706181016883

O passo seguinte é ir até a maquina que deseja monitorar e abrir o agente de monitoração do SCOM (Microsoft Monitoring Agent):

capture20160706180916785

Ao abrir as configurações do agente note a aba Azure Operational Insigths (nome anterior a Log Analytics). Veja nesse print que já tenho a maquina sendo reportada ao SCOM:

capture20160706180926742

Insira os dados da sua conta do Log Analytics e pronto, agora é possível ter a monitoração com várias contas ou individual:

capture20160706180935405

Agora os meus dados de Active Directory que antes não estavam sendo populados passam a estar devidamente preenchidos e monitorados:

capture20160706180955111

Instalando o System Center Service Manager Authoring

Na versão Technical Preview ou 2012 R2 do Service Manager Authoring é comum não conseguir passar do ponto abaixo da verificação de pre-requisitos:

capture20160614095229613

Mesmo clicando e deixando o instalador rodar o Visual Studio Shell 2008, a mensagem de que ele não está presente continua.

Para resolver isso é importante entender o motivo. O Shell do Visual Studio não é apenas um componente, mas sim um conjunto. O que acontece é que o Check do Service Manager Authoring não faz a instalação de todos os componentes, apenas o Shell que precisa de outros requisitos.

Para resolver baixe o Shell, execute e vá até o diretório criado pelo instalador e execute o aplicativo VS_Shell_Isolated.enu

capture20160614095251004

Veja que vários componentes serão instalados e atualizados e por isso que o instalador Service Manager Authoring não completa o processo de pré-requisitos:

capture20160614095300870

Após a execução do Shell, execute novamente o instalador do Service Manager Authoring e agora passara pela verificação com sucesso!

capture20160614095905551

Posted: jun 29 2016, 03:22 by msincic | Comentários (0) RSS comment feed |
  • Currently 0/5 Stars.
  • 1
  • 2
  • 3
  • 4
  • 5

Reinstalação do DPM pós-Avaliação ou Technical Preview

Uma das duvidas comuns que me mandam é quando se instalou o System Center Data Protection Manager, seja uma versão avaliação ou um Technical Preview, ao tentar desinstalar para atualizar o DPM ocorre o erro de que o DPM já está presente ou que ele está instalado como avaliação.

Esse erro acontece em vários casos, mas o corriqueiro é quando se utilizou um Technical Preview e a desinstalação mantem a chave de licença.

Para resolver o problema basta apagar a chave de licença que “sobra”:

  1. Abra o Editor de Registro (RegEdit.exe)
  2. Vá até a chave HKEY_CLASSES_ROOT\Licenses
    capture20160614000138497
  3. Delete a chave 830D982D-9ADC-4479-85CE-6474F7D00BB1

Após a remoção da licença do DPM, a instalação ocorre com sucesso!

Posted: jun 29 2016, 03:02 by msincic | Comentários (0) RSS comment feed |
  • Currently 0/5 Stars.
  • 1
  • 2
  • 3
  • 4
  • 5
Login
Marcelo de Moraes Sincic | All posts tagged 'azure file sync'
MVP: System Center Cloud and Datacenter Management, MCT, MCSE, MCITP, MCPD, MCDBA
MVP Logo

Pageviews The process cannot access the file 'D:\home\site\wwwroot\Visitas2.xml' because it is being used by another process. 2020: 32494776
Pageviews 2019: 4355776
Pageviews 2018: 4296564
Pageviews 2017: 4351543
Pageviews 2016: 3991973
Pageviews 2015: 2675433
Pageviews 2014: 2664208
Pageviews 2013: 2399409
Pageviews 2012: 3209633
Pageviews 2011: 2730038
Pageviews 2010: 1470924
Pageviews 2009: 64608

Últimos posts

Categorias

Arquivo

Tags

Azure File Sync–Otimizando seu File Server e Storage

Duas aplicações mais consomem storage em ambientes de TI:

  • Banco de dados – Por conterem dados analiticos e indexados podemos utilizar tecnicas de drill down para separar os dados analiticos dos dados resumidos facilitando o acesso e otimizando custos
  • File Server – Ao longo dos anos as empresas acumulam milhares de arquivos, o que custa caro e raramente é agrupado ou tierizado

Tierização: Tecnologia onde os dados são separados conforme regras de performance em discos mais caros ou mais baratos. Por exemplo, arquivos pouco usados ficam em discos SATA, arquivos com acesso ocasional em discos SAS e arquivos que são acessados diariamente em discos SSD.

Vamos abordar como utilizar o Azure File Sync para criar uma tierização dos dados em um File Server para permitir que arquivos mais acessados fiquem localmente guardados e os mais antigos apenas em nuvem.

Cenários Frequentes

O primeiro cenário é o de diminuir o tamanho total de espaço ocupado por arquivos antigos.

Nesse caso utilizamos as configurações de data do arquivo e espaço livre desejado para diminuir o espaço em disco que o File Server ocupa, liberando para uso com outras necessidades.

O segundo cenário é servidor de arquivos distribuidos, onde em cada filial da empresa é necessário ter um servidor para acessar os dados.

Nesse exemplo todos os servidores replicam a mesma pasta, o que não cria problemas de saturação local, já que o cache é apenas dos arquivos recentes e controlado pelo percentual desejado de espaço livre a ser mantido.

Componentes do Azure File Sync

  1. Storage Account – Um storage virtual onde os dados serão armazenados
  2. File Share no Storage Account – Pasta dentro do Storage Account para receber os arquivos que serão enviados
  3. Azure File Sync Service no Market Place – É o serviço e deve ser habilitado, diferente de outros serviços nativos. Porem, apesar de estar no Market Place o AFS não tem um custo, trata-se apenas da inclusão de um serviço
  4. File Sync Service – É o serviço no painel do Azure onde podemos criar os grupos, incluir os servidores e configurar storage
  5. Registered Services (servidores) – São os servidores que serão sincronizados, onde os arquivos estão armazenados e servirão de cache
  6. Sync Group – Forma a lista de servidores que irá receber a cópia dos arquivos a serem copiados e dar acesso aos arquivos em qualquer localidade

Criando um Storage

Esse é o primeiro passo e bem conhecido de quem já utiliza o Azure, uma vez que para tudo precisamos de um storage.

armazenamento

Para usar o AFS não é necessário qualquer configuração adicional, você poderá escolher qual região, tipo de storage e replicação que melhor se aplique ao seu ambiente. Obviamente algumas coisas precisam ser levadas em conta:

  • O tipo de conta envolve a performance maxima e irá afetar tanto o download quanto upload quando os usuários utilizam os arquivos
  • Replicação é importante se você terá servidores em várias localidades/paises
  • Camada Hot or Cold envolve a performance diretamente e tambem o custo, já que o acesso é bem lento em discos Cold e não recomendaria para uma solução como essa

Na sequencia é necessário criar o File Share para onde os arquivos irão quando sincronizados, e o conceito é o mesmo de um servidor comum:

compartilhamento

Quando sincronizado, os arquivos irão aparecer primeiro na pasta Sincronization e depois na pasta principal como podemos ver abaixo.

syncstaging

Files Sync

Lembrando que as duas telas acima se referem a sincronização já finalizada, a primeira para ver os arquivos sendo copiados e a segunda quando a primeira sincronização já finalizou.

Habilitando o Azure File Sync

Procure no Marketplace pelo Azure File Sync ou Serviço de Sincronização do Azure em portugues:

mktplace

mktplace-2

Nesse momento pode-se optar por utilizar um Resource Group existente ou um novo, não importando em qual Resource Group o Storage foi criado, uma vez que ele pode ter varios outros serviços atribuidos.

Criando o Serviço de Sincronização

A criação do grupo de sincronização é bem simples, bastante indicar a assinatura, storage e a pasta compartilhada definida anteriormente.

Servico

grupo sincronizacao

Registrando Servidores de Arquivos

Você poderá indicar servidores:

  • Novos servidores que não tenham arquivos e incluí-los em um grupo já sincronizado para que ele sirva de cache dos arquivos que já estão na pasta compartilhada do Storage no Azure
  • Servidor com dados onde o conteudo será copiado para o Azure e acrescentado

O primeiro passo é instalar as bibliotecas PowerShell do Azure (AZ) no servidor, o que pode ser feito seguindo os passos na página https://docs.microsoft.com/pt-br/powershell/azure/install-az-ps?view=azps-2.6.0&wt.mc_id=4029139

Após ter o Azure CLI instalado, baixe e instale o Agente de Sincronização que é muito simples de ser feito.

AZFAgente

registerserver

Após isso, já será possivel ver o servidor no painel do Azure:

serverregistrado

Nesse passo não é necessário configurações nem qualquer definição adicional, já que se trata de uma operação simples de agente.

Criando o Endpoint (Servidores Cache)

Aqui é onde realmente criamos o serviço e vemos a mágica acontecer!

Entrando dentro do grupo de sincronização que criamos anteriormente e usar a opção Adicionar ponto de extremidade ou Add Endpoint para incluir o servidor no grupo que criamos.

Extremidade

Vamos ver as opções que estão listadas:

  1. Caminho – É o diretório que queremos que fique sincronizado, lembrando que se estiver vazio para um grupo já existente ele irá baixar o conteudo conforme for sendo utilizado. Se for um servidor que já contem arquivos, esses serão carregadso para o Azure.
    Importante: Não é possivel usar a unidade root (C:) e sim um disca parte por conta dos arquivos de sistema.
  2. Percentual livre no volume – Não definimos quanto irá ser usado para cache e sim quanto de espaço no volume deverá ficar livre. Pode parecer um calculo invertido mas não é por conta de outros arquivos que o mesmo disco contenha. Por exemplo, se o volume é de 100GB e contem outros arquivos totalizando 40GB e definirmos que queremos deixar 50% do disco livre, apenas 10GB será usado pelo cache (50% de 100GB=50GB sempre livre) e conforme o uso de outros arquivos aumentar que não sejam sincronizados, menos irá ter espaço para o cache.
    Dica: Por conta dessa dificuldade, prefira utilizar um volume dedicado para fazer o File Sync
  3. Cache apenas de arquivos acessados ou modificados a x dias – Vimos que temos a opção de preservar um percentual do disco. Mas e se arquivos antigos ocupam muito espaço não irá adiantar muito. Nesse caso do meu exemplo qualquer arquivo com mais de 60 dias irá automaticamente para o Azure e será deletado no disco do servidor, ganhando espaço livre mesmo que o percentual de cache ainda esteja disponivel.

Painel

Ao finalizar essa configuração já é possivel acompanhar a sincronização clicando no servidor:

Server sync

Assim que sincronizado, podemos usar os paineis de metricas abaixo da tela para criar alertas quando ocorrerem erros ou distorções:

Metricas

No meu exemplo posso utilizar uma regra que se o numero de arquivos sincronizados for maior que 100 para upload no intervalo de 15 minutos pode ser uma alteração em massa causada por uma cópia indevida ou mesmo um malware.

Posted: ago 28 2019, 19:29 by msincic | Comentários (0) RSS comment feed |
  • Currently 5/5 Stars.
  • 1
  • 2
  • 3
  • 4
  • 5
Login