Ir ao conteúdo

Relação entre Servidores / Protocolos


Ir à solução Resolvido por ram0ng1,

Posts recomendados

Postado

Quando vamos estudar acerca dos protocolos de redes é normal que façam a distribuição, colocando como exemplo um único server para executar um único protocolo/grupo de protocolos.

O que eu reparei é que nos serviços de hospedagem compartilhada estes serviços/protocolos são fornecidos "de um único lugar". Isso me deixa confuso, gostaria de saber se em um projeto que demanda uma alta complexidade é realmente necessário um server para cada protocolo/grupo de protocolos para formarem assim um mainframe.

 

Coloquei a imagem de um servidor que contém algumas "baias", seriam estas "baias" responsáveis por executar cada uma um protocolo/grupo de protocolos?

 

PS: não sei se soube elaborar a minha pergunta da forma correta, usei alguns termos que provavelmente não existam, gostaria da compreensão de todos, pois estou estudando a respeito e algumas coisas ficam opacas aos meus olhos.

servidores-de-redes-locais-faq-controle-net.jpg

  • Curtir 1
Postado

@MarceloGomes Servidores compartilhados, ou "Hospedagem compartilhada", fazem isso mesmo. Compartilham vários recursos de um único servidor (serviços fronted ou backend) com vários usuários/clientes.

Quanto as baias, não necessariamente são servidores. Podem ser firewall, HDDS em RAID ou servidores mesmo.

Acredito que sua confusão se deu por achar que cada protocolo só pode ser executado de forma "capsulada" ou separados... Mas podem todos serem executados em um único servidor, mas em portas diferentes.

Posso ter esquecido algo hehe XD

  • Curtir 2
Postado
22 minutos atrás, MarceloGomes disse:

Quando vamos estudar acerca dos protocolos de redes é normal que façam a distribuição, colocando como exemplo um único server para executar um único protocolo/grupo de protocolos.

O que eu reparei é que nos serviços de hospedagem compartilhada estes serviços/protocolos são fornecidos "de um único lugar".

 

Se refere mesmo a protocolos, ou a serviços? O usual é um servidor para cada serviço... por exemplo um para aplicação, outro para banco. Na camada de hardware ainda há outras separações, como camada de processamento, camada de armazenamento, camada de rede. Então "baias" diferentes estariam encarregadas de fazer o processamento e o armazenamento, por exemplo. Em hospedagem compartilhada normalmente um host (uma "baia") agrega diversos outros subhosts (VMs num hypervisor) e ai sim há essa "mistura". Em ambientes mais sofisticados se trata a divisão entre tenants via microsseguimentação de rede definida em software.

 

Esses QNAPs que usou para ilustrar, se não me engano são apenas armazenamento (o que explica q quantidade de baias de discos em cada host). O que leva a questão: você está se referindo apenas de protocolos de armazenamento? Ou de protocolos no sentido mais geral? Quando fala de baias... está falando de baias de disco?

  • Curtir 1
Postado
31 minutos atrás, MarceloGomes disse:

Coloquei a imagem de um servidor que contém algumas "baias", seriam estas "baias" responsáveis por executar cada uma um protocolo/grupo de protocolos?

 

 

Não. Nesse caso são apenas discos. Que podem nem ser assim "discos" hoje em dia. Essas estruturas formam servidores de midia, com alguma possível redundância usando um protocolo/algorimo que permite gravar opcionalmente informações de redundância de modo que o conjunto pode tolerar a falha de um ou mesmo dois discos e continuar operando, e ao mesmo tempo reconstruir os dados do disco que falhou.

 

Por isso tem as aberturas na frente. Essas coisas tem duas ou 3 fontes de alimentação ligadas a circuitos diferentes também. No simples quando um disco falha acende uma luz vermelha e dispara um alarme. Alguém aparece em minutos com um novo disco e coloca pela frente apertando o boão correspondente. Atrás do disco tem um acoplamento que permite trocar o disco sem desligar o sistema. Se chama hot swapping esse processo. Acende uma luz laranja indicando que os dados estão sendo reconstruídos. Ao terminar todas as luzes ficam verdinhas e a vida segue.

 

 

  • Curtir 2
Postado
9 horas atrás, ram0ng1 disse:

@MarceloGomes Servidores compartilhados, ou "Hospedagem compartilhada", fazem isso mesmo. Compartilham vários recursos de um único servidor (serviços fronted ou backend) com vários usuários/clientes.

Quanto as baias, não necessariamente são servidores. Podem ser firewall, HDDS em RAID ou servidores mesmo.

Acredito que sua confusão se deu por achar que cada protocolo só pode ser executado de forma "capsulada" ou separados... Mas podem todos serem executados em um único servidor, mas em portas diferentes.

Posso ter esquecido algo hehe XD

Ah sim, então quer dizer que um único servidor consegue interpretar diferentes protocolos sem que haja uma distinção física para cada protocolo?

  • Solução
Postado
5 minutos atrás, MarceloGomes disse:

Ah sim, então quer dizer que um único servidor consegue interpretar diferentes protocolos sem que haja uma distinção física para cada protocolo?


Isso mesmo.

  • Obrigado 1
Postado
9 horas atrás, W46n3r disse:

 

Se refere mesmo a protocolos, ou a serviços? O usual é um servidor para cada serviço... por exemplo um para aplicação, outro para banco. Na camada de hardware ainda há outras separações, como camada de processamento, camada de armazenamento, camada de rede. Então "baias" diferentes estariam encarregadas de fazer o processamento e o armazenamento, por exemplo. Em hospedagem compartilhada normalmente um host (uma "baia") agrega diversos outros subhosts (VMs num hypervisor) e ai sim há essa "mistura". Em ambientes mais sofisticados se trata a divisão entre tenants via microsseguimentação de rede definida em software.

 

Esses QNAPs que usou para ilustrar, se não me engano são apenas armazenamento (o que explica q quantidade de baias de discos em cada host). O que leva a questão: você está se referindo apenas de protocolos de armazenamento? Ou de protocolos no sentido mais geral? Quando fala de baias... está falando de baias de disco?

De fato, seriam serviços mesmo.

 

Me refiro a protocolos (que na verdade são serviços, como dito acima) no sentido geral, usei esta imagem por achar que seria válida para ilustrar o que eu perguntava.

 

Já em relação as baias, eu pensava que deveria existir uma distinção física para cada serviço. Ex: cada baia um servidor para um único serviço, uma para HTTP, uma para DNS, uma para E-MAIL, DNS.... e por aí vai, formando assim um MAINFRAME.

8 horas atrás, arfneto disse:

 

Não. Nesse caso são apenas discos. Que podem nem ser assim "discos" hoje em dia. Essas estruturas formam servidores de midia, com alguma possível redundância usando um protocolo/algorimo que permite gravar opcionalmente informações de redundância de modo que o conjunto pode tolerar a falha de um ou mesmo dois discos e continuar operando, e ao mesmo tempo reconstruir os dados do disco que falhou.

 

Por isso tem as aberturas na frente. Essas coisas tem duas ou 3 fontes de alimentação ligadas a circuitos diferentes também. No simples quando um disco falha acende uma luz vermelha e dispara um alarme. Alguém aparece em minutos com um novo disco e coloca pela frente apertando o boão correspondente. Atrás do disco tem um acoplamento que permite trocar o disco sem desligar o sistema. Se chama hot swapping esse processo. Acende uma luz laranja indicando que os dados estão sendo reconstruídos. Ao terminar todas as luzes ficam verdinhas e a vida segue.

 

 

Entendi. Mas no caso de um servidor que precise rodar um serviço apache ou de e-mail, por exemplo, ele é composto por quais componentes? Seriam "apenas" unidades de armazenamento, fonte, placa-mãe, processadores e memórias assim como em um pc, mas de forma mais robusta? Ou não é bem assim?

  • Curtir 1
Postado
7 minutos atrás, MarceloGomes disse:

Já em relação as baias, eu pensava que deveria existir uma distinção física para cada serviço. Ex: cada baia um servidor para um único serviço, uma para HTTP, uma para DNS, uma para E-MAIL, DNS.... e por aí vai, formando assim um MAINFRAME.


Acredito que isso varia de pessoa a pessoa... (Ou o objetivo de cada)
Eu mesmo tenho um único servidor VPS com todos esses serviços (DNS, Apache, nginx, MySQL, Redis, entre outros).

Então não necessariamente é obrigatório formar um mainframe. Acredito eu que essa configuração, cada protocolo separador/servidor é uma prática mais comum em provadores, seja de internet, sites, vps, rádio, e-mail... Preferem cada serviço separado, pra facilitar uma possível manutenção.

  • Obrigado 1
  • Membro VIP
Postado
13 minutos atrás, MarceloGomes disse:

Mas no caso de um servidor que precise rodar um serviço apache ou de e-mail, por exemplo, ele é composto por quais componentes? Seriam "apenas" unidades de armazenamento, fonte, placa-mãe, processadores e memórias assim como em um pc, mas de forma mais robusta? Ou não é bem assim?

 

Basicamente o que muda é o software, o computador base pode ser o mesmo.

Se você deseja um servidor HTTP executa o Apache, um serviço de repositório o Git, e por assim vai.

 

O que geralmente se faz é muitos computadores (Servidores) possuem capacidade de serviço ociosa, e por este motivo são ofertados serviços compartilhados. Para o usuário comum é como executar máquinas virtuais (VMs) em seu sistema, você pode utilizar mais de um sistema operacional no mesmo hardware sem ter a necessidade de usar outro computador.

 

Para melhorar a robustez podem-se utilizar diversos tipos de recursos, por exemplo usar armazenamento em RAID, servidores espelhados, uso de contêineres, etc.

  • Obrigado 1
  • Amei 1
Postado
3 horas atrás, MarceloGomes disse:

no caso de um servidor que precise rodar um serviço apache ou de e-mail, por exemplo, ele é composto por quais componentes? Seriam "apenas" unidades de armazenamento, fonte, placa-mãe, processadores e memórias assim como em um pc, mas de forma mais robusta? Ou não é bem assim?

 

Não é bem isso. Esses protocolos de que está falando e provavelmente os serviços como está considerando são conceitos de software apenas e rodam na rede. O protocolo para esses casos é o mesmo, TCP/IP.

 

Uma conexão TCP/IP é isso, um protocolo, um endereço IP e uma porta. É o caso do http que em geral roda na porta 80, do DNS na porta 53, ssh na porta 22, WOL na porta 7 e assim por diante. Uma porta é um número. Portas de número menor que 1024 são reservadas e pode ter alguma informação sobre elas em C:\Windows\System32\drivers\etc se usa windows. Lá vai ver uns arquivos simples que associam serviços e portas e protocolos e é o começo do TCP/IP.

 

http://example.com:80 é uma conexão pelo protocolo http com o endereço example.com que será traduzido pelo serviço DNS ou pelo arquivo hosts, e a porta será 80, por exemplo. Tudo isso é software apenas

  • Curtir 1
Postado

@MarceloGomes Olá amigo, tudo bem?

As baias que você informou, é referente aos slots de HD do datastore do servidor que ficam conectados no backplane do mesmo e a controladora raid gerenciando os mesmos, onde o equipamento quadrado da foto chamado qnap é um NAS ou STORAGE (dispositivo parecido com um servidor, porém, é somente para disponibilizar espaço em disco, podendo trabalhar com cabo ethernet, hba ou fiber channel para comunicação), para responder a sua pergunta, você tem primeiro que saber como redes de computadores funciona, para assim, você entender como um protocolo/servidor/serviço/hospedagem funciona. No grosso modo da explicação, redes de computadores funciona em cima do modelo OSI, com isto, tudo e qualquer protocolo/servidor/serviço/hospedagem segue este modelo das 7 camadas. 

As camadas mais atuantes que trabalhos é a camada 2,3 e 4, um exemplo ao grosso modo para você entender camada 2 = switch gerenciaveis, camada 3 = roteadores, firewall, servidores ( IPV4/IPV6), camada 4 = também roteadores, firewall,servidores porém atuando nos protocolos de comunicação (TCP/IP, UDP, IGMP, L2TP...). 

Servidores de serviços geralmente são em clusters (vários servidores ligados e trabalhando como um único servidor compartilhando seus recursos computacionais), com isto, existe um software de virtualização onde você cria diversas máquinas virtuais dentro desses clusters, podendo assim, ter milhões de serviços hospedado em centenas de servidores, porém, hospedagem de site/e-mail funciona de uma forma diferente, basta ter um software de hospedagem instalado em um servidor ou cluster onde este software gerencia todas as hospedagem onde o mesmo está incluso DNS AUTORITATIVO, APACHE OU NGINX, MYSQL OU POSTGRESQL. Em necessidades de pequeno porte, servidores compartilhados ou seja, os que tem seus recursos computacionais compartilhado para os que utilizam, são mais ideais pelo motivo de custo e benefício, pois o mesmo é barato e roda a aplicação mediante a exigência da necessidade, porém, se alguém que faz parte deste servidor compartilhado, sofrer um ataque de ddos (negação de serviço) todo mundo que faz parte fica inoperante. Já o servidor dedicado que todo o recurso computacional fica dedicado de uso exclusivo de um único contratante, o valor é mais alto e existe particularidades, como proteção de ataques, maior banda de consumo entre outros serviços diferenciados que a empresa de hospedagem pode propor.

 

att;
 

  • Obrigado 1
Postado
9 horas atrás, Cadu Campos disse:

@MarceloGomes Olá amigo, tudo bem?

As baias que você informou, é referente aos slots de HD do datastore do servidor que ficam conectados no backplane do mesmo e a controladora raid gerenciando os mesmos, onde o equipamento quadrado da foto chamado qnap é um NAS ou STORAGE (dispositivo parecido com um servidor, porém, é somente para disponibilizar espaço em disco, podendo trabalhar com cabo ethernet, hba ou fiber channel para comunicação), para responder a sua pergunta, você tem primeiro que saber como redes de computadores funciona, para assim, você entender como um protocolo/servidor/serviço/hospedagem funciona. No grosso modo da explicação, redes de computadores funciona em cima do modelo OSI, com isto, tudo e qualquer protocolo/servidor/serviço/hospedagem segue este modelo das 7 camadas. 

As camadas mais atuantes que trabalhos é a camada 2,3 e 4, um exemplo ao grosso modo para você entender camada 2 = switch gerenciaveis, camada 3 = roteadores, firewall, servidores ( IPV4/IPV6), camada 4 = também roteadores, firewall,servidores porém atuando nos protocolos de comunicação (TCP/IP, UDP, IGMP, L2TP...). 

Servidores de serviços geralmente são em clusters (vários servidores ligados e trabalhando como um único servidor compartilhando seus recursos computacionais), com isto, existe um software de virtualização onde você cria diversas máquinas virtuais dentro desses clusters, podendo assim, ter milhões de serviços hospedado em centenas de servidores, porém, hospedagem de site/e-mail funciona de uma forma diferente, basta ter um software de hospedagem instalado em um servidor ou cluster onde este software gerencia todas as hospedagem onde o mesmo está incluso DNS AUTORITATIVO, APACHE OU NGINX, MYSQL OU POSTGRESQL. Em necessidades de pequeno porte, servidores compartilhados ou seja, os que tem seus recursos computacionais compartilhado para os que utilizam, são mais ideais pelo motivo de custo e benefício, pois o mesmo é barato e roda a aplicação mediante a exigência da necessidade, porém, se alguém que faz parte deste servidor compartilhado, sofrer um ataque de ddos (negação de serviço) todo mundo que faz parte fica inoperante. Já o servidor dedicado que todo o recurso computacional fica dedicado de uso exclusivo de um único contratante, o valor é mais alto e existe particularidades, como proteção de ataques, maior banda de consumo entre outros serviços diferenciados que a empresa de hospedagem pode propor.

 

att;
 

Ao dedicar um único servidor para um único serviço (ex.: um para smtp, um para http e etc) e, reuni-los, terei um cluster? Estas imagens podem ilustrar o que estou dizendo?

 

Digo isso porque imagens como estas são "vendidas" como se fossem um único servidor (podem ser mesmo, não sei, por isso pergunto kkkk).

 

obs: se puder me recomendar algum material para eu dar sequência a partir daqui, agradeço.

 

Att.

0,,14846604-EX,00.jpg

26030.jpg

superman_cluster-700x525.jpg

Postado

@MarceloGomes Sim, depende de como o datacenter ou o servidor está montado, mas sim, pode ser um cluster, visto que o gerenciamento do recurso computacional vai mediante ao software utilizado. Eu utilizo o vmware e suas aplicações para virtualização e podemos deixar separados (um único host usando seus recursos para um único serviço) ou compartilhados, mesmo estando dentro de um cluster (soma de vários servidores)

  • Curtir 1

Crie uma conta ou entre para comentar

Você precisa ser um usuário para fazer um comentário

Criar uma conta

Crie uma nova conta em nossa comunidade. É fácil!

Crie uma nova conta

Entrar

Já tem uma conta? Faça o login.

Entrar agora

Sobre o Clube do Hardware

No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas comunidades sobre tecnologia do Brasil. Leia mais

Direitos autorais

Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

×
×
  • Criar novo...