Servidor para mas de 1000 usuarios

Publicado por computecnics, Marzo 26, 2013, 09:14:56 PM

Tema anterior - Siguiente tema

computecnics

Buenas a todos los del foro, he instalado el thunder me va bien como para el uso interno de mis maquinas, pero al llegar al 100% la memorias ram se satura el server y me da lenta la navegación, tengo 12 computadoras, un i3 con 8gb de memoria, otra cosa quiero montar un server para mi red soy un pequeño isp tengo al rededor de 70 clientes cada cliente con 10 computadoras, que maquina me recomiendan como servidor.   estamos hablando de unas 1000 computadoras.. tengo un rb1100ahx2 que me recomiendan.

loquitoslack

Hola con respecto al servidor nosotros tenemos funcionando este servidor http://bit.ly/13wPHYP para 1500 usuarios y nos va  de maravilla ahora un i3, dices que tu memoria ram se dispara algun proceso en especial que pueda dar este error puedes usar herramientos htop, top para identificarlos

georg3

como es que debo utilizar ese comando para ver por q se me suben las conecciones tengo un server parecido al tuyo con 8G ram

loquitoslack

Hola en el caso de la rama debian

root@localhost# apt-get install htop
root@localhost# htop
root@localhost# top

Puedes identificar ciertos procesos que estan corriendo en tu servidor que te pueda identificar cual es el que te genera mayor consumo de recursos.

en el caso de htop puedes presionar la tecla F6( ordenar por) memoria y veras que recursos te consumen más en mi caso es squid

En el caso de top puedes presionar las teclas b x para que te salga una linea indicando el recurso seleccionado, luego presionas teclas >< para movilizarte entre las columnas y te ubicas en la %mem para que te fijes cual es el proceso que te genera mas consumo de memoria

Ojo me parece que en tu caso, si estas usando squid, que estas usando para bloquear las paginas ( texto plano y/o una BD como squiguard) sería bueno que te percates de eso, se que cuando se almacena en texto plano dominio para que bloquee a los usuarios la memoria se dispara

mac86

Buenos dias!

Alguien ha logrado hacer funcionar bien Raptorcache para una red de mas de 1000 clientes???

yo no le puedo encontrar la vuelta... se traba todo....
incluso dejando solo el squid 3.0  eliminando la directiva de redireccionamiento al raptor.
se continua "trabando la documentacion"

incluso compilando el squid, ajustando file descriptors,  y demas ajustes finos.

deberiamos probar con squid 2.7?

firecold

Cita de: mac86 en Mayo 08, 2014, 09:22:11 AM
Buenos dias!

Alguien ha logrado hacer funcionar bien Raptorcache para una red de mas de 1000 clientes???

yo no le puedo encontrar la vuelta... se traba todo....
incluso dejando solo el squid 3.0  eliminando la directiva de redireccionamiento al raptor.
se continua "trabando la documentacion"

incluso compilando el squid, ajustando file descriptors,  y demas ajustes finos.

deberiamos probar con squid 2.7?

Amigo aqui dependera de que equipo este usando, hablando de prestaciones, ajustar el cache_mem y usar varios cache_dir para poder responder a todas las peticiones, un ejemplo yo tengo 25 clientes en mi red, pero cuando todas estan funcionando me consume 2GB de memoria ram, estamos hablando de muchas conexiones y muchas descargas al mismo tiempo, viendo peliculas y usted esta hablando que quiere poner 1000 clientes y para asegurar la velocidad un DD para el cache de squid y un DD para Raptor, una tarjeta de red pci - express para mejorar la transferencia de datos, ya que pci-e es mas rapido que pci, DD en buenas condiciones y con por lo menos 64MB de cache, un servidor con dos procesadores Xeon y por el problema que comentas talvez tienes algun proceso que esta consumiendo memoria de mas, saludos