Raptocache como parent proxy de squid en otro server y sin mikrotik

Publicado por lukkes, Junio 10, 2015, 09:05:24 PM

Tema anterior - Siguiente tema

lukkes

Buenas noches,

he instalado sin problema alguno la version de raptor 1.0.6b, no uso mikrotik en paralelo al raptor, al contrario uno un server CentOS con squid3 corriendo perfectamente, instale el raptor en otra maquina con dos tarjetas de red para ponerlo a funcionar como PARENT y así aprovechar el cache de los contenidos que raptor almacena y no así el squid.
algunas dudas concretas son.

a) es necesario en este entorno tener en ejecución el squid en el box de raptorcache? yo podría hacer parent al puerto 8080 de raptor directamente en mi squid en centros?

b) tengo varias reglas para almacenar en cache actualizaciones de windows update en mi squid, debería desactivarlas y dejar todo este trabajo al raptor?

c) Lei en otro post que hay unas opciones para compilar squid y optimizar los I/O,alguien las sabe?

d) mi Raptor esta corriendo en una maquina virtual de VMware, los gráficos de ahorro, reportes total, uso del cpu, ninguno muestra información alguna, es esto normal o habría que revisar algo?


Gracias.

firecold

Amigo has considerado usarlo en modo gateway, ya que en paralelo con otro proxy como CentOS lo deberias hacer con cache_peer o caches padres, te dejo un enlace: Modo Gateway, Saludos

lukkes

Hola buen día firecold, el problema es que no puedo prescindir del squid del Centos, ya que ese squid con unas acl y un sistema en php muestra la página de cortados a los clientes, el sistema en php muestra un formulario donde los clientes introducen sus pagos mesuales, los guarda en una base de datos en mysql y todos los meses un s Rios en php recorre la base de datos y los que no han pagado los agrega a un archivo que squid usa como acl para denegarles la navegación. Por eso debo usar squid en el Centos, ahora bien, hay algún problema en usar el cache_peer? Dime algo, es necesario que squid este corriendo en el raptor box? O esta bien como estoy haciendo que es hacer peer con mi squid a raptorcache al 8080 directo?


Enviado desde mi iPhone utilizando Tapatalk

ferccs

Cita de: lukkes en Junio 17, 2015, 06:49:24 AM
Hola buen día firecold, el problema es que no puedo prescindir del squid del Centos, ya que ese squid con unas acl y un sistema en php muestra la página de cortados a los clientes, el sistema en php muestra un formulario donde los clientes introducen sus pagos mesuales, los guarda en una base de datos en mysql y todos los meses un s Rios en php recorre la base de datos y los que no han pagado los agrega a un archivo que squid usa como acl para denegarles la navegación. Por eso debo usar squid en el Centos, ahora bien, hay algún problema en usar el cache_peer? Dime algo, es necesario que squid este corriendo en el raptor box? O esta bien como estoy haciendo que es hacer peer con mi squid a raptorcache al 8080 directo?


Enviado desde mi iPhone utilizando Tapatalk

Solo quiero agregar que lo mismo que haces en centos lo puedes hacer en debian...

firecold

Cita de: lukkes en Junio 17, 2015, 06:49:24 AM
Hola buen día firecold, el problema es que no puedo prescindir del squid del Centos, ya que ese squid con unas acl y un sistema en php muestra la página de cortados a los clientes, el sistema en php muestra un formulario donde los clientes introducen sus pagos mesuales, los guarda en una base de datos en mysql y todos los meses un s Rios en php recorre la base de datos y los que no han pagado los agrega a un archivo que squid usa como acl para denegarles la navegación. Por eso debo usar squid en el Centos, ahora bien, hay algún problema en usar el cache_peer? Dime algo, es necesario que squid este corriendo en el raptor box? O esta bien como estoy haciendo que es hacer peer con mi squid a raptorcache al 8080 directo?


Enviado desde mi iPhone utilizando Tapatalk

Como te comenta ferccs lo mismo que puedes hacer con CentOS lo puedes hacer con Debian, aunque no puedo negar que Red Hat libera mucho codigo y por ende muchas mejoras, pero Debian 7.x es muy estable y las mismas configuraciones puedes aplicar a los dos, aunque tu procedimiento para denegar el servicio creeme es muy util, ya que muchos utilizan MK para esto sin saber que se puede hacer en Debian, pero ni modo, te invito a que pruebes, siempre es bueno tener una maquina virtual para hacer dichas pruebas y asegurar el funcionamiento de las directrices que desees implementar, Saludos

lukkes

Claro se que todo se puede hacer en debían también, pero como ya tengo todo programado, los scripts de corte, los scripts de php y muchas de ellos interactúan con archivos del sistema pues no quiero inventar, lo que estoy pensando es, poner squid en centos y por iptables solo redirigir  a los clientes cortados mientras que los activos vayan a raptor y ahí si tener el squid activado normal.


Enviado desde mi iPhone utilizando Tapatalk

lukkes

También me pasa algo raro, veo que raptor ha almacenado casi 40gb de Windows updates pero solo ha servido o entregado 170mb, es decir, esta funcionando pero con muy poco ahorro, no así otras páginas como por ejemplo las actualizaciones de ahora antivirus que me ha dado una eficacia de 300%


Enviado desde mi iPhone utilizando Tapatalk

venezu

Cita de: lukkes en Junio 19, 2015, 05:30:57 PM
También me pasa algo raro, veo que raptor ha almacenado casi 40gb de Windows updates pero solo ha servido o entregado 170mb, es decir, esta funcionando pero con muy poco ahorro, no así otras páginas como por ejemplo las actualizaciones de ahora antivirus que me ha dado una eficacia de 300%


Enviado desde mi iPhone utilizando Tapatalk
saludos la eficacia es relativa yo teno una pagina que me da 1900% de eficacia y solo hay 13 archivos

lukkes

Claro es relativa a las veces que ha entregado el contenido del cache, eso lo entiendo. Pero lo que digo es que de 40gb de Windows updates solo ha entregado 170mb, es obvio que algo no esta bien en eso.


Enviado desde mi iPhone utilizando Tapatalk

firecold

Cita de: lukkes en Junio 19, 2015, 05:29:36 PM
Claro se que todo se puede hacer en debían también, pero como ya tengo todo programado, los scripts de corte, los scripts de php y muchas de ellos interactúan con archivos del sistema pues no quiero inventar, lo que estoy pensando es, poner squid en centos y por iptables solo redirigir  a los clientes cortados mientras que los activos vayan a raptor y ahí si tener el squid activado normal.


Enviado desde mi iPhone utilizando Tapatalk
En lo que comentas tienes razon, aunque bien podrias usar como parent proxy, con cache_peer y ahorrate estos detalles, aunque tambien tener dos servidores es algo molesto, jajajajaja, Saludos

firecold

Cita de: lukkes en Junio 19, 2015, 05:40:43 PM
Claro es relativa a las veces que ha entregado el contenido del cache, eso lo entiendo. Pero lo que digo es que de 40gb de Windows updates solo ha entregado 170mb, es obvio que algo no esta bien en eso.


Enviado desde mi iPhone utilizando Tapatalk

En la nueva version de Raptor ya vienen corregidos algunos plugins entre ellos los de Windows Update, entre otros solo es de esperar el lanzamiento que me imagino que no pasara de este mes, Saludos