Whitelist - Cómo hacer que sitios Web no pasen por Raptor

Publicado por joemg6, Octubre 21, 2015, 10:41:00 PM

Tema anterior - Siguiente tema

joemg6

Whitelist - Cómo hacer que sitios Web no pasen por Raptor
Si uno quiere que ciertas páginas no pasen por RaptorCache pueden configurarlo en el whitelist.

En este ejemplo usaremos la dirección del windowsupdate, donde ingresaremos una regla Regexp que identifique todo el contenido, que sería de la siguiente manera
http.*(windowsupdate|\.windowsupdate)\.com.*

Luego ingresamos una nueva regla con sus datos respectivos, que serían como la siguiente imagen


Después de guardar quedaría


Para finalizar solo requeriría reiniciar
/etc/init.d/raptor restart && /etc/init.d/squid3 restart

Con eso se evitaría que el contenido que provenga de la dirección de windowsupdate no pase por Raptor, si se quiere hacer este proceso con otra dirección solo remplazar el nombre del dominio.
RaptorCache Developer

angelsantana

uhnmnmnm si para windowa update es   asi el regexx                        http.*(windowsupdate|\.windowsupdate)\.com.*
como seria en caso de facebook  por que no creo que sea sufiiente con ponerlo de este modo      https://www.facebook.com/
como creeo el regexxx ¿?    ??? ??? ??? ??? ???   
el secreto de las soluciones es leer...

angelsantana

yy tembien creei que era en blacklist para hacer que no pasen por raptor. ya que Whitelist====> es lista blanca unmnmn  ??? ??? ??? ???
entonces me equivoque ´por que a facebook le puse en blacklist...  para que no pase por raptor...   ??? ???
el secreto de las soluciones es leer...

joemg6

Cita de: angelsantana en Octubre 22, 2015, 12:05:01 AM
yy tembien creei que era en blacklist para hacer que no pasen por raptor. ya que Whitelist====> es lista blanca unmnmn  ??? ??? ??? ???
entonces me equivoque ´por que a facebook le puse en blacklist...  para que no pase por raptor...   ??? ???
Backlist bloquea a la web y no permite visualizarlo.
RaptorCache Developer

angelsantana

Cita de: joemg6 en Octubre 22, 2015, 12:07:52 AM
Backlist bloquea a la web y no permite visualizarlo.
aah entonces me equivoquee  :( jaja lo  quitare entoncesss pero con respeto al regexx cual seria el de facebook
ya que todo facebook esta en https seria bueno ponerlo para que no pase por raptor
o simplemte le pongo https://www.facebook.com/   y vasta con eso ¿?    :o :o
el secreto de las soluciones es leer...

joemg6

Cita de: angelsantana en Octubre 22, 2015, 12:11:51 AM
aah entonces me equivoquee  :( jaja lo  quitare entoncesss pero con respeto al regexx cual seria el de facebook
ya que todo facebook esta en https seria bueno ponerlo para que no pase por raptor
o simplemte le pongo https://www.facebook.com/   y vasta con eso ¿?    :o :o
No hay necesidad porque facebook no pasa por http - puerto 80, también hay tener cuidado al momento de hacer un bypass al contenido, se tienen que fijar de que dirección sale el contenido, ya que algunos salen de distintos servidores que la página web, eso se puede verificar con el inspector del navegador web o con el log del raptor, de lo contrario la regla no sería efectiva.
RaptorCache Developer

ServiNet

Que tal amigo joemg6.

En el caso de que la pagina que no quiero que pase por el raptor es www.esmas.com el regex seria http.*(esmas|\.esmas)\.com.* o seria http.*(*|\.esmas)\.com.* el * asiendo referencia a los prefijos www o www2 etc o como seria ya que no entiendo bien como se deriva los regex, o si nos pudieras explicar mas detalladamente como se componen los regex.

Saludos.

joemg6

Cita de: ServiNet en Noviembre 01, 2015, 12:42:06 PM
Que tal amigo joemg6.

En el caso de que la pagina que no quiero que pase por el raptor es www.esmas.com el regex seria http.*(esmas|\.esmas)\.com.* o seria http.*(*|\.esmas)\.com.* el * asiendo referencia a los prefijos www o www2 etc o como seria ya que no entiendo bien como se deriva los regex, o si nos pudieras explicar mas detalladamente como se componen los regex.

Saludos.
La primera opción sería la más conveniente, ya que identificaría a todo el contenido con y subdominio del sitio web esmas
http.*(esmas|\.esmas)\.com.*
RaptorCache Developer

jf_araujo

Hola yo tengo el siguiente problema, agregue esta dirección  http://generacfdi.com.mx/rvltimbrado/service1.asmx?  al whitelist, sin embargo sigue pasando por el raptor, veo los logs en el squid, debo agregar alguna regla al squid para que no haga cache de ese dominio o solo con agregarlo al whitelist es suficiente?

http.*(generacfdi|\.generacfdi)\.com.mx*
esto me aparece en los logs del squid:
0 172.16.10.23 NONE/417 4772 POST http://generacfdi.com.mx/rvltimbrado/service1.asmx? - NONE/- text/html

Gracias.

luistec

Cita de: jf_araujo en Noviembre 09, 2015, 12:38:45 PM
Hola yo tengo el siguiente problema, agregue esta dirección  http://generacfdi.com.mx/rvltimbrado/service1.asmx?  al whitelist, sin embargo sigue pasando por el raptor, veo los logs en el squid, debo agregar alguna regla al squid para que no haga cache de ese dominio o solo con agregarlo al whitelist es suficiente?

http.*(generacfdi|\.generacfdi)\.com.mx*
esto me aparece en los logs del squid:
0 172.16.10.23 NONE/417 4772 POST http://generacfdi.com.mx/rvltimbrado/service1.asmx? - NONE/- text/html

Gracias.
Le falta un punto a tu Regex, sería asi

http.*(generacfdi|\.generacfdi)\.com.mx.*

Para que no haga caché tienes que revisar en el log de raptor, lo puedes hacer desde el webpanel o por terminal
tail -f /var/log/raptor/access.log

Saludos.

jf_araujo

Gracias, ya lo corregí, como quiera había puesto una regla de iptables para que pasara directo a ese dominio, ya la quite y en efecto esta funcionando con la corrección.

Gracias.

P.D. Fijate que lo tengo en modo gateway solo para dar servicio a 2 pcs y a 2 celulares, y de repente siento que tarda mucho en entregar las paginas, ya antes había probado las versiones anteriores y funcionaban muy bien, pero en esta note eso, tengo un internet de 12mb de bajada y 3.4mb de subida, y aun sin estar descargando casi nada, esta lento al abrir algunos sitios, cambiare mis DNS, para ver si eso ayuda.

luistec

Cita de: jf_araujo en Noviembre 09, 2015, 01:26:43 PM
Gracias, ya lo corregí, como quiera había puesto una regla de iptables para que pasara directo a ese dominio, ya la quite y en efecto esta funcionando con la corrección.

Gracias.

P.D. Fijate que lo tengo en modo gateway solo para dar servicio a 2 pcs y a 2 celulares, y de repente siento que tarda mucho en entregar las paginas, ya antes había probado las versiones anteriores y funcionaban muy bien, pero en esta note eso, tengo un internet de 12mb de bajada y 3.4mb de subida, y aun sin estar descargando casi nada, esta lento al abrir algunos sitios, cambiare mis DNS, para ver si eso ayuda.
Sería recomendable que hagas una prueba de tiempo de respuesta a tus DNS.

Saludos.

jhonathanve

Cita de: joemg6 en Octubre 21, 2015, 10:41:00 PM
Whitelist - Cómo hacer que sitios Web no pasen por Raptor
Si uno quiere que ciertas páginas no pasen por RaptorCache pueden configurarlo en el whitelist.

En este ejemplo usaremos la dirección del windowsupdate, donde ingresaremos una regla Regexp que identifique todo el contenido, que sería de la siguiente manera
http.*(windowsupdate|\.windowsupdate)\.com.*

Luego ingresamos una nueva regla con sus datos respectivos, que serían como la siguiente imagen


saludos joem una pregunta amigo y disculpa en whitelist la parte donde dice  Dinamic_files   http.*(\.html|\.htm|\.php|\.asp|\.aspx|\.asmx|\.wcf|\.jsp|\.cgi|\.py|\.rb|\.pl|\.do|\.js|\.json|\.xml|\.css)(\?|$).* significa que no hara cache de esas extensiones??

Después de guardar quedaría


Para finalizar solo requeriría reiniciar
service raptor restart && service squid3 restart

Con eso se evitaría que el contenido que provenga de la dirección de windowsupdate no pase por Raptor, si se quiere hacer este proceso con otra dirección solo remplazar el nombre del dominio.

jhonathanve

joem bro discul la molestia  en whitelist la parte donde dice  Dinamic_files   http.*(\.html|\.htm|\.php|\.asp|\.aspx|\.asmx|\.wcf|\.jsp|\.cgi|\.py|\.rb|\.pl|\.do|\.js|\.json|\.xml|\.css)(\?|$).* quiere decir que no hara chace de esas extensiones?

joemg6

Cita de: jhonathanve en Noviembre 26, 2015, 12:38:03 AM
joem bro discul la molestia  en whitelist la parte donde dice  Dinamic_files   http.*(\.html|\.htm|\.php|\.asp|\.aspx|\.asmx|\.wcf|\.jsp|\.cgi|\.py|\.rb|\.pl|\.do|\.js|\.json|\.xml|\.css)(\?|$).* quiere decir que no hara chace de esas extensiones?
Raptor no hace caché a a extensiones de lenguajes de programación o estilos, ya que algunos al estar en cambio continuo pueden producir conflicto con el sitio web.
RaptorCache Developer

Miguekos1233

Hola amigos espero me puedan ayudar, Mi duda es con respecto el juego Lineage II de Steam aparte de que me dio muchos problemas para descargarlo desde steam y el dota tambien pero a la final se bajaron este juego s de la compañia ncsoft y cuando el juego ya fuera de steam quiere hacer unas updates me da error agrego esto en la Whitelist http.*(ncsoft|\.ncsoft)\.com.*  borre todo lo que ya habia de ese dominio, reinicio todo y aun asi me sigue guardando información en el raptor. que puede ser? saludos

y otra cosa para qe sirve el Raptor List veo que ahi esta una regla de Steam y de Rio (LOL). Saludos

joemg6

Cita de: Miguekos1233 en Noviembre 27, 2015, 03:23:53 PM
Hola amigos espero me puedan ayudar, Mi duda es con respecto el juego Lineage II de Steam aparte de que me dio muchos problemas para descargarlo desde steam y el dota tambien pero a la final se bajaron este juego s de la compañia ncsoft y cuando el juego ya fuera de steam quiere hacer unas updates me da error agrego esto en la Whitelist http.*(ncsoft|\.ncsoft)\.com.*  borre todo lo que ya habia de ese dominio, reinicio todo y aun asi me sigue guardando información en el raptor. que puede ser? saludos

y otra cosa para qe sirve el Raptor List veo que ahi esta una regla de Steam y de Rio (LOL). Saludos
En el Raptor List se declaran sitios web en caso no estén pasando por Raptor, en cuanto al juego lo estaré revisando con más detalle, para ver que sucede.
RaptorCache Developer


severino.euclides

No es cómo crear un fuera de caché a Netflix, YouTube, Facebook, Instagram, Twitter, playstore !!??



Há como criar um fora do cache para o Netflix, youtube, Facebook, instagram, twitter, playstore !!??

firecold

Cita de: joemg6 en Octubre 22, 2015, 12:07:52 AM
Backlist bloquea a la web y no permite visualizarlo.


Amigo Joemg6 esto funciona con https, Saludos