una job instalar hora ejemplos editar crear cada linux web-applications web cpanel cron-task

linux - job - editar crontab



¿Usar trabajos de CRON para visitar la url? (9)

Tengo una aplicación web que tiene que realizar tareas repetidas, envío de mensajes y alertas, yo, ya uso una página de script para hacer esas tareas cuando se cargó en el navegador, es decir, http://example.com/tasks.php e incluí por medio de iframe en cada página de mi aplicación web.

Ahora quiero cambiar esto para usar trabajos CRON porque el primer enfoque puede llevar a un rendimiento de atasco, Entonces, ¿cómo puedo hacer un trabajo CRON que visita http://example.com/tasks.php . Sin embargo, no quiero que este trabajo CRON cree archivos de salida como day. *!

Alojo la aplicación en el servicio de alojamiento compartido que permite trabajos CRON a través de cPanel.


No necesita la redirección, use solo

* * * * * wget -qO /dev/null http://yoursite.com/tasks.php


Puedes usar curl como está en este thread

Para los perezosos:

*/5 * * * * curl --request GET ''http://exemple.com/path/check.php?param1=1''

Esto se ejecutará cada 5 minutos.


Puedes usar este comando:

links https://www.honeymovies.com


También puede usar la línea de comando local php-cli:

* * * * * php /local/root/path/to/tasks.php > /dev/null

Es más rápido y disminuye la carga de su servidor web.


U puede probar esto: -

wget -q -O - http://www.example.com/ >/dev/null 2>&1


puedes usar esto para url con parámetros:

lynx -dump "http://vps-managed.com/tasks.php?code=23456"

Lynx está disponible en todos los sistemas por defecto.


* * * * * wget --quiet https://example.com/file --output-document=/dev/null

Encuentro --quiet más claro que -q , y --output-document=/dev/null más claro que -O - > /dev/null


yo uso estos comandos

wget -q -O /dev/null "http://example.com/some/cron/job.php" > /dev/null 2>&1

Tarea Cron:

* * * * * wget -q -O /dev/null "http://example.com/some/cron/job.php" > /dev/null 2>&1


* * * * * wget -O - http://yoursite.com/tasks.php >/dev/null 2>&1

Eso debería funcionar para ti. Solo tiene un script wget que carga la página.

Usar -O - significa que la salida de la solicitud web se enviará a STDOUT (salida estándar)

agregando >/dev/null que la salida estándar sea redirigida a un agujero negro. agregando 2>&1 instruimos a STDERR (errores) para que también se envíe a STDOUT y, por lo tanto, toda la salida se enviará a un agujero negro. (por lo que cargará el sitio web, pero nunca escriba un archivo en ningún lugar)