Non, pas de solution existante. Vous pouvez tester et nous tenir au courant, ça peut être l’occasion de créer une solution «approuvée par Ouvaton » !
De notre coté nous sauvegardons les fichiers des sites et des mails une fois par jour, et nous conservons ces sauvegardes 1 mois. Au delà d’un mois nous conservons une sauvegarde par semaine. Et au delà de trois mois nous conservons une sauvegarde par mois.
Pour les bases de données, nous conservons une sauvegarde quotidienne pendant 5 mois.
Ces sauvegardes ne sont pas accessibles directement, il faut nous les demander via l’assistance.
Pratiquement cela veut dire que vous remettez l’ensemble des fichiers en place ou qu’il est possible de récupérer l’archive complète pour remonter partiellement ?
Je suppose que ces sauvegardes ne concernent que les espaces web, qu’en est il des bases de données ?
C’est au choix, nous pouvons restaurer un fichier ou quelques fichiers, tout un dossier ou plusieurs dossiers, ou l’ensemble du contenu de l’espace web.
C’est pareil, nous pouvons restaurer une table, quelques tables ou l’ensemble de la base de données.
La solution que je mentionnais ici me sert toujours, d’autant plus avec les rappels récents concernant les sauvegardes régulières de nos données.
Ouvadmin m’indique environ 1500 Mo d’utilisation sur un domaine que j’administre.
Pour sauvegarder les données de ce domaine la requête exécutée par le fichier unzipper.php mentionnée plus haut me retourne cette erreur :
504 Gateway Time-out
The server didn’t respond in time.
Cela dit, via FTP je peux ensuite télécharger une archive .zip de 1,4 Go qui est extractible sans problème. Mais je ne suis pas certain qu’il n’y manque aucun fichier.
Comment pourrais-je m’assurer que cette méthode de sauvegarde est fiable ?
J’ai lancé un chronomètre sur un nouvel essai, ça a coupé au bout de ~120 secondes.
J’ai dans la foulée du timeout rafraîchi FileZilla, qui affichait un nouveau fichier zip de 1,1 Go.
Un nouveau rafraîchissement quelques secondes plus tard, et le fichier faisait 1,4 Go.
Sur un deuxième essai, je constate que le fichier archive est d’abord créé avec l’extension .zip.vrgurl, puis renommé en .zip à la fin. Cette fois-ci, l’archive a été créée en 114 secondes, j’ai donc eu un message de succès. Je suppose que je peux me fier à la transformation du fichier .zip.vrgurl vers .zip pour assumer que l’archivage s’est déroulé correctement.
Le timeout est peut-être réglé à 120 secondes, mais n’empêche pas la fin de la requête ? C’est possible, ça ?