Hejsa.
Det vil jeg lige teste en gang.
Tak for det.
/Jacob
Michael Guldhammer skrev:
> "Jacob Fich" <jacob-du_ved_nok-brafi.dk> skrev i en meddelelse
> news:4783c20f$0$90270$14726298@news.sunsite.dk...
>> Hejsa NG.
>>
>> Jeg har efterhånden brugt en del timer på at lede efter et
>> php-backup-script, som vil være i stand til at tage en backup at mine
>> mange filer på min hjemmeside.
>>
>> Scriptet skulle gerne kunne:
>> #1- pakke alle filerne i en given mappe om til en .zip/.tar/.gzip-fil
>> (ikke nødvendigvis en pakket fil, men bare EN fil)
>> #2- dele backup-filen op i stykker af eks. 1024 Mb (Filgrænse på 2 GB) og
>> gemme dem lokalt på serveren/FTP-server.
>> #3- skulle gerne ku køre en form for cyklus, således at den ikke "timer
>> ud"
>>
>> Er der nogen som kender til et script, som er i stand til dette?
>>
>> FTP har været min hidtidige løsning, men det tager et ondt år, når den
>> skal hente mange små filer selvom jeg har 10Mbit internet!
>>
>> Mine filer ligger hos servage.net, hvor det (stadig) ikke er muligt at
>> gennemføre et stort download via http -> Derfor #2.
>> (Test evt selv her:
http://brafi.dk/testfil2.123 Filen er på 2 GB)
>>
>> Hilsen Jacob
>
>
> Hej Jacob.
>
> Kan du bruge dette:
>
> backup.sh
>
> #!/bin/bash
> #
> # gøre klar til backup af etc
> tar -czvf /backup/etc.tgz /etc
> tar -czvf /backup/home.tgz /home
> tar -czvf /backup/data.tgz /data
> tar -czvf /backup/
www.tgz /www
> #
> #
> #backup resultat
> echo backup lykkes
>
> i dette tilfælde tager scriptet backup af "home" "etc" og "www" og lægger
> dem i "backup"
>
> Jeg bruger det på min linuxboks hvor det ligger i cron.weekly
>
> Mvh
> Michael Guldhammer
>
>