|  | 		    
					
        
         
          
         
	
          | |  | Checksum og/eller redundans på billedfiler Fra : Frank K. Jensen
 | 
 Dato :  27-08-10 15:09
 | 
 |  | Hejsa,
 
 Jeg har fornyligt opdaget, at der er opstået fejl ved kopiering af nogle af
 mine billeder. Hvordan fejlen er opstået ved jeg ikke, og jeg finder måske
 aldrig ud af det (billederne blev redet, da de stadig lå på kortet). Men det
 fik mig til at tænke over min backupløsning. I dag har jeg alle billeder
 liggende på min harddisk i min computer, og jeg tager backup på en ekstern
 harddisk 1-2 gange om året. Omfanget af mine billeder er ikke ubetydelig, så
 jeg sletter de gamle backups, når jeg har taget en ny. Her opstår problemet
 så. Hvis nu der er nogle af mine billeder, der af en eller anden grund
 bliver beskadiget på min computer, uden at jeg opdager det, vil jeg jo bare
 tage backup af disse billeder og slette den gamle backup, hvorved jeg har
 mistet nogle af mine billeder.
 
 Nu er spørgsmålet så, om det findes et smart program, der kan lave en
 checksum eller lignende, så jeg inden backup hurtigt kan tjekke, om der er
 opstået fejl i nogle af billederne. Det kræver selvfølgelig, at jeg ikke har
 redigeret i billederne siden sidst, men her kunne det evt. bare liste de
 billeder, som har ændret sig, så jeg kan se, om det er nogle, jeg har
 redigeret siden sidst. Det kunne selvfølgelig også oprette nogle filer med
 redundant information, så det rent faktisk også kunne reparere filerne, hvis
 de er blevet beskadiget. Så vil det også virke hvis man har nogle gamle
 backups, som man lige pludselig skal bruge, og hvor der så er opstået fejl
 på.
 
 Kender I sådan et program?
 
 mvh Frank
 
 
 
 |  |  | 
  Bo Bjerre (27-08-2010) 
 
	
          | |  | Kommentar Fra : Bo Bjerre
 | 
 Dato :  27-08-10 16:06
 | 
 |  | On 27-08-2010 16:09, Frank K. Jensen wrote:
 > Hejsa,
 >
 > Jeg har fornyligt opdaget, at der er opstået fejl ved kopiering af nogle
 > af mine billeder. Hvordan fejlen er opstået ved jeg ikke, og jeg finder
 > måske aldrig ud af det (billederne blev redet, da de stadig lå på
 > kortet). Men det fik mig til at tænke over min backupløsning. I dag har
 > jeg alle billeder liggende på min harddisk i min computer, og jeg tager
 > backup på en ekstern harddisk 1-2 gange om året. Omfanget af mine
 > billeder er ikke ubetydelig, så jeg sletter de gamle backups, når jeg
 > har taget en ny. Her opstår problemet så. Hvis nu der er nogle af mine
 > billeder, der af en eller anden grund bliver beskadiget på min computer,
 > uden at jeg opdager det, vil jeg jo bare tage backup af disse billeder
 > og slette den gamle backup, hvorved jeg har mistet nogle af mine billeder.
 >
 > Nu er spørgsmålet så, om det findes et smart program, der kan lave en
 > checksum eller lignende, så jeg inden backup hurtigt kan tjekke, om der
 > er opstået fejl i nogle af billederne. Det kræver selvfølgelig, at jeg
 > ikke har redigeret i billederne siden sidst, men her kunne det evt. bare
 > liste de billeder, som har ændret sig, så jeg kan se, om det er nogle,
 > jeg har redigeret siden sidst. Det kunne selvfølgelig også oprette nogle
 > filer med redundant information, så det rent faktisk også kunne reparere
 > filerne, hvis de er blevet beskadiget. Så vil det også virke hvis man
 > har nogle gamle backups, som man lige pludselig skal bruge, og hvor der
 > så er opstået fejl på.
 
 Jeg formatterer IKKE et kamerakort, før jeg har set at alle billeder kan
 åbnes i mit billedprogram (LightRoom)
 
 Med hensyn til backup, synes jeg det er meget usikkert, at du kun tager
 en backup 1-2 gange om året. Det skal du gøre hver gang, du indlæser nye
 billeder. Og du SKAL gemme et par backup's bagud, så du ikke sletter den
 gamle backup, før du laver den nye.
 
 Hvis dine billeder betyder noget for dig, vil jeg anbefale at du
 anskaffer en netværksdisk med RAID, så du kan overleve et disknedbrud.
 
 Mit eget system består af, at der ALDRIG ligger billeder på min PC, men
 udelukkende på min netværksdisk (Synology DS508 RAID-5). Ud over det,
 har jeg en identisk netværksdisk stående et andet sted med netadgang, så
 jeg hele tiden har to levende eksemplarer af mine data. Systemet
 verificerer selv at backup'en er identisk med de oprindelige data.
 
 Til checksum beregning kan jeg anbefale, at du kigger på google efter
 "MD5", evt med "MD5 deep" Da jeg kun gemmer mine RAW filer og ikke
 ændrer i dem, er det fint med checksum, da den vil være ens fra gang til
 gang.
 
 Bo //
 
 
 |  |  | 
  Frank K. Jensen (28-08-2010) 
 
	
          | |  | Kommentar Fra : Frank K. Jensen
 | 
 Dato :  28-08-10 09:21
 | 
 |  | 
 
            "Bo Bjerre" <bo@sarek.dk> skrev i meddelelsen 
 news:4c77d47b$0$50447$14726298@news.sunsite.dk...
 >
 > Jeg formatterer IKKE et kamerakort, før jeg har set at alle billeder kan 
 > åbnes i mit billedprogram (LightRoom)
 Det gør jeg heller ikke    > Med hensyn til backup, synes jeg det er meget usikkert, at du kun tager en 
 > backup 1-2 gange om året. Det skal du gøre hver gang, du indlæser nye 
 > billeder.
 Ved det godt, og jeg er også ved at sætte en server op, som jeg vil 
 synkronisere med dagligt/ugenligt.
 > Og du SKAL gemme et par backup's bagud, så du ikke sletter den gamle 
 > backup, før du laver den nye.
 Jeg sletter ikke den gamle inden jeg har lavet den nye, men selvom jeg 
 gemmer en håndfuld gamle backups, kan problemet alligevel opstå.
 > Hvis dine billeder betyder noget for dig, vil jeg anbefale at du anskaffer 
 > en netværksdisk med RAID, så du kan overleve et disknedbrud.
 Harddisk i computer + en ikke-RAID server må give ca. samme sikkerhed.
 > Mit eget system består af, at der ALDRIG ligger billeder på min PC, men 
 > udelukkende på min netværksdisk (Synology DS508 RAID-5). Ud over det, har 
 > jeg en identisk netværksdisk stående et andet sted med netadgang, så jeg 
 > hele tiden har to levende eksemplarer af mine data. Systemet verificerer 
 > selv at backup'en er identisk med de oprindelige data.
 Hvilket software bruger du til det? Er det noget der følger med Synology?
 Hvad hvis det opstår fejl? Bliver de så ikke bare synkroniseret over på den 
 anden disk også?
 > Til checksum beregning kan jeg anbefale, at du kigger på google efter 
 > "MD5", evt med "MD5 deep" Da jeg kun gemmer mine RAW filer og ikke ændrer 
 > i dem, er det fint med checksum, da den vil være ens fra gang til gang.
 Hvad med alle dine redigerede billeder? De ændre sig vel løbende?
 mvh Frank
 
            
             |  |  | 
   Henrik Münster (28-08-2010) 
 
	
          | |  | Kommentar Fra : Henrik Münster
 | 
 Dato :  28-08-10 10:46
 | 
 |  | Frank K. Jensen <frank-sletdette@sletdette-indbakke.com> wrote:
 
 > "Bo Bjerre" <bo@sarek.dk> skrev i meddelelsen
 > news:4c77d47b$0$50447$14726298@news.sunsite.dk...
 >
 > > Og du SKAL gemme et par backup's bagud, så du ikke sletter den gamle
 > > backup, før du laver den nye.
 >
 > Jeg sletter ikke den gamle inden jeg har lavet den nye, men selvom jeg
 > gemmer en håndfuld gamle backups, kan problemet alligevel opstå.
 
 Det er jo ikke noget, du skal gøre. Det skal backup-programmet gøre. Et
 ordentligt backup-program laver "incremental" backup. Der bliver altså
 kun lavet backup af de filer, der er ændret siden sidst. Det sparer tid
 og plads. Samtidig bliver de gamler versioner af de ændrede filer gemt.
 --
 Henrik Münster
 Esbjerg
 Danmark
 
 
 |  |  | 
    Hans Kjaergaard (28-08-2010) 
 
	
          | |  | Kommentar Fra : Hans Kjaergaard
 | 
 Dato :  28-08-10 11:11
 | 
 |  | On Sat, 28 Aug 2010 11:45:41 +0200, henrik@muenster.dk (Henrik
 Münster) wrote:
 
 >Frank K. Jensen <frank-sletdette@sletdette-indbakke.com> wrote:
 >
 >> "Bo Bjerre" <bo@sarek.dk> skrev i meddelelsen
 >> news:4c77d47b$0$50447$14726298@news.sunsite.dk...
 >>
 >> > Og du SKAL gemme et par backup's bagud, så du ikke sletter den gamle
 >> > backup, før du laver den nye.
 >>
 >> Jeg sletter ikke den gamle inden jeg har lavet den nye, men selvom jeg
 >> gemmer en håndfuld gamle backups, kan problemet alligevel opstå.
 >
 >Det er jo ikke noget, du skal gøre. Det skal backup-programmet gøre. Et
 >ordentligt backup-program laver "incremental" backup. Der bliver altså
 >kun lavet backup af de filer, der er ændret siden sidst. Det sparer tid
 >og plads. Samtidig bliver de gamler versioner af de ændrede filer gemt.
 
 Ja, men med det forbehold at man lige selv har husket at sætte
 backup-programmet rigtigt op.
 Og fatter man ikke rigtigt de termer der bliver brugt i opsætningen af
 programmet kan man hurtigt få lavet en masse "backup" man reelt set
 ikke kan bruge til ret meget.
 
 Man skal også sikre sig at man er i stand til at lave en restore af
 data, det hjælper ikke meget med backup hvis man ikke kan lave en
 restore.
 
 
 /Hans
 
 
 |  |  | 
    Robert Piil (28-08-2010) 
 
	
          | |  | Kommentar Fra : Robert Piil
 | 
 Dato :  28-08-10 11:37
 | 
 |  | Den 28-08-2010 11:45, Henrik Münster skrev:
 
 > Det er jo ikke noget, du skal gøre. Det skal backup-programmet gøre. Et
 > ordentligt backup-program laver "incremental" backup. Der bliver altså
 > kun lavet backup af de filer, der er ændret siden sidst. Det sparer tid
 > og plads. Samtidig bliver de gamler versioner af de ændrede filer gemt.
 
 Jeg tror du misforstår...
 
 Spørgsmål går på hvordan man kun undgå (eller opdage) hvis det man
 backup'er i mellemtiden er blevet korrupt af en eller anden årsag, så
 man ikke overskriver en valid backup med en korrupt.
 
 Incremental backups er fint, men der er msser af fornuft i at lave full
 backups med et eller andet interval.
 
 Nå, mit bud er lidt mere omstændigt.
 
 For at have højst mulig sikkerhed ville jeg foreslå.
 
 1) Fuld backup af råmaterialet samtidig med import. Altså gem importen
 to steder. Et sted hvor du arbejder videre med den, og et sted hvor du
 lader den urørt. Sikkerhedsimporten skal selvfølgelig også være
 backup'et - hvis man er meget krakilsk i et andet setup end nedenstående.
 
 2) Et eller andet setup for dine behandlede billeder, hvor du sikrer dig
 mod disknedbrud lokalt. Jeg synes dit eget forslag med en lokal og en
 netværksdisk er bedre en kun at bruge et raidsetup. Raid/NAS har mange
 fortrin, men hovedformålet med teknologien er lavet til at sikre en
 højere oppetid. Det er ikke en backupløsning. I ovenstående setup ville
 det selvfølgelig være en forbedring hvis netværksdisken var en eller
 anden form for dubbleret løsning. (Raid 0 falder udenfor - det bør ikke
 bruges til vigtige data).
 Endelig skal man for en sikkerheds skyld ikke bruge diske fra samme
 produktion til RAID. For private er det måske nok et overkill at tænke
 på det, men i prof setup er det noget man er meget opmærksomme på, fordi
 det er set at flere diske brød ned næsten samtidig pga produktionsfejl.
 
 3) En ekstern backup løsning til sikkerhed mod brand/tyveri. Enten
 online, eller noget med to USB-diske, hvoraf den ene altid var udenfor
 matriklen.
 
 AD 2) vil ikke sikre dig mod at overføre korrupte data til backupen, dem
 må du så genskabe fra råmaterialet. Det sikrer så tillige imod at du ved
 egne fejl sletter nogle af dine data, hvilket i praksis er en langt mere
 almindelig fejl end datakorruption.
 
 --
 Robert Piil
 
 
 |  |  | 
     Hans Kruse (28-08-2010) 
 
	
          | |  | Kommentar Fra : Hans Kruse
 | 
 Dato :  28-08-10 14:02
 | 
 |  | 
 
            On 2010-08-28 12:37:19 +0200, Robert Piil <piil@nospam.dk> said:
 > AD 2) vil ikke sikre dig mod at overføre korrupte data til backupen, 
 > dem må du så genskabe fra råmaterialet. Det sikrer så tillige imod at 
 > du ved egne fejl sletter nogle af dine data, hvilket i praksis er en 
 > langt mere almindelig fejl end datakorruption.
 Der findes en del backup/synkroniseringsprogrammer, som har en verify 
 option, så det checkes at den skrevne backup er identisk med den 
 originale. Der findes også programmer, der kan checke om to foldere er 
 identiske. Men jeg er enig i, at at brugerfejl er langt hyppigere end 
 diskfejl, som rammer en enkelt eller flere filer og ikke et helt drev.
 -- 
 Med venlig hilsen/With Kind Regards,
 Hans Kruse
www.hanskrusephotography.com, www.hanskruse.com, 
http://www.facebook.com/pages/Hans-Kruse-Photography/271477435625 |  |  | 
      Frank K. Jensen (28-08-2010) 
 
	
          | |  | Kommentar Fra : Frank K. Jensen
 | 
 Dato :  28-08-10 14:15
 | 
 |  | "Hans Kruse" <hans.kruse@mail.tele.dk> skrev i meddelelsen
 news:4c7908c9$0$50455$14726298@news.sunsite.dk...
 > On 2010-08-28 12:37:19 +0200, Robert Piil <piil@nospam.dk> said:
 >
 >> AD 2) vil ikke sikre dig mod at overføre korrupte data til backupen, dem
 >> må du så genskabe fra råmaterialet. Det sikrer så tillige imod at du ved
 >> egne fejl sletter nogle af dine data, hvilket i praksis er en langt mere
 >> almindelig fejl end datakorruption.
 >
 > Der findes en del backup/synkroniseringsprogrammer, som har en verify
 > option, så det checkes at den skrevne backup er identisk med den
 > originale. Der findes også programmer, der kan checke om to foldere er
 > identiske.
 
 Har du erfaringer med nogle?
 
 mvh Frank
 
 
 
 |  |  | 
       Hans Kruse (28-08-2010) 
 
	
          | |  | Kommentar Fra : Hans Kruse
 | 
 Dato :  28-08-10 20:08
 | 
 |  | 
 
            On 2010-08-28 15:15:05 +0200, "Frank K. Jensen" 
 <frank-sletdette@sletdette-indbakke.com> said:
 > "Hans Kruse" <hans.kruse@mail.tele.dk> skrev i meddelelsen 
 > news:4c7908c9$0$50455$14726298@news.sunsite.dk...
 >> On 2010-08-28 12:37:19 +0200, Robert Piil <piil@nospam.dk> said:
 >> 
 >>> AD 2) vil ikke sikre dig mod at overføre korrupte data til backupen, 
 >>> dem må du så genskabe fra råmaterialet. Det sikrer så tillige imod at 
 >>> du ved egne fejl sletter nogle af dine data, hvilket i praksis er en 
 >>> langt mere almindelig fejl end datakorruption.
 >> 
 >> Der findes en del backup/synkroniseringsprogrammer, som har en verify 
 >> option, så det checkes at den skrevne backup er identisk med den 
 >> originale. Der findes også programmer, der kan checke om to foldere er 
 >> identiske.
 > 
 > Har du erfaringer med nogle?
 Jeg har selv brugt Suresynch under Windows i de sidste godt og vel 10 
 år. Nu bruger jeg kun Mac og på min MacBook Pro bruger jeg Time Machine 
 som kører med generationer. Mine billeder flyttes gradvist efter 
 optagelse fra MBP'en til en ekstern Firewire HD og den bliver backed op 
 med ChronoSynch, som også kan verificere og desuden lægge slettede og 
 ændrede filer i en speciel mappe, så man kan se hvad der er ændret. Når 
 man tager billeder i RAW format så ændres de jo ikke. Det er kun evt. 
 sidecar xmp filer der ændres og når man som jeg bruger Lightroom så 
 ligger al ændringsinformation i Lightroom databasen, som man 
 selvfølgelig skal sørge for at backe op. Det sker hos mig med Time 
 Machine. På Windows 7 kan man bruge backup som følger med.
 -- 
 Med venlig hilsen/With Kind Regards,
 Hans Kruse
www.hanskrusephotography.com, www.hanskruse.com, 
http://www.facebook.com/pages/Hans-Kruse-Photography/271477435625 |  |  | 
      Robert Piil (28-08-2010) 
 
	
          | |  | Kommentar Fra : Robert Piil
 | 
 Dato :  28-08-10 16:49
 | 
 |  | Den 28-08-2010 15:02, Hans Kruse skrev:
 
 > Der findes en del backup/synkroniseringsprogrammer, som har en verify
 > option, så det checkes at den skrevne backup er identisk med den
 > originale. Der findes også programmer, der kan checke om to foldere er
 > identiske. Men jeg er enig i, at at brugerfejl er langt hyppigere end
 > diskfejl, som rammer en enkelt eller flere filer og ikke et helt drev.
 
 
 Som jeg forstår det stillede spørgsmål, så er problemet han vil sikre
 sig imod en tand inden da.
 
 Behandlling af filer -> Data -> backup
 
 Backupprogrammer verificerer vel næsten alle at der er overensstemmelse
 mellem Data og Backup. Som jeg opfattede spørgsmålet var det hvis dele
 "Data" på en eller anden måde blev korrupt undervejs, så ville han sikre
 sig mod at overskrive en god backup med en dårlig. Det kender jeg ingen
 gode metoder på at gøre, udover at sikre man kan genskabe data.
 
 --
 Robert Piil
 
 
 |  |  | 
       Hans Kruse (28-08-2010) 
 
	
          | |  | Kommentar Fra : Hans Kruse
 | 
 Dato :  28-08-10 20:03
 | 
 |  | 
 
            On 2010-08-28 17:49:03 +0200, Robert Piil <piil@nospam.dk> said:
 > Den 28-08-2010 15:02, Hans Kruse skrev:
 > 
 >> Der findes en del backup/synkroniseringsprogrammer, som har en verify
 >> option, så det checkes at den skrevne backup er identisk med den
 >> originale. Der findes også programmer, der kan checke om to foldere er
 >> identiske. Men jeg er enig i, at at brugerfejl er langt hyppigere end
 >> diskfejl, som rammer en enkelt eller flere filer og ikke et helt drev.
 > 
 > 
 > Som jeg forstår det stillede spørgsmål, så er problemet han vil sikre 
 > sig imod en tand inden da.
 Det er jo også det jeg svarer på.
 > 
 > Behandlling af filer -> Data -> backup
 Før behandling er der jo data. Og data kan verificeres. F.eks. kunne 
 han bruge et synkroniseringsprogram med verification til at kopiere fra 
 memorykortet til HD om det skulle være. Men når man importer ind i 
 f.eks. Lightroom så bliver data jo checket under import. Ethvert andet 
 billedprogram der checker billeder vil også afsløre om der er fejl.
 > 
 > Backupprogrammer verificerer vel næsten alle at der er overensstemmelse 
 > mellem Data og Backup. Som jeg opfattede spørgsmålet var det hvis dele 
 > "Data" på en eller anden måde blev korrupt undervejs, så ville han 
 > sikre sig mod at overskrive en god backup med en dårlig. Det kender jeg 
 > ingen gode metoder på at gøre, udover at sikre man kan genskabe data.
 Humlen er jo ganske enkelt at sørge for at de initialie data er 
 korrekte og det må man verificere som man finder bedst. Derefter kan 
 hver backup/synkronisering køres med verificering. 
 Backup/synkroniseringsprogrammer jeg har set og som har en verify 
 option kører ikke uden at man specificerer at det skal finde sted.
 -- 
 Med venlig hilsen/With Kind Regards,
 Hans Kruse
www.hanskrusephotography.com, www.hanskruse.com, 
http://www.facebook.com/pages/Hans-Kruse-Photography/271477435625 |  |  | 
        Robert Piil (29-08-2010) 
 
	
          | |  | Kommentar Fra : Robert Piil
 | 
 Dato :  29-08-10 10:11
 | 
 |  | Den 28-08-2010 21:03, Hans Kruse skrev:
 
 >> Som jeg forstår det stillede spørgsmål, så er problemet han vil sikre
 >> sig imod en tand inden da.
 >
 > Det er jo også det jeg svarer på.
 
 Jeg tror vi er helt enige, men en lille nuanceforskel er der dog.
 
 Det eneste praktiske eksempel jeg kan komme på er den situation hvor man
 fx har importeret sine filer i LR3 og hovedsagligt behandler dem derfra.
 
 Hvis man så forestiller sig at man installerer Picassa (som kan finde på
 at ændre i exif i RAW-filen), så har man måske uforvarende fået ændret
 sine data, og den situation kender jeg ikke backup-programmer der kan
 beskytte imod. Næste gang man backer up, vil man så overskrive de
 "rigtige" filer.
 
 Det bedste er at bruge nogle af dem (Hos Mac-brugerne gør timemachine
 vistnok det - tilsvarende programmer findes til windows, men jeg har
 ingen praktiske erfaringer. Online kan Dropbox og Mozy det samme) der
 gemmer x versioner af filerne (i virkeligheden kun 1 + evt. ændringer),
 så man kan gå tilbage til en tidligere version. Men opdager man ikke
 manuelt fejlen i tide, vil man til sidst få overskrevet de gode data.
 
 Som jeg antydede i mit første indlæg er der dog rigtig man muligheder
 for datatab som jeg anser for større (og i hvert fald almindeligere)
 farer end den vi her prøver at undgå.
 
 Selv er jeg slet ikke så omhyggelig privat. Jeg har mit lightroom
 katalog backupet automatisk, og mine filer ligger blot på min lokale
 disk. Det hele bliver backupet automatisk til Mozy (det tog noget tid at
 få det op første gang).
 
 Derudover tager jeg jævnligt (ca. månedligt) en manuel backup af mine
 billeder og Lightroomkataloget, ved at eksportere kataloget incl.
 billederne. Udover at være en ekstra sikkerhed, undgår jeg så at skulle
 downloade 300GB for at restore mine data, hvis min disk ryger.
 
 --
 Robert Piil
 
 
 |  |  | 
         Hans Kruse (29-08-2010) 
 
	
          | |  | Kommentar Fra : Hans Kruse
 | 
 Dato :  29-08-10 11:11
 | 
 |  | 
 
            On 2010-08-29 11:10:57 +0200, Robert Piil <piil@nospam.dk> said:
 > Den 28-08-2010 21:03, Hans Kruse skrev:
 > 
 >>> Som jeg forstår det stillede spørgsmål, så er problemet han vil sikre
 >>> sig imod en tand inden da.
 >> 
 >> Det er jo også det jeg svarer på.
 > 
 > Jeg tror vi er helt enige, men en lille nuanceforskel er der dog.
 > 
 > Det eneste praktiske eksempel jeg kan komme på er den situation hvor 
 > man fx har importeret sine filer i LR3 og hovedsagligt behandler dem 
 > derfra.
 > 
 > Hvis man så forestiller sig at man installerer Picassa (som kan finde 
 > på at ændre i exif i RAW-filen), så har man måske uforvarende fået 
 > ændret sine data, og den situation kender jeg ikke backup-programmer 
 > der kan beskytte imod. Næste gang man backer up, vil man så overskrive 
 > de "rigtige" filer.
 Det havde jeg ikke opfattet som en del af sprøgsmålet, men det er 
 selvfølgelig relevant ligesom når man ved en fejl kommer til at slette 
 noget i et dokument man skriver på. Når jeg skrev rapporter brugte jeg 
 ofte den metode at lave eksplicitte versioner ved at navngive dem v1.0, 
 v1.1, v2.0, etc. Så kunne jeg altid gå tilbage. Det er måske ikke altid 
 så anvendelig med fotos. Men den problemstilling du nævner gælder jo 
 også hvis du bruger Photoshop og ændrer i nogle TIFF filer så kan du 
 have lavet en fejl, hvis du ikke laver en ny version. Jeg gør det ofte 
 via Lightroom ved at editere en allerede eksisterende TIFF fil via 
 Photoshop ved at Lightroom laver en ny kopi. Så kan jeg gå tilbage. 
 Backup skal så blot sørge for at der skabes en konsistent kopi. Hvis 
 der samtidig også findes generationer.
 > 
 > Det bedste er at bruge nogle af dem (Hos Mac-brugerne gør timemachine 
 > vistnok det - tilsvarende programmer findes til windows, men jeg har 
 > ingen praktiske erfaringer. Online kan Dropbox og Mozy det samme) der 
 > gemmer x versioner af filerne (i virkeligheden kun 1 + evt. ændringer), 
 > så man kan gå tilbage til en tidligere version. Men opdager man ikke 
 > manuelt fejlen i tide, vil man til sidst få overskrevet de gode data.
 Time Machine på Mac laver generationer, men de forsvinder med tiden når 
 der skal bruges plads til nye backups. Hvis man har en meget stor 
 backup disk så varer det selvfølgelig længe før det sker. Diverse 
 synkroniseringsprogrammer kan også gøre det samme. På Mac bruger jeg 
 ChronoSynch, som kan lave generationer samtidig med at lave en eksakt 
 kopi af de foldere man synkroniserer.
 > 
 > Som jeg antydede i mit første indlæg er der dog rigtig man muligheder 
 > for datatab som jeg anser for større (og i hvert fald almindeligere) 
 > farer end den vi her prøver at undgå.
 > 
 > Selv er jeg slet ikke så omhyggelig privat. Jeg har mit lightroom 
 > katalog backupet automatisk, og mine filer ligger blot på min lokale 
 > disk. Det hele bliver backupet automatisk til Mozy (det tog noget tid 
 > at få det op første gang).
 > 
 > Derudover tager jeg jævnligt (ca. månedligt) en manuel backup af mine 
 > billeder og Lightroomkataloget, ved at eksportere kataloget incl. 
 > billederne. Udover at være en ekstra sikkerhed, undgår jeg så at skulle 
 > downloade 300GB for at restore mine data, hvis min disk ryger.
 Jeg har også brugt Mozy, men har droppet det igen. Jeg er gået over til 
 kun at bruge Mac og så skulle jeg jo til at backe det hele op en gang 
 til og det er for uoverkommeligt. Så pt. bruger jeg kun USB HD'er til 
 backup, men overvejer at sætte en backup disk op i nærheden på 
 netværket så jeg kan lave en fuld backup og så derefter kun behøve at 
 synkronisere de mindre tilføjelser. Jeg kører Time Machine backup af 
 min HD hver eller hveranden dag og det inkluderer Lightroom kataloget. 
 De nye billeder jeg tager ligger på MBP'ens interne HD og når jeg er 
 færdig med at redigere billeder fra en tur så bliver de flyttet over på 
 en ekstern 2TB FireWire disk. Jeg synkroniserer denne disk til en anden 
 af samme størrelse, som dog er USB. Begge er formateret til Apples 
 filsystem, som er journaled og hvor synkroniseringsprogrammet kan 
 checke om der er sket ændringer ved at checke headere i filerne. Et 
 ekstra niveau backup sker også på andre USB HD'er, som jeg 
 synkroniserer sjældnere, måske hver anden uge eller hver måned. Jeg har 
 mistet nogle enkelte PSD filer i tidens løb, men aldrig RAW filer og 
 hvorfor ved jeg ikke. Jeg har en enkelt gang oplevet en RAW fil, som 
 var blevet inkonsistent. Mit Lightroom katalog indeholder totalt ca. 
 56.000 billeder, som er RAW, PSD, TIFF og gamle JPG filer, så at miste 
 nogle få er jo ikke så galt selvom der jo i princippet aldrig skulle 
 mistes nogen.
 -- 
 Med venlig hilsen/With Kind Regards,
 Hans Kruse
www.hanskrusephotography.com, www.hanskruse.com, 
http://www.facebook.com/pages/Hans-Kruse-Photography/271477435625 |  |  | 
     Frank K. Jensen (28-08-2010) 
 
	
          | |  | Kommentar Fra : Frank K. Jensen
 | 
 Dato :  28-08-10 14:14
 | 
 |  | 
 
            "Robert Piil" <piil@nospam.dk> skrev i meddelelsen 
 news:4c78e6fb$0$50446$14726298@news.sunsite.dk...
 >
 > For at have højst mulig sikkerhed ville jeg foreslå.
 >
 > 1) Fuld backup af råmaterialet samtidig med import. Altså gem importen to 
 > steder. Et sted hvor du arbejder videre med den, og et sted hvor du lader 
 > den urørt. Sikkerhedsimporten skal selvfølgelig også være backup'et - hvis 
 > man er meget krakilsk i et andet setup end nedenstående.
 Ja, jeg har selv tænkt på at lave en kopi af "rådata" ved siden af min 
 normale routine, men så er vi også ude i totalt 6x data frem for 3x, hvis 
 "rådata" skal følge samme backup routine.
 > 3) En ekstern backup løsning til sikkerhed mod brand/tyveri. Enten online, 
 > eller noget med to USB-diske, hvoraf den ene altid var udenfor matriklen.
 Min nuværende 1-2 gange årlig backup ligger fysisk et andet sted.
 > AD 2) vil ikke sikre dig mod at overføre korrupte data til backupen, dem 
 > må du så genskabe fra råmaterialet. Det sikrer så tillige imod at du ved 
 > egne fejl sletter nogle af dine data, hvilket i praksis er en langt mere 
 > almindelig fejl end datakorruption.
 Også en god pointe    mvh Frank 
            
             |  |  | 
     Henrik Münster (28-08-2010) 
 
	
          | |  | Kommentar Fra : Henrik Münster
 | 
 Dato :  28-08-10 14:58
 | 
 |  | Robert Piil <piil@nospam.dk> wrote:
 
 > Den 28-08-2010 11:45, Henrik Münster skrev:
 >
 > > Det er jo ikke noget, du skal gøre. Det skal backup-programmet gøre. Et
 > > ordentligt backup-program laver "incremental" backup. Der bliver altså
 > > kun lavet backup af de filer, der er ændret siden sidst. Det sparer tid
 > > og plads. Samtidig bliver de gamler versioner af de ændrede filer gemt.
 >
 > Jeg tror du misforstår...
 >
 > Spørgsmål går på hvordan man kun undgå (eller opdage) hvis det man
 > backup'er i mellemtiden er blevet korrupt af en eller anden årsag, så
 > man ikke overskriver en valid backup med en korrupt.
 
 Her er tale om en person, der blot manuelt kopierer sine filer over 1-2
 gange om året. Jeg tror, vi er nødt til at starte fra bunden. Ved en
 incremental backup bliver der ikke skrevet noget over. Kun de ændrede
 filer bliver tilføjet. Er du sikker på, at det ikke er dig, der har
 misforstået noget?
 
 > Incremental backups er fint, men der er msser af fornuft i at lave full
 > backups med et eller andet interval.
 
 Helt sikkert. Det er bedst at have flere former for backup, og der er
 fordele ved dem alle sammen. Incremental backup er bedst, hvis man skal
 finde en ældre version af en enkelt eller et begrænset antal ældre
 filer. Det kan være nogle billeder, der er blevet korrupte. En fuld
 backup er bedst, hvis man i en fart skal have et system op at køre. Det
 kan være efter et nedbrud af harddisken, hvor man har sat en ny harddisk
 i computeren.
 
 > Nå, mit bud er lidt mere omstændigt.
 
 Der er mulliarder af måder at gøre det på. Jo mere, des bedre, men man
 må jo gøre op med sig selv, hvor meget sikkerhed, der er nødvendig. Som
 du selv er inde på, er det ikke rimeligt at private bruger en mindre
 formue på en masse netværksdiske osv. Heldigvis er harddiske ret billige
 nu om dage. Det vil ikke være så dyrt at købe en ekstern harddisk, som
 man f.eks. laver en fuld kopi på hver uge og tager med hen på arbejdet.
 Hvis ens hjem brænder, eller man har indbrud, så forsvinder de data i
 det mindste ikke
 --
 Henrik Münster
 Esbjerg
 Danmark
 
 
 |  |  | 
    Frank K. Jensen (28-08-2010) 
 
	
          | |  | Kommentar Fra : Frank K. Jensen
 | 
 Dato :  28-08-10 14:08
 | 
 |  | 
 
            ""Henrik Münster"" <henrik@muenster.dk> skrev i meddelelsen 
 news:1jnxn9e.1cc92no8g0l6uN%henrik@muenster.dk...
 > Frank K. Jensen <frank-sletdette@sletdette-indbakke.com> wrote:
 >
 >> "Bo Bjerre" <bo@sarek.dk> skrev i meddelelsen
 >> news:4c77d47b$0$50447$14726298@news.sunsite.dk...
 >>
 >> > Og du SKAL gemme et par backup's bagud, så du ikke sletter den gamle
 >> > backup, før du laver den nye.
 >>
 >> Jeg sletter ikke den gamle inden jeg har lavet den nye, men selvom jeg
 >> gemmer en håndfuld gamle backups, kan problemet alligevel opstå.
 >
 > Det er jo ikke noget, du skal gøre. Det skal backup-programmet gøre. Et
 > ordentligt backup-program laver "incremental" backup. Der bliver altså
 > kun lavet backup af de filer, der er ændret siden sidst. Det sparer tid
 > og plads. Samtidig bliver de gamler versioner af de ændrede filer gemt.
 Ja, det ville jo selvfølgelig være fint med en incremental backup, hvor man 
 kan finde de gamle versioner, men som Hans Kjaergaard skriver, så skal man 
 sikre sig, at man altid kan restore denne backup, og jeg har ærligt talt 
 ikke så meget forstand på og/eller blind tillid til nogle filer jeg ikke kan 
 se hvad indeholder    Det er måske bare noget, jeg skal komme mig over, men 
 jeg har det bedst med at kunne se filerne i min backup. Derfor kopierer jeg 
 bare filerne, som de er.
 Jeg har dog netop købt windows 7, og her valgte jeg pro udgaven i stedet for 
 home, da den har noget "backup til netværksdrev", som jeg dog ikke hved, 
 hvad er endnu    Nogen der har erfaring med det?
 mvh Frank 
            
             |  |  | 
  Michael N. Steen (30-08-2010) 
 
	
          | |  | Kommentar Fra : Michael N. Steen
 | 
 Dato :  30-08-10 02:57
 | 
 |  | > On 2010-08-29 11:10:57 +0200, Robert Piil <piil@nospam.dk> said:
 >
 >> Hvis man så forestiller sig at man installerer Picassa (som kan finde
 >> på at ændre i exif i RAW-filen), så har man måske uforvarende fået
 >> ændret sine data, og den situation kender jeg ikke backup-programmer
 >> der kan beskytte imod. Næste gang man backer up, vil man så overskrive
 >> de "rigtige" filer.
 
 RAW-filer er originaldata og bør skrivebeskyttes, så de ikke kan ændres.
 Det beskytter naturligvis ikke mod diskfejl, skrivefejl og lign., så
 konsistenskontrol i form af checksum vil være en god ting.
 
 
 Den Sun, 29 Aug 2010 12:11:00 +0200 skrev Hans Kruse:
 
 > Jeg har mistet nogle enkelte PSD filer i tidens løb, men aldrig RAW
 > filer og hvorfor ved jeg ikke. Jeg har en enkelt gang oplevet en RAW
 > fil, som var blevet inkonsistent. Mit Lightroom katalog indeholder
 > totalt ca. 56.000 billeder, som er RAW, PSD, TIFF og gamle JPG filer,
 > så at miste nogle få er jo ikke så galt selvom der jo i princippet
 > aldrig skulle mistes nogen.
 
 Om det er nogle få eller 1000 billeder, der forsvinder, er vel lige galt,
 hvis det er pletskud eller mesterværker. Derfor er et godt redundant
 backupsystem uundværligt, og vil kun blive bedre, hvis man tilføjer
 checksummer af billedfilerne, så man kan se hvilke, der er ændrede eller
 beskadigede.
 
 Mvh
 Michael Steen
 
 
 
 |  |  | 
 |  |