Der er åbenbart vedtaget en ny lov om pligtaflevering, der indebærer
at det kongelige bibliotek tager et snapshot af hele det danske
internet 4 gange om året. Incl. private hjemmesider. Bortset fra det
umulige i et sådant forehave har jeg ikke noget imod det, men da jeg
kom til at læse deres FAQ blev jeg alligevel en anelse sur. Især punkt
3 fik mig til at gå i baglås:
<
http://netarkivet.dk/newsite/FAQ/index-da.php#faq3>
Rent teknisk er robots.txt en fil placeret i roden af enhver
webserver, der beskriver hvilke URL'er der ikke er adgang til for
webcrawlere. Man angiver ofte URL'er der er dynamisk genererede,
hvilket for de fleste robotter medfører at de farer vild i en endeløs
løkke af intetsigende sider. Jeg har tidligere oplevet problemer med
dårligt programmerede robotter der ikke overholdt de anvisninger der
blev givet heri, og efterfølgende lagde en voldsom belastning på min
webserver. Derfor har jeg implementeret en løsning hvor en robot det
ikke respekterer indholdet af robots.txt automatisk bliver blokeret i
selvforsvar.
Jeg valgte derfor at gøre netarkivet.dk opmærksom på at jeg forventer
de overholder de samme spilleregler som alle andre, nemlig at deres
browser respekterer indholdet af robots.txt, og hvis den ikke gør det,
bliver den blokeret. Eftersom jeg blev meget sur over formuleringen i
deres FAQ, valgte jeg at svare lige så arrogant, som jeg opfattede den
omtalte FAQ. Mit svar kan beskues på
<
http://blog.wegge.dk/2005/10/21/abent-brev-til-netarkivetdk/>
Fra samme FAQ bliver der henvist til lovgrundlaget, og deri kan jeg
blandt andet læse at jeg har pligt til at udlevere adgangskoder mv. så
der er adgang til den del af mine sider der er "alment
tilgængelige". Den del har jeg ikke et problem med, men hvad angår
robots.txt, er det i mit tilfælde ikke et spørgsmål om adgangskontrol,
men derimod simpelt selvforsvar imod robotter der er så dårligt
skrevet at de farer vild i de dynamisk genererede URL'er der er i en
del af min wiki. Derfor har jeg under ingen omstændigheder tænkt mig
at lave nogen form for whitelisting af deres software.
Det bringer os videre til punkt 8 i selvsamme FAQ:
8. Hvad sker der hvis jeg forhindrer jer i at høste mit site?
Hvis vi bliver opmærksomme på det, vil vi rette henvendelse og
prøve at finde frem til en løsning der tilgodeser dine behov og
vores forpligtigelse til at indsamle bevare den danske kulturarv
på Internettet. Hvis vi ikke kan blive enige, har vi i allersidste
ende muligheden for at gå rettens vej.
Og der kan ikke længere være nogen tvivl hos netarkivet.dk om at de
er uønskede med deres nuværende politik. De er derfor blokerede, som
udgangspunkt indtil de, på lige fod med alle andre brugere af mine
websites, respekterer de teknisk funderede beslutninger jeg træffer.
Det forventer jeg naturligvis ikke at de gør, så derfor kommer vi
efter en forhåbentlig fyldestgørende baggrundshistorie frem til mine
spørgsmål.
* I både FAQ og lovgrundlag er der angivet straf i form af bøde. Hvor
stor kan man forvente at sådan en bøde bliver?
* Er der overhovedet hjemmel i loven, som den foreligger
<
http://www.ft.dk/Samling/20041/lovforslag/L77/som_fremsat.htm>,
til at kræve at jeg sætter en del af den tekniske beskyttelse af
mit website ud af kraft? Det jeg kan se der kommer tættest på er
§10, men den nævner jo udelukkende adgangskoder. Jeg har ihvertfald
svært ved at se hjemmelen til den fortolkning som netarkivet.dk
kommer med.
* Hvis svaret på ovenstående er den mindste smule tvivlsom, har jeg
tænkt mig at tage en retssag om spørgsmålet. Hvilket budget skal
man stille op for sådan noget? Og hvad ville en realistisk chance
være for at få betalt omkostningerne, hvis det skulle vise sig at
den statslige institution rent faktisk har overfortolket sit
lovgrundlag?
Jeg beklager at jeg har skrevet så lang en smøre for 3 spørgsmål,
men jeg vil gerne have et forholdsvist brugbart svar, inden jeg
vurderer om jeg skal fortsætte til en advokat, eller om jeg bare skal
pakke sammen.
--
/Wegge
Min holdning til Usenet - <
http://wiki.wegge.dk/Usenet>
Min weblog - <
http://blog.wegge.dk/>