/ Forside / Karriere / Erhverv / Jura / Nyhedsindlæg
Login
Glemt dit kodeord?
Brugernavn

Kodeord


Reklame
Top 10 brugere
Jura
#NavnPoint
RyeJensen 11840
Nordsted1 11095
dova 10393
refi 7375
ans 6906
BjarneD 5596
Oldboston 4933
Paulus1 3538
themis 2862
10  jakjoe 2566
Hvor vide krav kan man stille til pligtafl~
Fra : Anders Wegge Jakobse~


Dato : 21-10-05 21:44


Der er åbenbart vedtaget en ny lov om pligtaflevering, der indebærer
at det kongelige bibliotek tager et snapshot af hele det danske
internet 4 gange om året. Incl. private hjemmesider. Bortset fra det
umulige i et sådant forehave har jeg ikke noget imod det, men da jeg
kom til at læse deres FAQ blev jeg alligevel en anelse sur. Især punkt
3 fik mig til at gå i baglås:
<http://netarkivet.dk/newsite/FAQ/index-da.php#faq3>

Rent teknisk er robots.txt en fil placeret i roden af enhver
webserver, der beskriver hvilke URL'er der ikke er adgang til for
webcrawlere. Man angiver ofte URL'er der er dynamisk genererede,
hvilket for de fleste robotter medfører at de farer vild i en endeløs
løkke af intetsigende sider. Jeg har tidligere oplevet problemer med
dårligt programmerede robotter der ikke overholdt de anvisninger der
blev givet heri, og efterfølgende lagde en voldsom belastning på min
webserver. Derfor har jeg implementeret en løsning hvor en robot det
ikke respekterer indholdet af robots.txt automatisk bliver blokeret i
selvforsvar.

Jeg valgte derfor at gøre netarkivet.dk opmærksom på at jeg forventer
de overholder de samme spilleregler som alle andre, nemlig at deres
browser respekterer indholdet af robots.txt, og hvis den ikke gør det,
bliver den blokeret. Eftersom jeg blev meget sur over formuleringen i
deres FAQ, valgte jeg at svare lige så arrogant, som jeg opfattede den
omtalte FAQ. Mit svar kan beskues på
<http://blog.wegge.dk/2005/10/21/abent-brev-til-netarkivetdk/>

Fra samme FAQ bliver der henvist til lovgrundlaget, og deri kan jeg
blandt andet læse at jeg har pligt til at udlevere adgangskoder mv. så
der er adgang til den del af mine sider der er "alment
tilgængelige". Den del har jeg ikke et problem med, men hvad angår
robots.txt, er det i mit tilfælde ikke et spørgsmål om adgangskontrol,
men derimod simpelt selvforsvar imod robotter der er så dårligt
skrevet at de farer vild i de dynamisk genererede URL'er der er i en
del af min wiki. Derfor har jeg under ingen omstændigheder tænkt mig
at lave nogen form for whitelisting af deres software.

Det bringer os videre til punkt 8 i selvsamme FAQ:

8. Hvad sker der hvis jeg forhindrer jer i at høste mit site?

Hvis vi bliver opmærksomme på det, vil vi rette henvendelse og
prøve at finde frem til en løsning der tilgodeser dine behov og
vores forpligtigelse til at indsamle bevare den danske kulturarv
på Internettet. Hvis vi ikke kan blive enige, har vi i allersidste
ende muligheden for at gå rettens vej.

Og der kan ikke længere være nogen tvivl hos netarkivet.dk om at de
er uønskede med deres nuværende politik. De er derfor blokerede, som
udgangspunkt indtil de, på lige fod med alle andre brugere af mine
websites, respekterer de teknisk funderede beslutninger jeg træffer.

Det forventer jeg naturligvis ikke at de gør, så derfor kommer vi
efter en forhåbentlig fyldestgørende baggrundshistorie frem til mine
spørgsmål.

* I både FAQ og lovgrundlag er der angivet straf i form af bøde. Hvor
stor kan man forvente at sådan en bøde bliver?

* Er der overhovedet hjemmel i loven, som den foreligger
<http://www.ft.dk/Samling/20041/lovforslag/L77/som_fremsat.htm>,
til at kræve at jeg sætter en del af den tekniske beskyttelse af
mit website ud af kraft? Det jeg kan se der kommer tættest på er
§10, men den nævner jo udelukkende adgangskoder. Jeg har ihvertfald
svært ved at se hjemmelen til den fortolkning som netarkivet.dk
kommer med.

* Hvis svaret på ovenstående er den mindste smule tvivlsom, har jeg
tænkt mig at tage en retssag om spørgsmålet. Hvilket budget skal
man stille op for sådan noget? Og hvad ville en realistisk chance
være for at få betalt omkostningerne, hvis det skulle vise sig at
den statslige institution rent faktisk har overfortolket sit
lovgrundlag?

Jeg beklager at jeg har skrevet så lang en smøre for 3 spørgsmål,
men jeg vil gerne have et forholdsvist brugbart svar, inden jeg
vurderer om jeg skal fortsætte til en advokat, eller om jeg bare skal
pakke sammen.

--
/Wegge
Min holdning til Usenet - <http://wiki.wegge.dk/Usenet>
Min weblog - <http://blog.wegge.dk/>

 
 
Peter Sørensen (22-10-2005)
Kommentar
Fra : Peter Sørensen


Dato : 22-10-05 00:50


"Anders Wegge Jakobsen" <wegge@wegge.dk> skrev i en meddelelse
news:m364rqeh2x.fsf@obelix.wegge.dk...
>
> Jeg beklager at jeg har skrevet så lang en smøre for 3 spørgsmål,
> men jeg vil gerne have et forholdsvist brugbart svar, inden jeg
> vurderer om jeg skal fortsætte til en advokat, eller om jeg bare skal
> pakke sammen.
>


Du skal bare pakke sammen og du har dermed sparet en masse penge.

Båtnakkehilsener fra - Peter Sørensen



Peter Ole Kvint (22-10-2005)
Kommentar
Fra : Peter Ole Kvint


Dato : 22-10-05 05:47

Kære Wegge

Var det ikke nemmer at flytte serverens indhold til danbbs.dk så betød
trafik mængten ikke så meget?

MVH

Peter Ole Kvint



ha (22-10-2005)
Kommentar
Fra : ha


Dato : 22-10-05 09:05

> Jeg beklager at jeg har skrevet så lang en smøre for 3 spørgsmål,
> men jeg vil gerne have et forholdsvist brugbart svar, inden jeg
> vurderer om jeg skal fortsætte til en advokat, eller om jeg bare skal
> pakke sammen.

Brug energien på noget fornuftigt. Netarkivet skriver jo flere gange i
deres FAQ, at man blot skal kontakte dem, - ja man er nærmest
*velkommen* til at kontakte dem, såfremt man har problemer med
den måde de "høster" på.

Den mest arrogante finder du ved at se i et spejl.

Go' weekend, sørg for lidt afslapning, du trænger vist til det

/ha

fut til news:dk.snak.snik hvor det første indlæg retteligt burde ha' været
sendt til



Søg
Reklame
Statistik
Spørgsmål : 177559
Tips : 31968
Nyheder : 719565
Indlæg : 6408937
Brugere : 218888

Månedens bedste
Årets bedste
Sidste års bedste