/ Forside / Teknologi / Operativsystemer / Linux / Nyhedsindlæg
Login
Glemt dit kodeord?
Brugernavn

Kodeord


Reklame
Top 10 brugere
Linux
#NavnPoint
o.v.n. 11177
peque 7911
dk 4814
e.c 2359
Uranus 1334
emesen 1334
stone47 1307
linuxrules 1214
Octon 1100
10  BjarneD 875
Slette mange filer
Fra : Jesper Rasmussen


Dato : 15-09-02 09:29

Hej

Jeg har et Cron-job, der kører hvert tiende minut, som skal hente en
hjemmeside med WGET.
Det er blot for at fortælle hjemmesiden, at jeg stadig er oppe.

wget -o /dev/null 'http:/min.side'

Problemer er så bare, at den henter siden fint nok, men den lagrer en del af
url'en i mit Root-katalog.
Aner virkeligt ikke hvorfor, men jeg har nu ca. 7000 filer i mit katalog,
der alle er en del af den url, den henter.

Jeg kan ikke slette dem med "rm url*" da jeg får fejlen "bash: /bin/rm:
Argument list too long"

Hvad gør man så?
Og hvordan skal min WGET modificeres, så den ikke lagrer filen i mit
katalog?

Mvh
Jesper



 
 
Kent Friis (15-09-2002)
Kommentar
Fra : Kent Friis


Dato : 15-09-02 09:41

Den Sun, 15 Sep 2002 10:28:52 +0200 skrev Jesper Rasmussen:
>Hej
>
>Jeg har et Cron-job, der kører hvert tiende minut, som skal hente en
>hjemmeside med WGET.
>Det er blot for at fortælle hjemmesiden, at jeg stadig er oppe.
>
>wget -o /dev/null 'http:/min.side'
>
>Problemer er så bare, at den henter siden fint nok, men den lagrer en del af
>url'en i mit Root-katalog.
>Aner virkeligt ikke hvorfor, men jeg har nu ca. 7000 filer i mit katalog,
>der alle er en del af den url, den henter.
>
>Jeg kan ikke slette dem med "rm url*" da jeg får fejlen "bash: /bin/rm:
>Argument list too long"

find . -maxdepth 1 -name "url*" -print0 | xargs -0 rm

(brug lige echo i stedet for rm, inden du fyrer den af).

>Hvad gør man så?
>Og hvordan skal min WGET modificeres, så den ikke lagrer filen i mit
>katalog?

-O /dev/null

Mvh
Kent
--
unsigned long main = 0xC8C70FF0;

Lars Kongshøj (15-09-2002)
Kommentar
Fra : Lars Kongshøj


Dato : 15-09-02 13:30

Kent Friis wrote:
> Den Sun, 15 Sep 2002 10:28:52 +0200 skrev Jesper Rasmussen:
> >Aner virkeligt ikke hvorfor, men jeg har nu ca. 7000 filer i mit katalog,
> >der alle er en del af den url, den henter.
> >Jeg kan ikke slette dem med "rm url*" da jeg får fejlen "bash: /bin/rm:
> >Argument list too long"
> find . -maxdepth 1 -name "url*" -print0 | xargs -0 rm

Vil det gøre argumentlisten kortere?

--
Lars Kongshøj
Registrer dig som linux-bruger:
http://counter.li.org/enter-person.php

Torben Simonsen (15-09-2002)
Kommentar
Fra : Torben Simonsen


Dato : 15-09-02 13:37

Lars Kongshøj <lars_kongshoj@hotmail.com> writes:

> Kent Friis wrote:
> > Den Sun, 15 Sep 2002 10:28:52 +0200 skrev Jesper Rasmussen:
> > >Aner virkeligt ikke hvorfor, men jeg har nu ca. 7000 filer i mit katalog,
> > >der alle er en del af den url, den henter.
> > >Jeg kan ikke slette dem med "rm url*" da jeg får fejlen "bash: /bin/rm:
> > >Argument list too long"
> > find . -maxdepth 1 -name "url*" -print0 | xargs -0 rm
>
> Vil det gøre argumentlisten kortere?

Ja, det er netop fidusen ved xargs. Den sørger for at dele den stribe
argumenter, den får ind på standard input, op i passende bidder og
kalde rm et passende antal gange. Se "man xargs".

--
-- Torben.

Rasmus Meldgaard (15-09-2002)
Kommentar
Fra : Rasmus Meldgaard


Dato : 15-09-02 09:48

"Jesper Rasmussen" <nej@til.spam> writes:

> Hej
>
> Jeg har et Cron-job, der kører hvert tiende minut, som skal hente en
> hjemmeside med WGET.
> Det er blot for at fortælle hjemmesiden, at jeg stadig er oppe.
>
> wget -o /dev/null 'http:/min.side'
>
> Problemer er så bare, at den henter siden fint nok, men den lagrer en del af
> url'en i mit Root-katalog.
> Aner virkeligt ikke hvorfor, men jeg har nu ca. 7000 filer i mit katalog,
> der alle er en del af den url, den henter.
>
> Jeg kan ikke slette dem med "rm url*" da jeg får fejlen "bash: /bin/rm:
> Argument list too long"
>
> Hvad gør man så?

Denne har skulle virke (men der søger recursivt igennem
underbiblioteker)
find . -name url'*' -exec rm {} ';'

> Og hvordan skal min WGET modificeres, så den ikke lagrer filen i mit
> katalog?

fra man wget:
--spider
When invoked with this option, Wget will behave as a
Web spider, which means that it will not download the
pages, just check that they are there. You can use it
to check your bookmarks, e.g. with:


wget --spider --force-html -i bookmarks.html

This feature needs much more work for Wget to get
close to the functionality of real WWW spiders.

mon det ikke er det du leder efter?

--
Rasmus Meldgaard

Jeg har den dybeste medlidenhed med den som kun har fantasi til at
stave et ord på een måde.
-- Mark Twain

Arne Schwerdtfegger (15-09-2002)
Kommentar
Fra : Arne Schwerdtfegger


Dato : 15-09-02 10:48

"Jesper Rasmussen" <nej@til.spam> wrote:
> wget -o /dev/null 'http:/min.side'
>
> Problemer er så bare, at den henter siden fint nok, men den lagrer en
> del af url'en i mit Root-katalog.

1: Du behøver vel ikke køre cronjobbet som root.
2: Er urlen i stil med 'http://bla/mumle.php?ost=staerk&kaffe=sort'?
Prøv at smide "" omkring, ellers æder shellen '&' tegnet.

> Jeg kan ikke slette dem med "rm url*" da jeg får fejlen "bash:
> /bin/rm: Argument list too long"

for i in url* ; do rm $i ; done

> Og hvordan skal min WGET modificeres, så den ikke lagrer filen i mit
> katalog?

Din wget er fin nok, du skal bare pakke din url ind.

--
Knud

Jesper Rasmussen (15-09-2002)
Kommentar
Fra : Jesper Rasmussen


Dato : 15-09-02 11:15

"Arne Schwerdtfegger" <knud@INVALIDskodliv.dk> wrote in message
news:Xns928A790065D08knudINVALIDskodlivdk@212.242.40.196...
> "Jesper Rasmussen" <nej@til.spam> wrote:
> > wget -o /dev/null 'http:/min.side'
> >
> > Problemer er så bare, at den henter siden fint nok, men den lagrer en
> > del af url'en i mit Root-katalog.
>
> 1: Du behøver vel ikke køre cronjobbet som root.
> 2: Er urlen i stil med 'http://bla/mumle.php?ost=staerk&kaffe=sort'?
> Prøv at smide "" omkring, ellers æder shellen '&' tegnet.

Jeg har kapslet den ind i '
Er det da ikke nok?

Tak for hjælpen i øvrigt til alle.

Mvh
Jesper



Kent Friis (15-09-2002)
Kommentar
Fra : Kent Friis


Dato : 15-09-02 11:49

Den Sun, 15 Sep 2002 12:14:50 +0200 skrev Jesper Rasmussen:
>"Arne Schwerdtfegger" <knud@INVALIDskodliv.dk> wrote in message
>news:Xns928A790065D08knudINVALIDskodlivdk@212.242.40.196...
>> "Jesper Rasmussen" <nej@til.spam> wrote:
>> > wget -o /dev/null 'http:/min.side'
>> >
>> > Problemer er så bare, at den henter siden fint nok, men den lagrer en
>> > del af url'en i mit Root-katalog.
>>
>> 1: Du behøver vel ikke køre cronjobbet som root.
>> 2: Er urlen i stil med 'http://bla/mumle.php?ost=staerk&kaffe=sort'?
>> Prøv at smide "" omkring, ellers æder shellen '&' tegnet.
>
>Jeg har kapslet den ind i '
>Er det da ikke nok?

'' er "stærkere" end end "".

> A=hej
> touch fil
> echo $A *
hej fil
> echo "$A *"
hej *
> echo '$A *'
$A *

Mvh
Kent
--
Indlæringskurven til Linux er stejl, til tider lodret... Men for katten
hvor er udsigten på toppen dog fantastisk
- Michael G. Vendelbo i dk.snak

Klaus Alexander Seis~ (15-09-2002)
Kommentar
Fra : Klaus Alexander Seis~


Dato : 15-09-02 12:41

Arne Schwerdtfegger skrev:

>> wget -o /dev/null 'http:/min.side'
>
> Din wget er fin nok, du skal bare pakke din url ind.

Bemærk at der er forskel på 'wget -o' og 'wget -O'. Det vil sandsyn-
ligvis hjælpe at bruge

   wget -O- http://example.com/ >/dev/null 2>&1


// Klaus

--
><>    vandag, môre, altyd saam

Søg
Reklame
Statistik
Spørgsmål : 177511
Tips : 31968
Nyheder : 719565
Indlæg : 6408590
Brugere : 218887

Månedens bedste
Årets bedste
Sidste års bedste