Philip Nunnegaard skrev:
> Rune Jensen skrev:
>
>> Google følger så vidt det er muligt FORM-links med METHOD GET. Det har
>> de gjort i hvert fald et års tid,
>
> Hvilket måske forklarer de mange gange hvor jeg f.eks. søger på en
> musikgruppe og bliver ledt ind til en tom side på discogs.com eller
> lignende?
> Det har netop været ekstra slemt på det seneste.
Man kan godt komme ud for, at Googlebot finder sammensætninger af
querystrings, som man ikke har taget højde for.
Det kan sagtens give problemer med sammensætninger, som man ikke selv
havde drømt om. F.eks. kan man forestille sig, at to variable ikke må
optræde samtidigt, og at man kun inputvaliderer med JS. Så skal det jo
gå galt..
....Måske dette kan lære folk at inputvalidere serverside også ;)
> Hvordan den så gætter på hvad der kan puttes ind i formen, er mig en gåde.
Den finder SVJV de forskellige inputs simpelthen ved at prøve sig frem
med alle de variable, der er tilgængelige i formen, og evt. med indhold
fra selve hjemmesiden, hvis det f.eks. er et tekstfelt. Var det en "bad
bot", ville jeg sammenligne det med brute force angreb ;)
Men egentlig gør den ikke (som sådan) noget forkert, set fra et
programmerings/kodemæsigt synspunkt. Det har alle dage været det
korrekte at bruge POST til f.eks. følsomme oplysninger, og ikke GET,
eftersom GET svarer til ganske almindelig nedhentning af siden, og
eftersom man principielt også vil kunne linke til sådanne sider (og
ændre i variable) udefra.
Det er altså ikke nok, at man tester på, om en button har en value, man
skal også teste for Method, og man kan måske erstatte GET med Cookies
også*). På samme måde må man aldrig bruge querystringvariable til at
holde f.eks. URLer til filer på serveren direkte. Det er en dødssynd, og
her kunne jeg sagtens forestille mig sjove "episoder".
En af de ting, som har bekymret var f.eks. at botten kunne "købe" et
eller andet på en webshop, eller oprette sig som bruger på et forum.
Men det vil ikke kunne ske, ikke engang teoretisk, hvis man bruger GET
og POST korrekt. Desuden så frasorteres visse felter og feltnavne.
Password-felter bliver f.eks. aldrig udfyldt.
Derimod, så kan det, at den crawler forme også, teoretisk give Duplicate
Content-problemer. Men det skriver Google så selv (lidt tvetydigt godt
nok), at det vil man ikke få lige her. Men jeg spørger så lige mig selv,
om de sider, som linkes til i formen ikke får en ranking (det gør de,
jeg ved bare ikke hvordan), nøjagtigt som andre sider, for så kan de vel
komme til at konkurrere med de sider, man _gerne_ og _hellere_ vil have
indekseret.
Så måske kan det lære folk både at inputvalidere og bruge POST og GET
korrekt. Hvis man skal se lyst på det. Lidt ligesom Duplicate
Content-problemet har lært folk ikke at stjæle indhold fra andre (med
mindre de er ligeglade med SEO, altså).
MVH
Rune Jensen
NOTE:
*)
Jeg oplevede det selv for et halvt års tid siden (jeg var ikke klar over
det, før jeg så det i statistikken), det gælder bl.a. boksen, hvor man
kan sortere på indholdet
http://runejensen.dk/tips/index.asp
....det giver ikke nyt indhold for brugeren, at der indekseres på den
form, og jeg var også bange for DC, for visse sorteringer er ens, så jeg
ordnede det ved at bruge webmaster tools til at fortælle Googlebot, at
der er 4-5 variable, den ikke må bruge, hellere end at kode det om ved
f.eks. at bruge cookies. Sådan kan man også gøre det, og det tager kun
2-3 minutter.