On Tue, 06 Aug 2002 22:59:34 +0200, Morten Winther wrote:
> Hvilken form for caching ville du anvende? En alm webproxy foran eller
> noget i den dur?
En proxy foran web-serveren har jeg god erfaring med. Man skal blot huske
at udsende passende caching relaterede HTTP-headers. Det er fx. nyttesløst
at have en proxy foran web-serveren hvis billedet ikke udsendes med nogle
HTTP-headers der gør det muligt at cache'e det.
Man kan fx. også cache ved at dump'e billeddata til et område i web-scope.
På denne måde får man fordelen af at kunne lade web-serveren levere
billedet direkte uden om databasen, men man har stadig originaldata samlet
i logiske relationer - og man kan hvis der skulle opstå tvivl blot slette
de dump'ede billeddata. En sådan løsning vil kræve at éns PHP tænker noget
i stil med: "Findes dette billede allerede som dump'et udgave og er det
relativt nyt? - Fint. Ellers dump'er jeg det lige ned på filsystemet (i
web-scope). Herefter kan jeg link'e til billedet i min HTML".
> Jeg tænkte også på at anvende db til at gemme billeder på sitet
>
www.megapixel.dk , men når en database så fysisk fylder mere end en
> harddisk hvad gør man så?
Så skal man enten finde et mere kraftfuldt hardware/database-software
setup eller kaste sig over forskellige hacks.
> Lige nu har jeg ca. 9000 billeder som fylder godt 4,5 GB, så det ville
> ikke problem at have dem i en database, men kan man have en database
> delt over flere diske?
Med kæmpe-databasesystemer såsom Oracle kan man alt, men det typisk dyrt
og ualmindelig besværligt at holde kørende. - Så i dette tilfælde kan det
være, at de praktiske/økonomiske forhold bliver så tungtvejende, at man må
skilde billeddata fra de relaterede data, og hive dem ud af
databasesystemet til fordel for det rå filsystem.
--
Greetings from Troels Arvin, Copenhagen, Denmark