|
| CPU Afhængighed Fra : Bjarke Andersen |
Dato : 06-09-02 08:56 |
|
Hej
Hver dag sidder der flinke mennesker og giver deres bud på hvad som ville
være det bedste grafikkort over det andet og afhængigt af hvilken CPU
spørgeren har.
Men der er noget som undrer mig.
Hvis Hr. Jensen har en Athlon 500 så er svaret som regel (hvis vi kun
holder os til Nvidia verdenen) GF3Ti, da maskinen ikke ville kunne udnytte
et GF4Ti4200.
Men hvad nu hvis Hr. Jensen alligevel købte et G4Ti4200, ville det så ikke
bare performe næsten samme hastighed som et GF3Ti??
Og hvis nej, hvorfor så ikke? Hvad gør så forskellen??
--
Bjarke Andersen
Wanna reply by email? Remove the spammer in address
| |
fretur (06-09-2002)
| Kommentar Fra : fretur |
Dato : 06-09-02 12:37 |
|
"Bjarke Andersen" <bjoeg@*spammer*bjoeg.dk> wrote in message
news:Xns9281653B6D491bjoegdk@130.225.247.90...
CUT
> Hvis Hr. Jensen har en Athlon 500 så er svaret som regel (hvis vi kun
> holder os til Nvidia verdenen) GF3Ti, da maskinen ikke ville kunne udnytte
> et GF4Ti4200.
>
> Men hvad nu hvis Hr. Jensen alligevel købte et G4Ti4200, ville det så ikke
> bare performe næsten samme hastighed som et GF3Ti??
>
> Og hvis nej, hvorfor så ikke? Hvad gør så forskellen??
>
Svaret er nej. Det vil altid være bedre med et hurtigere grafikkort uanset
processor hastighed. Men man vil bare ikke altid udnytte kortet helt, dvs at
det vil være spild af penge hvis forskellen i ydelse kun er 20% hvis kortet
koster 50-100% mere.
Hvis prisfoskellen ikke er stor så køb trygt et hurtigere kort.
Søren.
| |
Kristian Espensen (06-09-2002)
| Kommentar Fra : Kristian Espensen |
Dato : 06-09-02 13:05 |
|
"Bjarke Andersen" <bjoeg@*spammer*bjoeg.dk> wrote in message
news:Xns9281653B6D491bjoegdk@130.225.247.90...
> Hvis Hr. Jensen har en Athlon 500 så er svaret som regel (hvis vi kun
> holder os til Nvidia verdenen) GF3Ti, da maskinen ikke ville kunne udnytte
> et GF4Ti4200.
>
> Men hvad nu hvis Hr. Jensen alligevel købte et G4Ti4200, ville det så ikke
> bare performe næsten samme hastighed som et GF3Ti??
Jo i de lave opløsninger.
> Og hvis nej, hvorfor så ikke? Hvad gør så forskellen??
Nej, ikke i de meget høje opløsninger. Hvis Hr. Jensen købe et ti4200 for
han "gratis" FSAA og anisotropisk filtrering i opløsninger over 1248*1024 i
forhold til gf3ti200. BTW vil en Athlon næsten være flaskehals overfor gf3ti
(200 mener du vel?) i populære opløsninger som 1024*768.
--
Med venlig hilsen Kristian
| |
Niels Bjørk Pedersen (06-09-2002)
| Kommentar Fra : Niels Bjørk Pedersen |
Dato : 06-09-02 18:00 |
|
Et Ti4200 bliver fx kun udnyttet 75% på en 50´0mhz cpu, hvor imod et
GF3Ti200 bliver udnyttet 100% - dvs at GF3Ti200 bruger alle sine kræfter det
gør det andet ikke og derfor ender du sådan at, da GF4ti4200 kun yder 75%
her, så bliver ydelsen den samme som ved et GF3Ti200 der yder 100%.
Håber det forklarer det.
-Niels-
Kristian Espensen <leth_espensen@mail.tele.dk> skrev i en
nyhedsmeddelelse:3d7899de$0$137$edfadb0f@dspool01.news.tele.dk...
>
> "Bjarke Andersen" <bjoeg@*spammer*bjoeg.dk> wrote in message
> news:Xns9281653B6D491bjoegdk@130.225.247.90...
>
> > Hvis Hr. Jensen har en Athlon 500 så er svaret som regel (hvis vi kun
> > holder os til Nvidia verdenen) GF3Ti, da maskinen ikke ville kunne
udnytte
> > et GF4Ti4200.
> >
> > Men hvad nu hvis Hr. Jensen alligevel købte et G4Ti4200, ville det så
ikke
> > bare performe næsten samme hastighed som et GF3Ti??
>
> Jo i de lave opløsninger.
>
> > Og hvis nej, hvorfor så ikke? Hvad gør så forskellen??
>
> Nej, ikke i de meget høje opløsninger. Hvis Hr. Jensen købe et ti4200 for
> han "gratis" FSAA og anisotropisk filtrering i opløsninger over 1248*1024
i
> forhold til gf3ti200. BTW vil en Athlon næsten være flaskehals overfor
gf3ti
> (200 mener du vel?) i populære opløsninger som 1024*768.
> --
> Med venlig hilsen Kristian
>
>
| |
fretur (07-09-2002)
| Kommentar Fra : fretur |
Dato : 07-09-02 00:11 |
|
"Niels Bjørk Pedersen" <njb.pedersen@12mail.dk> wrote in message
news:G85e9.59215$ww6.4098399@news010.worldonline.dk...
> Et Ti4200 bliver fx kun udnyttet 75% på en 50´0mhz cpu, hvor imod et
> GF3Ti200 bliver udnyttet 100% - dvs at GF3Ti200 bruger alle sine kræfter
det
> gør det andet ikke og derfor ender du sådan at, da GF4ti4200 kun yder 75%
> her, så bliver ydelsen den samme som ved et GF3Ti200 der yder 100%.
> Håber det forklarer det.
> -Niels-
Det er den værste gang vrøvl jeg har hørt !!!!
Intet kort bliver udnyttet 100% derfor kan du heller ikke tale om at det
andet kun bliver udnyttet 75%.
Det tal du angiver er grebet ud af den blå luft og bunder i at du allerede
har bestemt at:
500 mhz cpu + geforce3 ti200 = 500 mhz + geforce4 4200.
Og enhver kan da sige sig selv at det er noget vrøvl.
Bedre grafikkort vil altid give bedre ydelse omend ikke proportionalt
stigende med kortenes forskel i ydelse.
Søren.
| |
|
|