/ Forside / Teknologi / Hardware / Grafikkort / Nyhedsindlæg
Login
Glemt dit kodeord?
Brugernavn

Kodeord


Reklame
Top 10 brugere
Grafikkort
#NavnPoint
tedd 11444
Manse9933 3657
Fijala 2911
peet49 2571
refi 2390
pallebhan.. 1955
strarup 1945
phg1 1758
Klaudi 1571
10  transor 1240
ATI nået toppen ?
Fra : Olesen


Dato : 30-09-03 23:31

Jeg har læst en del tests af ATI's nyeste Radeion 9800XT ("extended")
grafikkort.

Totalt set ser det ud til, at ydelsen er steget marginalt med ca. 5%, max
10%
i visse tilfælde, pga. GPU og RAM frekvensen er skruet en smule i vejret.
En simpel "overklocking" istedet for innovative idêer.

Køleren er blevet meget mere massiv, kortet er set med 2 blæsere monteret.
En temperatur på hele 60 grader er blevet målt, hvilket sku' være
ret meget, specielt i ATI-regi. De største forskelle i ændringerne
på GPU'en sku' være, de har omarrangeret nogle komponenter,
simpelthen for bedre at komme af med varmen...

Den kommende Catalyst 3.8 driver sku' indeholde en overclocking-
funktion, som konstant måler kernens temperatur via en indbygget
føler på GPU'en, og dermed dynamisk kunne skrue op og ned for den
"automatiske overclockingfunktion". Netop dêrfor den ekstra
køler er nødvendig. Hvorfor ikke ha' denne mulighed koblet
til permanent hvis den er så effektiv ???????

Konklusionen på alle de tests der florerer er, at 9800XT ikke
er et kvantespring på grafikkortområdet, og de alle med spænding
venter på, Catalyst 3.8 blir' frigivet. Flere testhold undrer sig også over,
hvorfor ATI smider et kort på markedet, uden dens max egenskaber
kommer til sin ret, vha. Catalyst 3.8 overclock-muligheden...De
ligefrem anbefaler en 9800Pro 256 mb kort istedet, da 9800XT
vil blive MEGET kostbar...måske endda dyrere end
Nvidias kommende NV38'er,-en overclocket 9800pro larmer mindre,
yder det samme til en meget lavere pris...

Frekvensen har ATI fået skruet op til 412 Mhz, Nvidia's
FX serie har kørt med 500 i rigtig lang tid.
Iøvrigt sjovt, at ATI's mid-range kort har
mere moderne arkitektur på visse områder, bla.
hurtigere core-hastighed og 0.13 micron-teknik..måske
derfor, R360'eren (igen) blot er en opdateret R350'er (9800).

Har ATI nået toppen for, hvad de kan præstere ?
Er det mon utænkeligt, vi vil se Nvidias kommende NV38
som den GPU, som atter viser Nvidias overlegenhed, teknisk set,
og een gang for alle slå fast, at Nvidia er kongen ???

Jeg ser det sådan, at ATI har nogle supersunde grafiske
egenskaber rent kodemæssigt, forstået på den måde,
der spares meget regnekraft, fordi de har nogle fornuftige
rutiner til at beregne grafikken, hvorimod Nvidia
har og er uheldig med eks. PixelShader 2.0, men er
tekniske overlegne, og vil komme "tilbage" med
sådan en kraft, ATI kommer til at stå i skyggen igen.

Glæder mig vildt meget til at se kommende FX5950
mod 9800XT...



 
 
MKH1 (01-10-2003)
Kommentar
Fra : MKH1


Dato : 01-10-03 01:21


"Olesen" <olesen@jubiipost.dk> wrote
> Jeg har læst en del tests af ATI's nyeste Radeion 9800XT ("extended")
> grafikkort.
>
> Totalt set ser det ud til, at ydelsen er steget marginalt med ca. 5%, max
> 10%
> i visse tilfælde, pga. GPU og RAM frekvensen er skruet en smule i vejret.
> En simpel "overklocking" istedet for innovative idêer.
>
> Køleren er blevet meget mere massiv, kortet er set med 2 blæsere monteret.
> En temperatur på hele 60 grader er blevet målt, hvilket sku' være
> ret meget, specielt i ATI-regi. De største forskelle i ændringerne
> på GPU'en sku' være, de har omarrangeret nogle komponenter,
> simpelthen for bedre at komme af med varmen...
>
> Den kommende Catalyst 3.8 driver sku' indeholde en overclocking-
> funktion, som konstant måler kernens temperatur via en indbygget
> føler på GPU'en, og dermed dynamisk kunne skrue op og ned for den
> "automatiske overclockingfunktion". Netop dêrfor den ekstra
> køler er nødvendig. Hvorfor ikke ha' denne mulighed koblet
> til permanent hvis den er så effektiv ???????
>
> Konklusionen på alle de tests der florerer er, at 9800XT ikke
> er et kvantespring på grafikkortområdet, og de alle med spænding
> venter på, Catalyst 3.8 blir' frigivet. Flere testhold undrer sig også
over,
> hvorfor ATI smider et kort på markedet, uden dens max egenskaber
> kommer til sin ret, vha. Catalyst 3.8 overclock-muligheden...De
> ligefrem anbefaler en 9800Pro 256 mb kort istedet, da 9800XT
> vil blive MEGET kostbar...måske endda dyrere end
> Nvidias kommende NV38'er,-en overclocket 9800pro larmer mindre,
> yder det samme til en meget lavere pris...
>
> Frekvensen har ATI fået skruet op til 412 Mhz, Nvidia's
> FX serie har kørt med 500 i rigtig lang tid.
> Iøvrigt sjovt, at ATI's mid-range kort har
> mere moderne arkitektur på visse områder, bla.
> hurtigere core-hastighed og 0.13 micron-teknik..måske
> derfor, R360'eren (igen) blot er en opdateret R350'er (9800).
>
> Har ATI nået toppen for, hvad de kan præstere ?
> Er det mon utænkeligt, vi vil se Nvidias kommende NV38
> som den GPU, som atter viser Nvidias overlegenhed, teknisk set,
> og een gang for alle slå fast, at Nvidia er kongen ???
>
> Jeg ser det sådan, at ATI har nogle supersunde grafiske
> egenskaber rent kodemæssigt, forstået på den måde,
> der spares meget regnekraft, fordi de har nogle fornuftige
> rutiner til at beregne grafikken, hvorimod Nvidia
> har og er uheldig med eks. PixelShader 2.0, men er
> tekniske overlegne, og vil komme "tilbage" med
> sådan en kraft, ATI kommer til at stå i skyggen igen.
>
> Glæder mig vildt meget til at se kommende FX5950
> mod 9800XT...
>

Steget ca. 20% efter R300 (9700pro). Det er da meget godt?
Det er mere eller mindre samme core.

Martin.



iddqdATworldonline.d~ (01-10-2003)
Kommentar
Fra : iddqdATworldonline.d~


Dato : 01-10-03 09:02

MKH1 wrote:
> Steget ca. 20% efter R300 (9700pro). Det er da meget godt?
> Det er mere eller mindre samme core.
>
ARRRRRGHHHH!

Hold op med at Megaquote.

Mvh

Bruno


MKH1 (01-10-2003)
Kommentar
Fra : MKH1


Dato : 01-10-03 12:18


"iddqdATworldonline.dk" <iddqd@worldonline.dk> wrote
> >
> ARRRRRGHHHH!
>
> Hold op med at Megaquote.

Det skal du bare blande dig uden om!

Martin.



Ukendt (01-10-2003)
Kommentar
Fra : Ukendt


Dato : 01-10-03 12:43

"MKH1" <mkhenrichsen_@mail.dk> wrote in message
news:3f7ab7f7$0$24725$edfadb0f@dread14.news.tele.dk...
> > ARRRRRGHHHH!
> > Hold op med at Megaquote.
>
> Det skal du bare blande dig uden om!

Det ville være lettere om du bare lærte at følge netiketten, som du kan læse
mere om her: http://www.usenet.dk/netikette/citatteknik.html

Jeg blev også sur de første gange jeg blev irettesat herinde, men det ER
bare lettere at følge indlæggene, hvis folk følger netikettens citatteknik.

Mvh, Ulrik



Olesen (01-10-2003)
Kommentar
Fra : Olesen


Dato : 01-10-03 15:26


"MKH1" <mkhenrichsen_@mail.dk> skrev i en meddelelse
news:3f7a1e05$0$24628$edfadb0f@dread14.news.tele.dk...
>

> Steget ca. 20% efter R300 (9700pro). Det er da meget godt?
> Det er mere eller mindre samme core.
>

20% ?
Måske...men forskellen på 9800Pro og 9800XT er
meget minimal synes jeg, efter at ha' læst en del
tests, hvor summasumarum er, at de havde
forventet mere.



iddqdATworldonline.d~ (01-10-2003)
Kommentar
Fra : iddqdATworldonline.d~


Dato : 01-10-03 09:15

Olesen wrote:

> Den kommende Catalyst 3.8 driver sku' indeholde en overclocking-
> funktion, som konstant måler kernens temperatur via en indbygget
> føler på GPU'en, og dermed dynamisk kunne skrue op og ned for den
> "automatiske overclockingfunktion". Netop dêrfor den ekstra
> køler er nødvendig. Hvorfor ikke ha' denne mulighed koblet
> til permanent hvis den er så effektiv ???????
>
Fordi det ville blive kaldt snyd så følsomt som verden er mht.
optimeringer, plus at det ville være svært at gennemskue for folk.


> Nvidias kommende NV38'er,-en overclocket 9800pro larmer mindre,
> yder det samme til en meget lavere pris...
>
LOL, og det ved du fordi. Hold dig til facts og sluk for krystalkuglen.



> Frekvensen har ATI fået skruet op til 412 Mhz, Nvidia's
> FX serie har kørt med 500 i rigtig lang tid.

Ja, og det fortæller lige præcis hvad. Mhz fortæller ingenting hvis ikke
man medregner hvor meget arbejder der bliver udført per clock cycle.


> Iøvrigt sjovt, at ATI's mid-range kort har
> mere moderne arkitektur på visse områder, bla.
> hurtigere core-hastighed og 0.13 micron-teknik..måske
> derfor, R360'eren (igen) blot er en opdateret R350'er (9800).
>
Det er da ikke ualmindeligt, kig bare på Nvidia's gf4MX


> Har ATI nået toppen for, hvad de kan præstere ?

Sludder. 9800XT er mellemversion, det svarer til de Ultra kort Nvidia
plejer at komme med. Bare vent til næste år.


> Er det mon utænkeligt, vi vil se Nvidias kommende NV38
> som den GPU, som atter viser Nvidias overlegenhed, teknisk set,
> og een gang for alle slå fast, at Nvidia er kongen ???
>
Fanboy. Jeg synes det er fint med konkurence, men der altså ikke nogen
som er konge nogen steder og lige nu er det eneste Nvidia er bedst til
at snyde.


> Jeg ser det sådan, at ATI har nogle supersunde grafiske
> egenskaber rent kodemæssigt, forstået på den måde,
> der spares meget regnekraft, fordi de har nogle fornuftige
> rutiner til at beregne grafikken, hvorimod Nvidia
> har og er uheldig med eks. PixelShader 2.0, men er
> tekniske overlegne, og vil komme "tilbage" med
> sådan en kraft, ATI kommer til at stå i skyggen igen.
>
Øhhø, man er teknisk overlegen og samtidig uheldig???? Som jeg ser det
har man sovet i timer, ladt de gamle Voodoo folk gøre dumme ting ved
GeforceFX serien og så prøvet at skjule det bag et røgslør af snyd og
dårlige undskyldninger.



> Glæder mig vildt meget til at se kommende FX5950
> mod 9800XT...
>

Tvivler på at Nvidia får fixet deres Dx9 performance, og det ville ikke
overraske mig hvis de vælger ikke at sende det ud for at undgå flere
bank. Nvidia har jo også meldt ud at de ikke længere ser grafik som
deres primære forretningsområde.

Mvh

Bruno


Martin Kirschmeyer (01-10-2003)
Kommentar
Fra : Martin Kirschmeyer


Dato : 01-10-03 10:40

iddqdATworldonline.dk wrote:
> Nvidia har jo også meldt ud at de ikke længere ser grafik
> som deres primære forretningsområde.

OK - hvad vil de så lave? Kan de andet?

--
Martin K
www.lemansarea.dk - Motorløbet Le Mans i koncentreret form!



TBC (01-10-2003)
Kommentar
Fra : TBC


Dato : 01-10-03 12:10

"Martin Kirschmeyer" <kirschmeyer@REMOVE.hotmail.com> skrev i en meddelelse
news:3f7aa0e4$0$48903$edfadb0f@dtext02.news.tele.dk...
> iddqdATworldonline.dk wrote:
> > Nvidia har jo også meldt ud at de ikke længere ser grafik
> > som deres primære forretningsområde.
>
> OK - hvad vil de så lave? Kan de andet?

De laver i hvertfald allere nogle af de bedste bundkort man kan få fingerne
i til AMD's processorer. Men lur mig om de ikke også laver et par grafikkort
mere hen af vejen

TBC



Martin Kirschmeyer (01-10-2003)
Kommentar
Fra : Martin Kirschmeyer


Dato : 01-10-03 12:22

TBC wrote:
> De laver i hvertfald allere nogle af de bedste bundkort man kan få
> fingerne i til AMD's processorer. Men lur mig om de ikke også laver
> et par grafikkort mere hen af vejen

OK - men laver de ikke kun chipsæts?

--
Martin K (der selv har et Abit NF7 m. nForce 2 Ultra 400 chip)
www.lemansarea.dk - Motorløbet Le Mans i koncentreret form!



TBC (01-10-2003)
Kommentar
Fra : TBC


Dato : 01-10-03 16:03

On Wed, 1 Oct 2003 13:21:54 +0200, "Martin Kirschmeyer"
<kirschmeyer@REMOVE.hotmail.com> wrote:

>TBC wrote:
>> De laver i hvertfald allere nogle af de bedste bundkort man kan få
>> fingerne i til AMD's processorer. Men lur mig om de ikke også laver
>> et par grafikkort mere hen af vejen
>
>OK - men laver de ikke kun chipsæts?

Jo jo, hvis man skal være så pedant. Men princippet er det samme, skal
man være pedant så kan man selvfølgelig artikulere svaret mere præsist
som sådan at de laver chipset til *både* grafikkort *og* bundkort, og
altså ikke kun har grafik som det eneste fokus.

TBC


iddqdATworldonline.d~ (01-10-2003)
Kommentar
Fra : iddqdATworldonline.d~


Dato : 01-10-03 16:46

TBC wrote:
> Jo jo, hvis man skal være så pedant. Men princippet er det samme, skal
> man være pedant så kan man selvfølgelig artikulere svaret mere præsist
> som sådan at de laver chipset til *både* grafikkort *og* bundkort, og
> altså ikke kun har grafik som det eneste fokus.
>
Hehe, hvis man er super pedant så laver Nvidia i virkeligheden kun
design - deres chips bliver jo produceret hos TSMC.

Bortset fra det så designer Nvidia også chips til mobiltelefoner, PDA'er
m.m. og så designer de også chips til PS3 hvis man skal tro rygterne.

Mvh

Bruno


Olesen (01-10-2003)
Kommentar
Fra : Olesen


Dato : 01-10-03 18:41


"iddqdATworldonline.dk" <iddqd@worldonline.dk> skrev i en meddelelse
news:blessk$2ibf$1@news.cybercity.dk...

> Hehe, hvis man er super pedant så laver Nvidia i virkeligheden kun
> design - deres chips bliver jo produceret hos TSMC.

Hvor får ATI så lavet deres stuff ?

As you know ATI orders all 0.13µm chips as well as most of 0.15µm ones from
TSMC, though, according to some sources, some 0.15µm RV280 chips have been
ordered from UMC. Besides, 0.13µm Radeon 9600 (RV350) will be produced at
TSMC's 300mm fab. And UMC produces 0.15µm ATI Radeon 9200 (RV280), which are
also to be moved to 0.13µm process technology in the future.




Martin Johansson (01-10-2003)
Kommentar
Fra : Martin Johansson


Dato : 01-10-03 12:42


"TBC" <-sutmin@2night.dk> skrev i en meddelelse
news:3f7ab5f0$0$22636$d40e179e@nntp02.dk.telia.net...
[SNIP]

> > OK - hvad vil de så lave? Kan de andet?
>
> De laver i hvertfald allere nogle af de bedste bundkort man kan få
fingerne
> i til AMD's processorer. Men lur mig om de ikke også laver et par
grafikkort
> mere hen af vejen

*host*host* De laver nu "kun" chipsættet.
Men det er også et knaldgodt et af slagsen.



Olesen (01-10-2003)
Kommentar
Fra : Olesen


Dato : 01-10-03 15:49


"iddqdATworldonline.dk" <iddqd@worldonline.dk> skrev i en meddelelse
news:ble2dh$var$1@news.cybercity.dk...

> Fordi det ville blive kaldt snyd så følsomt som verden er mht.
> optimeringer, plus at det ville være svært at gennemskue for folk.

Eller også fordi ATI ikke har gjort den ordentlig færdig.

>
> > -en overclocket 9800pro larmer mindre,
> > yder det samme til en meget lavere pris...
> >
> LOL, og det ved du fordi. Hold dig til facts og sluk for krystalkuglen.

Jeg har læst ca. 10 tests af kortet, og de fleste
steder nævnes, at årsagen til 2 kølere er
"overdrive" funktionen i Catalyst 3.8 driveren,
så endnu mere køling er nødvendigt.
En standard 9800XT måles til ca. 60 grader
i ikke-tunet trim, og det er meget.
Så vel ikke så sært, 2 kølere larmer
mere, men er nødvendigt efterhånden.
Hvis du skærer alle tests over een kam,
så vil du se de stort set er enige om,
at forbedringen iforhold til 9800Pro
er så minimal, man kommer langt
med en lettere oc'et 9800'er.

>
>
> > Frekvensen har ATI fået skruet op til 412 Mhz, Nvidia's
> > FX serie har kørt med 500 i rigtig lang tid.
>
> Ja, og det fortæller lige præcis hvad. Mhz fortæller ingenting hvis ikke
> man medregner hvor meget arbejder der bliver udført per clock cycle.

Korrekt, men øget frekvens er lig øget varme, og
da 9800XT siges at blive ganske lun, så kan der
måske være en forklaring på, frekvensen ikke
er øget yderligere.

>
> > Iøvrigt sjovt, at ATI's mid-range kort har
> > mere moderne arkitektur på visse områder, bla.
> > hurtigere core-hastighed og 0.13 micron-teknik..måske
> > derfor, R360'eren (igen) blot er en opdateret R350'er (9800).
> >
> Det er da ikke ualmindeligt, kig bare på Nvidia's gf4MX

Undrer mig stadig over, at 9600 serien har 0.13 teknik,
og den helt nye R360 core stadig har 0.15....


>
> > Har ATI nået toppen for, hvad de kan præstere ?
>
> Sludder. 9800XT er mellemversion, det svarer til de Ultra kort Nvidia
> plejer at komme med. Bare vent til næste år.

Sludder. 9800XT er topmodellen pt., indtil R420'eren frigives 2004.

>
> > Er det mon utænkeligt, vi vil se Nvidias kommende NV38
> > som den GPU, som atter viser Nvidias overlegenhed, teknisk set,
> > og een gang for alle slå fast, at Nvidia er kongen ???
> >
> Fanboy. Jeg synes det er fint med konkurence, men der altså ikke nogen
> som er konge nogen steder og lige nu er det eneste Nvidia er bedst til
> at snyde.

...sådan sagde alle jo, indtil selveste Futuremark i en
pressemeddelelse skrev, at det ikke var snyd, men
optimeringer som mange havde benyttet sig af tidligere,
bla.ATI. Seneste pressemeddelelse fra Futuremark nævner
iøvrigt retningslinjer for, hvad der er tilladt mht. optimeringer osv.
Iøvrigt var det ATI som var de første til at snyde i Q3.

>
> > Jeg ser det sådan, at ATI har nogle supersunde grafiske
> > egenskaber rent kodemæssigt, forstået på den måde,
> > der spares meget regnekraft, fordi de har nogle fornuftige
> > rutiner til at beregne grafikken, hvorimod Nvidia
> > har og er uheldig med eks. PixelShader 2.0, men er
> > tekniske overlegne, og vil komme "tilbage" med
> > sådan en kraft, ATI kommer til at stå i skyggen igen.
> >
> Øhhø, man er teknisk overlegen og samtidig uheldig???? Som jeg ser det
> har man sovet i timer, ladt de gamle Voodoo folk gøre dumme ting ved
> GeforceFX serien og så prøvet at skjule det bag et røgslør af snyd og
> dårlige undskyldninger.

Valve har indrømmet, der er uhensigtsmæssigheder
i DirectX 9. At Nvidia's PS2.0 teknik er en smule
anderledes er stærkt beklageligt, ja, men samtidig
har ATI's 9800Pro nogle funktioner indbygget,
som ikke er 'nævnt' i DirectX 9 standarden, men
som Valve benytter sig af alligevel.
Nvidia har ikke snydt. De har modificeret
driveren til at generere dårligere kvalitet,
for at få framen højere, ja.
At Valve mig bekendt er de eneste
som bruger 5 x så lang tid på at skrive
kode til FX-serien, hvor andre ikke
har nævnt lign. problemer siger mere
om Valves evner end om FX kortenes
evt. mangler.

>
>
> > Glæder mig vildt meget til at se kommende FX5950
> > mod 9800XT...
> >
>
> Tvivler på at Nvidia får fixet deres Dx9 performance, og det ville ikke
> overraske mig hvis de vælger ikke at sende det ud for at undgå flere
> bank. Nvidia har jo også meldt ud at de ikke længere ser grafik som
> deres primære forretningsområde.

Det hænger jo særdeles godt sammen med, de netop har offentligjort,
de er i fuld gang med at lave en hel serie af GPU'er til både dekstopper,
mobile og workstations, som benytter fordelen af den ekstra båndbredde
den nye PCI Express-bustype vil gøre brug af.
Hvis Nvidia skruede ned for blusset,
så ville de nok lade PCI Express være PCI Express, og
koncentrere sig om udvikling af chipsets og andre enheder
til den mobile branche.
At Nvidia også er valgt som leverandør til Apples Imac
serie tyder heller ikke på en nedgang i produktion/udvikling
af grafik-chips.
Så klart vi vil se Nvidia komme mærkbart tilbage igen,
først med NV38 ca. 10. oktober, og så med NV40 i 2004, som virkelig vil
sparke røv.



Martin Johansson (01-10-2003)
Kommentar
Fra : Martin Johansson


Dato : 01-10-03 16:34


"Olesen" <olesen@jubiipost.dk> skrev i en meddelelse
news:3f7ae95d$0$32432$edfadb0f@dread16.news.tele.dk...
[SNIP]

> Jeg har læst ca. 10 tests af kortet, og de fleste
> steder nævnes, at årsagen til 2 kølere er
> "overdrive" funktionen i Catalyst 3.8 driveren,
> så endnu mere køling er nødvendigt.
> En standard 9800XT måles til ca. 60 grader
> i ikke-tunet trim, og det er meget.
> Så vel ikke så sært, 2 kølere larmer
> mere, men er nødvendigt efterhånden.
> Hvis du skærer alle tests over een kam,
> så vil du se de stort set er enige om,
> at forbedringen iforhold til 9800Pro
> er så minimal, man kommer langt
> med en lettere oc'et 9800'er.

Hmm mit gamle Asus Geforce 2 var knapt 60 grader ved standard hastighed og
med standard køling.
Det var ikke unormalt.
Husk at grafikkort har det med at blive meget varme.
Det behøver ikke at nedsætte stabiliteten.



Morten Holberg Niels~ (01-10-2003)
Kommentar
Fra : Morten Holberg Niels~


Dato : 01-10-03 17:17


"Olesen" <olesen@jubiipost.dk> skrev i en meddelelse
news:3f7ae95d$0$32432$edfadb0f@dread16.news.tele.dk...
>
> "iddqdATworldonline.dk" <iddqd@worldonline.dk> skrev i en meddelelse
> news:ble2dh$var$1@news.cybercity.dk...

> > Fanboy. Jeg synes det er fint med konkurence, men der altså ikke nogen
> > som er konge nogen steder og lige nu er det eneste Nvidia er bedst til
> > at snyde.

Enig.

> ..sådan sagde alle jo, indtil selveste Futuremark i en
> pressemeddelelse skrev, at det ikke var snyd, men
> optimeringer som mange havde benyttet sig af tidligere,
> bla.ATI. Seneste pressemeddelelse fra Futuremark nævner
> iøvrigt retningslinjer for, hvad der er tilladt mht. optimeringer osv.
> Iøvrigt var det ATI som var de første til at snyde i Q3.

Nvidia har lavet forskellige "tricks" på det seneste. Futuremark er bare en
af mange. Søg selv på nettet. Lader til du har klikket udenom alle sagerne?

Mht. snyd i Q3 er det bemærkelsesværdigt at Nvidias 5900U altid* vinder
denne test.

*hvis nu du kommer med et link hvor de taber, blot for at være næsvis, kan
jeg komme med ti andre hvor de vinder
--
Mvh
Morten Holberg Nielsen

In an interstelaaarrr buuuurrssst im baaack to saaaveeee the uuuunivereerse!



Olesen (01-10-2003)
Kommentar
Fra : Olesen


Dato : 01-10-03 17:45


"Morten Holberg Nielsen" <holberg19@ DELETETHIS ofir.dk> skrev i en
meddelelse news:3f7afdf3$0$48907$edfadb0f@dtext02.news.tele.dk...

> Nvidia har lavet forskellige "tricks" på det seneste. Futuremark er bare
en
> af mange. Søg selv på nettet. Lader til du har klikket udenom alle
sagerne?

Du kunne så passende gi' et par links eller tre nu du mener
du er så velbevandret udi snyderi ?


> Mht. snyd i Q3 er det bemærkelsesværdigt at Nvidias 5900U altid* vinder
> denne test.

Måske fordi Nvidia klarer sig naturligt bedre i denne disciplin.


> *hvis nu du kommer med et link hvor de taber, blot for at være næsvis, kan
> jeg komme med ti andre hvor de vinder

Du får vel al din viden fra The Inquirer ?



Morten Holberg Niels~ (02-10-2003)
Kommentar
Fra : Morten Holberg Niels~


Dato : 02-10-03 00:57


"Olesen" <olesen@jubiipost.dk> skrev i en meddelelse
news:3f7b04c0$0$32515$edfadb0f@dread16.news.tele.dk...
>
> "Morten Holberg Nielsen" <holberg19@ DELETETHIS ofir.dk> skrev i en
> meddelelse news:3f7afdf3$0$48907$edfadb0f@dtext02.news.tele.dk...
>
> > Nvidia har lavet forskellige "tricks" på det seneste. Futuremark er bare
> en
> > af mange. Søg selv på nettet. Lader til du har klikket udenom alle
> sagerne?
>
> Du kunne så passende gi' et par links eller tre nu du mener
> du er så velbevandret udi snyderi ?

Jeg håbede sådan du ville spørge.
http://www.driverheaven.net/articles/aquamark3/index.htm

> > Mht. snyd i Q3 er det bemærkelsesværdigt at Nvidias 5900U altid* vinder
> > denne test.
>
> Måske fordi Nvidia klarer sig naturligt bedre i denne disciplin.

Ahh, ved lidt hjælp så det også ud som om de klarede sig "naturligt" godt i
3dMark03. Måske klarer de sig ekstra godt i lige netop disse to "disipliner"
fordi de ved at Q3 som benchmark vil blive brugt sammen med 3Dmark03, igen
og igen og igen og igen...

> > *hvis nu du kommer med et link hvor de taber, blot for at være næsvis,
kan
> > jeg komme med ti andre hvor de vinder
>
> Du får vel al din viden fra The Inquirer ?

Nej, jeg har -modsat andre- en sund indgang til tingene og et åbent sind.

--
Mvh
Morten Holberg Nielsen

In an interstelaaarrr buuuurrssst im baaack to saaaveeee the uuuunivereerse!



iddqdATworldonline.d~ (01-10-2003)
Kommentar
Fra : iddqdATworldonline.d~


Dato : 01-10-03 17:21

Olesen wrote:

> Eller også fordi ATI ikke har gjort den ordentlig færdig.
>
Ikke forstået. 9800XT er ikke officielt på markedet endnu og driverne
med supporten for dynamisk overclocking er derfor heller ikke klar, hvis
det er hvad du referer til som at noget ikke er ordentlig færdigt kan
jeg ikke se det odiøse i.



> Jeg har læst ca. 10 tests af kortet, og de fleste
> steder nævnes, at årsagen til 2 kølere er
> "overdrive" funktionen i Catalyst 3.8 driveren,
> så endnu mere køling er nødvendigt.
> En standard 9800XT måles til ca. 60 grader
> i ikke-tunet trim, og det er meget.

Sludder 60 grader er ikke meget for en chip. 80 grader ville være en
del, men ikke meget. Forøvrigt gik min kommentar ikke på ATI, men på din
udtalelse om kommende Nvidia hardware som du bekvemt har fjernet. Når du
citerer så citer venligst hele sætninger!


> Korrekt, men øget frekvens er lig øget varme, og
> da 9800XT siges at blive ganske lun, så kan der
> måske være en forklaring på, frekvensen ikke
> er øget yderligere.
>
Sikkert, men ligegyldigt da jeg ikke har kommenteret om hvorvidt ATI
øger med lidt eller meget. Jeg har blot kommenteret det at Nvidia's 500
Mhz bliver skrevet som om det automatisk er bedre end ATI's 4nn Mhz.


> Undrer mig stadig over, at 9600 serien har 0.13 teknik,
> og den helt nye R360 core stadig har 0.15....
>
9600 er designet senere. R360 er blot en R350 med minimale ændringer.
Den slags ser man mange steder, kig bare i motorrummet på en stribe nye
biler.

> Sludder. 9800XT er topmodellen pt., indtil R420'eren frigives 2004.
>
Præcis. 9800XT er en mellemversion eller en mellemgeneration om du vil.
Spøjst at du det ene øjeblik mener ATI har nået toppen og så nu skriver
om en kommende chip


> ..sådan sagde alle jo, indtil selveste Futuremark i en
> pressemeddelelse skrev, at det ikke var snyd, men
> optimeringer som mange havde benyttet sig af tidligere,
> bla.ATI.

LOL, der er nogle facts du ikke har styr på. Hvem tror du har råd til
flest advokater Nvidia eller Futuremark.

I øvrigt så havde ATI's optimeringen ikke form af noget der bygge på at
der kun skulle vises et bestemt forløb, men derimod optimeringer af
bregninger der gav sammen grafikresultat og ikke betød at man var
begrænset til et bestemt forløb. For at bruge en analogi så bygge Nvidia
et hus hvor der ikke var gulv i de værelser der ikke skulle vises frem,
mens ATI blot fandt en smartere måde at lægge gulvene med samme
slutresultat og i alle rummene.


> Seneste pressemeddelelse fra Futuremark nævner
> iøvrigt retningslinjer for, hvad der er tilladt mht. optimeringer osv.

Godt initiativ, men lidt sent.



> Iøvrigt var det ATI som var de første til at snyde i Q3.
>
Yep og det indrømmede de, mens Nvidia forøvrigt var hurtige til at sige
de aldrig ville gøre sådan.


> Valve har indrømmet, der er uhensigtsmæssigheder
> i DirectX 9. At Nvidia's PS2.0 teknik er en smule
> anderledes er stærkt beklageligt, ja, men samtidig
> har ATI's 9800Pro nogle funktioner indbygget,
> som ikke er 'nævnt' i DirectX 9 standarden, men
> som Valve benytter sig af alligevel.

Valve er ikke de eneste som mener Nvidia's løsning er problematisk. Her
er en lille mundsmag

http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/001.htm




> Nvidia har ikke snydt. De har modificeret
> driveren til at generere dårligere kvalitet,
> for at få framen højere, ja.

De har snydt. Faktisk er der tale om at deres drivere ignorer
brugerens/programmets indstillinger og køre med lavere kvalitet. Hvis
ikke det er synd, så kunne de også bare ignorere FSAA indstillinger og
sige de havde optimeret. Forstår ikke hvordan du kan sige det ikke er snyd.


> At Valve mig bekendt er de eneste
> som bruger 5 x så lang tid på at skrive
> kode til FX-serien, hvor andre ikke
> har nævnt lign. problemer siger mere
> om Valves evner end om FX kortenes
> evt. mangler.
>
Så har du ikke kigget godt nok, og hvad egentlig med de mange andre Dx9
programmer der også performer dårligt på Nvidia's hardware? Det må du da
havde set i de 10 test du har læst af 9800XT.

Kig fx på denne.

http://www20.tomshardware.com/graphic/20030930/index.html


> Det hænger jo særdeles godt sammen med, de netop har offentligjort,
> de er i fuld gang med at lave en hel serie af GPU'er til både dekstopper,
> mobile og workstations, som benytter fordelen af den ekstra båndbredde
> den nye PCI Express-bustype vil gøre brug af.

Altså jeg nævner blot hvad Nvidia's CEO har givet udtryk for.

http://www.legionhardware.com/html/doc.php?id=261&p=3

Men jeg undrede mig også noget, det er nævnt på andre sider der
rapporterede fra samme event så den må være god nok.


> Så klart vi vil se Nvidia komme mærkbart tilbage igen,
> først med NV38 ca. 10. oktober, og så med NV40 i 2004, som virkelig vil
> sparke røv.

NV38 tror jeg ikke på, men lad os da håbe NV40 rykker så der er forsat
konkurence til gavn for forbrugere.

Mvh

Bruno


Olesen (01-10-2003)
Kommentar
Fra : Olesen


Dato : 01-10-03 18:35


"iddqdATworldonline.dk" <iddqd@worldonline.dk> skrev i en meddelelse
news:bleuso$2lp6$1@news.cybercity.dk...
> Olesen wrote:
>
> > Eller også fordi ATI ikke har gjort den ordentlig færdig.
> >
> Ikke forstået. 9800XT er ikke officielt på markedet endnu og driverne
> med supporten for dynamisk overclocking er derfor heller ikke klar, hvis
> det er hvad du referer til som at noget ikke er ordentlig færdigt kan
> jeg ikke se det odiøse i.

Det odiøse ku' så være, at 9800XT af ATI selv, blir' lanceret
som værende extrem overclocking-venlig, og så vælger
man at frigive boardet til test overalt, uden at medlevere
den driver, som virkelig sku' få boardet til at vise sig
fra sin bedste side. Ikke just noget jeg ku forestille mig
var velset fra ATI's vanvittige markedsføringsafdeling..

>
>
> > Jeg har læst ca. 10 tests af kortet, og de fleste
> > steder nævnes, at årsagen til 2 kølere er
> > "overdrive" funktionen i Catalyst 3.8 driveren,
> > så endnu mere køling er nødvendigt.
> > En standard 9800XT måles til ca. 60 grader
> > i ikke-tunet trim, og det er meget.
>
> Forøvrigt gik min kommentar ikke på ATI, men på din
> udtalelse om kommende Nvidia hardware som du bekvemt har fjernet. Når du
> citerer så citer venligst hele sætninger!

Hvad undgik jeg helt præcist ?

>
> > Korrekt, men øget frekvens er lig øget varme, og
> > da 9800XT siges at blive ganske lun, så kan der
> > måske være en forklaring på, frekvensen ikke
> > er øget yderligere.
> >
> Jeg har blot kommenteret det at Nvidia's 500
> Mhz bliver skrevet som om det automatisk er bedre end ATI's 4nn Mhz.

Det siger mig i hvert tilfælde, at Nvidia trods alt kan handle
de høje frekvenser til UG, hvilket ATI ikke formår endnu.
ATI siger iøvrigt selv, de lader den teknisk avancerede
0.13 teknik blive moden i de "billige" modeller, før de
siver OP i de dyreste. Stik modsat hvad branchen ellers
foretager sig. Alle tests og tekniske udlægninger viser også
tydeligt, at den velkendte kerne med 0.15 ikke kan presses mere,
så jeg er meget spændt på, når nørderne får fat i Catalyst 3.8
og begynder at presse den i forvejen hårdt pressede kerne yderligere...


> 9600 er designet senere. R360 er blot en R350 med minimale ændringer.
> Den slags ser man mange steder, kig bare i motorrummet på en stribe nye
> biler.

Årsagen er iflg. ATI selv, de ikke ser sig modne endnu til
at bruge den vanskelige 0.13 teknik i deres high-end kort.


> Præcis. 9800XT er en mellemversion eller en mellemgeneration om du vil.
> Spøjst at du det ene øjeblik mener ATI har nået toppen og så nu skriver
> om en kommende chip

Du tolker det således, at 9800XT ikke er deres topmodel pt.
Det kan jeg så sige den er.
Ved ikke, hvor vi gik forbi hinanden.

>
> > ..sådan sagde alle jo, indtil selveste Futuremark i en
> > pressemeddelelse skrev, at det ikke var snyd, men
> > optimeringer som mange havde benyttet sig af tidligere,
> > bla.ATI.
>
> LOL, der er nogle facts du ikke har styr på. Hvem tror du har råd til
> flest advokater Nvidia eller Futuremark.

Nu snakker du udenom og går over i ekstreme
vrangforestillinger. Hvis dêtte er tilfældet, så
vil vi høre om det om et par måneder.


> I øvrigt så havde ATI's optimeringen ikke form af noget der bygge på at
> der kun skulle vises et bestemt forløb, men derimod optimeringer af
> bregninger der gav sammen grafikresultat og ikke betød at man var
> begrænset til et bestemt forløb. For at bruge en analogi så bygge Nvidia
> et hus hvor der ikke var gulv i de værelser der ikke skulle vises frem,
> mens ATI blot fandt en smartere måde at lægge gulvene med samme
> slutresultat og i alle rummene.

Nvidia havde ikke adgang til
denne "developer edition" af 3dmark programmet,
da de ikke var en del af udviklingsteamet hos Futuremark på daværende
tidspunkt. Derfor KUNNE de ikke vide, at denne
"developer edition" kunne bringes til standsning,
og man derfra kunne stå stille og kikke rundt i scenariet.
Mao., så havde Nvidia programmeret eet forløb
i god tro, hvorimod ATI havde "agtindsigt" i en funktion,
som var Nvidia ukendt.
Iøvrigt kunne ATI i Quake 3 sætte
brugernes indstillinger overhørig, så driveren
valgte at neddrosle kvaliteten i visse texturer,
selvom brugeren eks. havde valgt MAX kvalitet.
Ergo. De har snydt kunderne bevidst.
Nvidia indrømmer i det mindste, de har problemer
i visse directX 9 ting med deres shaderteknik.


> > Iøvrigt var det ATI som var de første til at snyde i Q3.
> >
> Yep og det indrømmede de, mens Nvidia forøvrigt var hurtige til at sige
> de aldrig ville gøre sådan.

Nvidia har aldrig snydt.
De har optimeret deres drivere nøjagtig
som ATI selv har gjort.
Alle nørder valgte dog at tro på
rygterne, selvom Futuremark
konstaterede, der ikke var snyd
med i billedet.

>
> > Valve har indrømmet, der er uhensigtsmæssigheder
> > i DirectX 9. At Nvidia's PS2.0 teknik er en smule
> > anderledes er stærkt beklageligt, ja, men samtidig
> > har ATI's 9800Pro nogle funktioner indbygget,
> > som ikke er 'nævnt' i DirectX 9 standarden, men
> > som Valve benytter sig af alligevel.
>
> Valve er ikke de eneste som mener Nvidia's løsning er problematisk. Her
> er en lille mundsmag
>
>
http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/00
1.htm
>

Nvidias løsning ER problematisk, når der snakkes PS og directx 9.


> De har snydt. Faktisk er der tale om at deres drivere ignorer
> brugerens/programmets indstillinger og køre med lavere kvalitet. Hvis
> ikke det er synd, så kunne de også bare ignorere FSAA indstillinger og
> sige de havde optimeret. Forstår ikke hvordan du kan sige det ikke er
snyd.

Nøjagtig det samme som ATI gjorde (først) i Quake 3.

>
> > At Valve mig bekendt er de eneste
> > som bruger 5 x så lang tid på at skrive
> > kode til FX-serien, hvor andre ikke
> > har nævnt lign. problemer siger mere
> > om Valves evner end om FX kortenes
> > evt. mangler.
> >
> Så har du ikke kigget godt nok, og hvad egentlig med de mange andre Dx9
> programmer der også performer dårligt på Nvidia's hardware? Det må du da
> havde set i de 10 test du har læst af 9800XT.

Sjovt nok er forskellen i ydelsen, sammenlignet med
andre DX9 spil, meget stor i HL2, og mig bekendt
har ingen af de andre spilproducenter haft alvorlige
problemer med at tilpasse spillet til FX, kun konstateret,
at ydelsen er begrænset uden det har taget overdreven
lang tid at få det til at køre bare nogenlunde.


> Kig fx på denne.
>
> http://www20.tomshardware.com/graphic/20030930/index.html
>

Set. De skriver da også, hvilket passer fint til resten af FX seriens
svagheder i shaderperformance, at flere spil vil bruge tunge
shader-elementer
fremover, men samtidig siger linket intet om, at andre end Valve sku' ha'
brugt
extremt lang tid "bare for Nvidias skyld".
Måske fordi Valve er godt og grundigt i lommen på ATI, og dermed
er nødt til at få det til at se helt håbløst ud.
Valve har brugt megen tid, de andre mig bekendt ikke.


> > Det hænger jo særdeles godt sammen med, de netop har offentligjort,
> > de er i fuld gang med at lave en hel serie af GPU'er til både
dekstopper,
> > mobile og workstations, som benytter fordelen af den ekstra båndbredde
> > den nye PCI Express-bustype vil gøre brug af.
>
> Altså jeg nævner blot hvad Nvidia's CEO har givet udtryk for.
>
> http://www.legionhardware.com/html/doc.php?id=261&p=3


Hvis det var den hele sandhed, så burde de netop ikke
ha' en NV36,NV38,NV40 med i fremtidsplanerne.

Du kan også checke aktiviterne via deres press-room:
http://www.nvidia.com/page/press_releases.html


> Men jeg undrede mig også noget, det er nævnt på andre sider der
> rapporterede fra samme event så den må være god nok.
>

Men derfor blir' deres pressemateriale på deres
hjemmeside vil ikke mindre værd.


> > Så klart vi vil se Nvidia komme mærkbart tilbage igen,
> > først med NV38 ca. 10. oktober, og så med NV40 i 2004, som virkelig vil
> > sparke røv.
>
> NV38 tror jeg ikke på, men lad os da håbe NV40 rykker så der er forsat
> konkurence til gavn for forbrugere.

Jeg er ret overbevist om, at hvis ikke Radeion R420 vil sparke
godt og grundigt røv, forhåbentlig med 0.13 mikron (som kan øge
klokfrekvens mærbart), så vil vi seriøst igen se Nvidia som
den overlegne grafikkort producent.
De snakker allerede om 0.09 mikron teknologi, så ATI
skal virkelig løbe stærkt.
Nvidia vil forhåbentlig få styr på PS2.0/directx 9 emnet lang
tid før.



Michael Skarum (01-10-2003)
Kommentar
Fra : Michael Skarum


Dato : 01-10-03 19:00

> > Altså jeg nævner blot hvad Nvidia's CEO har givet udtryk for.
> >
> > http://www.legionhardware.com/html/doc.php?id=261&p=3
>
>
> Hvis det var den hele sandhed, så burde de netop ikke
> ha' en NV36,NV38,NV40 med i fremtidsplanerne.
>
> Du kan også checke aktiviterne via deres press-room:
> http://www.nvidia.com/page/press_releases.html

Fordi man ikke primært fokuserer på et område betyder det vel ikke
nødvendigvis at man slet ikke vil fokuserer på det!



Olesen (01-10-2003)
Kommentar
Fra : Olesen


Dato : 01-10-03 19:36


"Michael Skarum" <michael_sletmig@skarum.net> skrev i en meddelelse
news:3f7b15aa$0$97242$edfadb0f@dread12.news.tele.dk...
> > > Altså jeg nævner blot hvad Nvidia's CEO har givet udtryk for.
> > >
> > > http://www.legionhardware.com/html/doc.php?id=261&p=3

> Fordi man ikke primært fokuserer på et område betyder det vel ikke
> nødvendigvis at man slet ikke vil fokuserer på det!
>
>

Vil også tro, at Nvidia fortsat vil være den største
producent overhovedet af grafikchips, selvom
de skærer eks. 40%.:



iddqdATworldonline.d~ (01-10-2003)
Kommentar
Fra : iddqdATworldonline.d~


Dato : 01-10-03 22:51

Olesen wrote:

>>Forøvrigt gik min kommentar ikke på ATI, men på din
>>udtalelse om kommende Nvidia hardware som du bekvemt har fjernet. Når du
>>citerer så citer venligst hele sætninger!
>
>
> Hvad undgik jeg helt præcist ?
>
>
Suk, nu tager vi lige denne her helt for sig selv og så samleer jeg lige
fra de tidligere indlæg så det kan ses hvor kæden hoppede af.

Du skrev allerførst:

Konklusionen på alle de tests der florerer er, at 9800XT ikke
er et kvantespring på grafikkortområdet, og de alle med spænding
venter på, Catalyst 3.8 blir' frigivet. Flere testhold undrer sig også over,
hvorfor ATI smider et kort på markedet, uden dens max egenskaber
kommer til sin ret, vha. Catalyst 3.8 overclock-muligheden...De
ligefrem anbefaler en 9800Pro 256 mb kort istedet, da 9800XT
vil blive MEGET kostbar...måske endda dyrere end
Nvidias kommende NV38'er,-en overclocket 9800pro larmer mindre,
yder det samme til en meget lavere pris...


Hvoraf jeg så citerede og kommenterede:

> Nvidias kommende NV38'er,-en overclocket 9800pro larmer mindre,
> yder det samme til en meget lavere pris...
>
LOL, og det ved du fordi. Hold dig til facts og sluk for krystalkuglen.



Hvorefter du fulgte op med:

>>-en overclocket 9800pro larmer mindre,
>>> > yder det samme til en meget lavere pris...
>>> >
>
>> LOL, og det ved du fordi. Hold dig til facts og sluk for krystalkuglen.

Jeg har læst ca. 10 tests af kortet, og de fleste
steder nævnes, at årsagen til 2 kølere er
"overdrive" funktionen i Catalyst 3.8 driveren,
så endnu mere køling er nødvendigt.
En standard 9800XT måles til ca. 60 grader
i ikke-tunet trim, og det er meget.
Så vel ikke så sært, 2 kølere larmer
mere, men er nødvendigt efterhånden.
Hvis du skærer alle tests over een kam,
så vil du se de stort set er enige om,
at forbedringen iforhold til 9800Pro
er så minimal, man kommer langt
med en lettere oc'et 9800'er.


Hvilket så fik mig til bl.a. at påpege dit citat gav rod i den
oprindelige betydning. Hvilket igen gjorde at det du citerede mig for at
skrive fik en anden mening, altså venligt citer hele sætninger.

Mvh

Bruno


iddqdATworldonline.d~ (01-10-2003)
Kommentar
Fra : iddqdATworldonline.d~


Dato : 01-10-03 23:27

Olesen wrote:
> Det odiøse ku' så være, at 9800XT af ATI selv, blir' lanceret
> som værende extrem overclocking-venlig, og så vælger
> man at frigive boardet til test overalt, uden at medlevere
> den driver, som virkelig sku' få boardet til at vise sig
> fra sin bedste side. Ikke just noget jeg ku forestille mig
> var velset fra ATI's vanvittige markedsføringsafdeling..
>
Du har da ret i at det er usmart med features der mangler driver support
til, men jeg synes nu ikke det er nogen stor sag.


> Det siger mig i hvert tilfælde, at Nvidia trods alt kan handle
> de høje frekvenser til UG, hvilket ATI ikke formår endnu.

Hvilket jo er ligegyldigt når ATI's hardware laver mere per clock cycle,
det svarer lidt til at diskutere hestekræfter uden at huske at
drejningsmoment også har noget at sige.


> ATI siger iøvrigt selv, de lader den teknisk avancerede
> 0.13 teknik blive moden i de "billige" modeller, før de
> siver OP i de dyreste. Stik modsat hvad branchen ellers
> foretager sig.

Du mener stik imod hvad Nvidia foretager sig, og hvem var det så lige
der blev et ½ år forsinket. Ligegyldig hvad så synes jeg det er en ret
akademisk diskussion, det som betyder noget er performance, pris,
features, behov for køling og så videre ikke om der bruges den ene eller
den anden teknik i produktionen.


> Alle tests og tekniske udlægninger viser også
> tydeligt, at den velkendte kerne med 0.15 ikke kan presses mere,
> så jeg er meget spændt på, når nørderne får fat i Catalyst 3.8
> og begynder at presse den i forvejen hårdt pressede kerne yderligere...
>
De kan givet ikke opnå meget, men det er jo ikke anderledes end med
Nvidas Ultra kort der traditionelt er kommet ½ år efter hovedproduktet
blev lanceret. Præcis ligesom 9800 Pro og så nu 9800 XT.


> Årsagen er iflg. ATI selv, de ikke ser sig modne endnu til
> at bruge den vanskelige 0.13 teknik i deres high-end kort.
>
Det skal nok passe, der er jo som bekendt problemer med at opnå høje
yields i 0.13 og desto flere transistore på en chip jo større er
problemet må man formode. Derfor starter man med de små.


>
>
>>Præcis. 9800XT er en mellemversion eller en mellemgeneration om du vil.
>>Spøjst at du det ene øjeblik mener ATI har nået toppen og så nu skriver
>>om en kommende chip
>
>
> Du tolker det således, at 9800XT ikke er deres topmodel pt.

Nej jeg tolker det ikke sådan. Det jeg siger er at der er tale om et
mellem generationsprodukt, en lille opdatering, en halvårs opdatering,
slutningen af en produkt cyklus... faktisk tror jeg vi er enige hvis vi
ser bort fra dit oprindelige indlæg hvor du skrev som om at ATI aldrig
ville kunne lave noget bedre.


> Nu snakker du udenom og går over i ekstreme
> vrangforestillinger. Hvis dêtte er tilfældet, så
> vil vi høre om det om et par måneder.
>
Nej jeg gør ikke. Futuremark sagde først det var snyd, og efter at
Nvidia så havde truet med bål og brand ændrede de retorik.


> Nvidia havde ikke adgang til
> denne "developer edition" af 3dmark programmet,
> da de ikke var en del af udviklingsteamet hos Futuremark på daværende
> tidspunkt.

Nej, de trak sig 1 måned før 3Dmark 2003 blev klar. I noget der bagefter
let kan opfattes som værende i protest over at testen fik deres kort til
at se dårlige ud. Faktisk gik de ud med udtalelser om at man ikke kunne
bruge syntetiske benchmarks til noget, på trods af at de var meget glade
for 2001 versionen. Jeg synes ikke det er svært at se hvorfor.


Derfor KUNNE de ikke vide, at denne
> "developer edition" kunne bringes til standsning,
> og man derfra kunne stå stille og kikke rundt i scenariet.
> Mao., så havde Nvidia programmeret eet forløb
> i god tro, hvorimod ATI havde "agtindsigt" i en funktion,
> som var Nvidia ukendt.

Ingen tvivl om at hvis Nvidia havde vidst de ville blive snuppet så
havde de ikke gjort sådan, men hele pointen er jo at Nvidia's optimering
netop udnyttede at der var tale om en syntetisk benchmark mens ATI
lavede en type optimeringer der ville havd givet en reel forbedring også
i et spil.




> Iøvrigt kunne ATI i Quake 3 sætte
> brugernes indstillinger overhørig, så driveren
> valgte at neddrosle kvaliteten i visse texturer,
> selvom brugeren eks. havde valgt MAX kvalitet.

Præcis, og det fik de tæv for og det er snart længe siden. Og dengang
var Nvidia så ude og love at de ville aldrig lave specifike
optimeringer, og satte sig i det hele taget på den høje hest.


> Ergo. De har snydt kunderne bevidst.

Ja, og de har sagt undskyld.


> Nvidia indrømmer i det mindste, de har problemer
> i visse directX 9 ting med deres shaderteknik.
>
LOL, de kalder det fejltagelser og bruger masser af undskyldninger i
stedet for at indrømme de har snydt.

> Nvidia har aldrig snydt.

Nåh nej, de har lavet optimeringer der ignorer brugernes indstillinger
for at få højere framerate på bekostning af billedkvalitet. Hvad kalder
du det andet end snyd?


> De har optimeret deres drivere nøjagtig
> som ATI selv har gjort.

Nej, de har ikke. ATI snød tilbage med Q3 da Radeon8500 kom ud, siden
har Nvidia lavet en hel række af beskidte tricks og er også begyndt at
snyde.

En hurtig liste:

- Løgne historierne om PowerVR dengang Kyro2 kom ud.
- Prægenereret HSR i 3DMark2003
- Ignorering af kvalitets indstillinger i bl.a. UT2003.
- Kreativ navngivning af Gf4MX der burde havde heddet gf2+
- Kreativ navngivning af gf2mx der burde havde heddet gf256minus
- Tilbageholdelse af drivere indtil frigivelse kunne bruges til at
stjæle presse fra ATI i forbindelse med Radeon8500 lanceringen.



> Alle nørder valgte dog at tro på
> rygterne, selvom Futuremark
> konstaterede, der ikke var snyd
> med i billedet.
>
Kan kun opfordre dig til at læse noget mere om hele misseren, og helst
et andet sted end bare i Nvidia's pressematriale.


> Nvidias løsning ER problematisk, når der snakkes PS og directx 9.
>
Jamen det er jo det jeg har sagt hele tiden.



> Nøjagtig det samme som ATI gjorde (først) i Quake 3.
>
Og det er så 3+ år siden, se yderligere ovenfor.


> Sjovt nok er forskellen i ydelsen, sammenlignet med
> andre DX9 spil, meget stor i HL2, og mig bekendt
> har ingen af de andre spilproducenter haft alvorlige
> problemer med at tilpasse spillet til FX, kun konstateret,
> at ydelsen er begrænset uden det har taget overdreven
> lang tid at få det til at køre bare nogenlunde.
>
Og du synes ikke det er problematisk at ydelsen stinker?

Samtidig er der Dx8 spil hvor Nvidia også har store problemer når man
piller de billedkvalitetsforringende optimeringer ud, se bare på UT2003
med fuld kvalitet. Her måler fx. Toms Hardware et 9700 Pro til at være
hurtigere end FX 5900 Ultra og et 9800 XT til at være næsten 50% hurtigere.


> Set. De skriver da også, hvilket passer fint til resten af FX seriens
> svagheder i shaderperformance, at flere spil vil bruge tunge
> shader-elementer
> fremover, men samtidig siger linket intet om, at andre end Valve sku' ha'
> brugt
> extremt lang tid "bare for Nvidias skyld".
> Måske fordi Valve er godt og grundigt i lommen på ATI, og dermed
> er nødt til at få det til at se helt håbløst ud.
> Valve har brugt megen tid, de andre mig bekendt ikke.
>
Altså for mig og se er det ligegyldigt om Valve har brugt lidt eller
meget tid, det som betyder noget for andre en spiludviklere er hvad er
kommer ud af det. Bemærk forøvrigt at Nvidia sponsorerede bl.a. UT2003,
men det har altså ikke ændret på at deres performance ikke er
imponerende med fuld kvalitet.


> Hvis det var den hele sandhed, så burde de netop ikke
> ha' en NV36,NV38,NV40 med i fremtidsplanerne.
>
Altså hvem har sagt noget om at Nvidia ville droppe grafikkort, de har
bare meldt ud det ikke er hovedområde længere,


>>NV38 tror jeg ikke på, men lad os da håbe NV40 rykker så der er forsat
>>konkurence til gavn for forbrugere.
>
>
> Jeg er ret overbevist om, at hvis ikke Radeion R420 vil sparke
> godt og grundigt røv, forhåbentlig med 0.13 mikron (som kan øge
> klokfrekvens mærbart), så vil vi seriøst igen se Nvidia som
> den overlegne grafikkort producent.

Det vil vise sig.


> De snakker allerede om 0.09 mikron teknologi, så ATI
> skal virkelig løbe stærkt.
> Nvidia vil forhåbentlig få styr på PS2.0/directx 9 emnet lang
> tid før.
>
Det må man da håbe, ligesom som man må håbe de kan finde ud af at få
tingene produceret.

mvh

Bruno


Lars Jørgensen (02-10-2003)
Kommentar
Fra : Lars Jørgensen


Dato : 02-10-03 07:24

On Thu, 02 Oct 2003 00:26:30 +0200, iddqdATworldonline.dk wrote:

> Olesen wrote:
>> Det odiøse ku' så være, at 9800XT af ATI selv, blir' lanceret
>> som værende extrem overclocking-venlig, og så vælger
>> man at frigive boardet til test overalt, uden at medlevere
>> den driver, som virkelig sku' få boardet til at vise sig
>> fra sin bedste side. Ikke just noget jeg ku forestille mig
>> var velset fra ATI's vanvittige markedsføringsafdeling..
>>
> Du har da ret i at det er usmart med features der mangler driver support
> til, men jeg synes nu ikke det er nogen stor sag.

Sådan er det jo tit med hardware. Softwareopdateringerne ta'r tid og er
ikke lige til at hælde ud af ærmerne, men det bliver selvfølgelig bedre hen
af vejen.
At kalde ATIs markedsføringsafdeling vanvittig på den baggrund er, efter
min mening, noget ved siden af. Hvor meget har ATI overhovedet markedsført
noget endnu? Der står ikke meget om 9800XT på deres hjemmeside endnu. Det
meste information kommer fra fra reviews fra forskellige
spil-/hardwaresider. Måske er de vanvittige

>>>Præcis. 9800XT er en mellemversion eller en mellemgeneration om du vil.
>>>Spøjst at du det ene øjeblik mener ATI har nået toppen og så nu skriver
>>>om en kommende chip
>>
>> Du tolker det således, at 9800XT ikke er deres topmodel pt.
>
> Nej jeg tolker det ikke sådan. Det jeg siger er at der er tale om et
> mellem generationsprodukt, en lille opdatering, en halvårs opdatering,
> slutningen af en produkt cyklus...

Ja, nemlig. Det er vel lidt som fx. Nvidias 8xAGP versioner af GF4. De blev
da også slået stort op... uden at de egentlig kunne noget specielt.

>> Nvidia har aldrig snydt.
>
> Nåh nej, de har lavet optimeringer der ignorer brugernes indstillinger
> for at få højere framerate på bekostning af billedkvalitet. Hvad kalder
> du det andet end snyd?

Hehe... det her er morsom læsning

[snip]
> siden
> har Nvidia lavet en hel række af beskidte tricks og er også begyndt at
> snyde.
>
[snip]
> - Kreativ navngivning...

Det vil jeg ikke kalde snyd. Det er vel bare uigennemsigtig navngivning.
ATI har da vist lavet noget lidt lignende. Set fra forbrugernes synspunkt
er det ikke så pænt. De der ikke interesserer sige bare en smule for det
tekniske køber let "katten i sækken"....okay, så er de vel blevet snydt.
Fra firmaernes side er det smart så længe folk køber.

>> Måske fordi Valve er godt og grundigt i lommen på ATI, og dermed
>> er nødt til at få det til at se helt håbløst ud.

Valve sælger spil... ikke hardware. Selvfølgelig vil de gerne sælge til
alle dem der sidder med GFFX kort.

> Bemærk forøvrigt at Nvidia sponsorerede bl.a. UT2003,
> men det har altså ikke ændret på at deres performance ikke er
> imponerende med fuld kvalitet.

"GeForce FX: The way it's meant to be played"

>> Jeg er ret overbevist om, at hvis ikke Radeion R420 vil sparke
>> godt og grundigt røv, forhåbentlig med 0.13 mikron (som kan øge
>> klokfrekvens mærbart), så vil vi seriøst igen se Nvidia som
>> den overlegne grafikkort producent.
>
> Det vil vise sig.

Overlegne? Generelt ligger de to firmaer da nogenlunde side om side, når
det gælger teknologi.

--
Lars

Anders Albrechtsen (02-10-2003)
Kommentar
Fra : Anders Albrechtsen


Dato : 02-10-03 17:20


"Lars Jørgensen" <fake@email.invalid> wrote in message
news:1ge2vc06z85bb.1gpq03uf46kza$.dlg@40tude.net...

(...)

> >> Måske fordi Valve er godt og grundigt i lommen på ATI, og dermed
> >> er nødt til at få det til at se helt håbløst ud.
>
> Valve sælger spil... ikke hardware. Selvfølgelig vil de gerne sælge til
> alle dem der sidder med GFFX kort.

Lige præcis. Påstanden om, at Valve skulle være i lommen på ATI vidner om en
utrolig mangel på indsigt i de mest basale mekanismer på spil- og
grafikkortsmarkedet. Valve har ingen interesse i at favorisere ATI, snarere
tværtimod. Det er et faktum, at der er langt flere ejere af nVidia-kort,
hvilket Valve er nødt til at tage i betragtning, hvis de vil sælge spil. Det
er også derfor, at de har brugt 5 gange lang tid på at optimere Halflife 2
for nVidia's NV3x baserede grafikkort. Hvis ikke det kører ordentligt, vil
de givet sælge færre spil.

> > Bemærk forøvrigt at Nvidia sponsorerede bl.a. UT2003,
> > men det har altså ikke ændret på at deres performance ikke er
> > imponerende med fuld kvalitet.
>
> "GeForce FX: The way it's meant to be played"

Det er vost efterhånden et noget hult slogan
---
Mvh
Anders



Olesen (02-10-2003)
Kommentar
Fra : Olesen


Dato : 02-10-03 18:38


"Lars Jørgensen" <fake@email.invalid> skrev i en meddelelse
news:1ge2vc06z85bb.1gpq03uf46kza$.dlg@40tude.net...

> Overlegne? Generelt ligger de to firmaer da nogenlunde side om side, når
> det gælger teknologi.


Ikke helt.
Nvidia kører 0.13 for fuld damp, snakker 0.09.
ATI kører 0.13 i deres mid-range modeller,
da de ikke mener, de er modne til 0.13
i de dyreste kort. Måske derfor, 9800XT har
begrænset GPU-frekvens i forhold til 9800pro, nemmelig
sølle 98 megahertz.



Olesen (02-10-2003)
Kommentar
Fra : Olesen


Dato : 02-10-03 18:36


"iddqdATworldonline.dk" <iddqd@worldonline.dk> skrev i en meddelelse
news:blfkam$jru$1@news.cybercity.dk...

> Du har da ret i at det er usmart med features der mangler driver support
> til, men jeg synes nu ikke det er nogen stor sag.

Nej, for det er jo et ATI, right ?

>
> > Det siger mig i hvert tilfælde, at Nvidia trods alt kan handle
> > de høje frekvenser til UG, hvilket ATI ikke formår endnu.
>
> Hvilket jo er ligegyldigt når ATI's hardware laver mere per clock cycle,
> det svarer lidt til at diskutere hestekræfter uden at huske at
> drejningsmoment også har noget at sige.

Nøjagtig som en motorcykel har vanvittig meget brug for NM ?
-men ok, ved godt hvor du vil hen.

> Ligegyldig hvad så synes jeg det er en ret
> akademisk diskussion, det som betyder noget er performance, pris,
> features, behov for køling og så videre ikke om der bruges den ene eller
> den anden teknik i produktionen.

Hvad gør ATI så, når de ikke kan presse mere ud af 0.15 ?
Er detbatten så ikke pludselig ganske relevant ?

>
> > Årsagen er iflg. ATI selv, de ikke ser sig modne endnu til
> > at bruge den vanskelige 0.13 teknik i deres high-end kort.
> >
> Det skal nok passe, der er jo som bekendt problemer med at opnå høje
> yields i 0.13 og desto flere transistore på en chip jo større er
> problemet må man formode. Derfor starter man med de små.
>
Fornuftigt nok, men mig bekendt er det samme firma, TSMC,
som står bag 0.13 teknikken hos både ATI og Nvidia.
Hvorfor mon ATI er ræd for at springe på samme vogn ??


> > Nu snakker du udenom og går over i ekstreme
> > vrangforestillinger. Hvis dêtte er tilfældet, så
> > vil vi høre om det om et par måneder.
> >
> Nej jeg gør ikke. Futuremark sagde først det var snyd, og efter at
> Nvidia så havde truet med bål og brand ændrede de retorik.

Hvor har du fået dêt fra, at Nvidia ligefrem har truet Futuremark ?
Mig bekendt var Nvidia ikke en del af Futuremark-teamet
da "det kom frem", og Futuremark derved næppe kunne
ha' løbet den store risiko ?



> > Nvidia har aldrig snydt.
>
> Nåh nej, de har lavet optimeringer der ignorer brugernes indstillinger
> for at få højere framerate på bekostning af billedkvalitet. Hvad kalder
> du det andet end snyd?

Det var nøjagtig dêt ATI gjorde med Quake 3.
Det blev bare opdaget.
I alle tests har Nvidia ikke lagt skjul på,
der er foretaget optimeringer, hvor det ikke
betyder noget for spiloplevelsen.
Bare se sammenligningerne af de forskellige
Dettonatordrivere. Alle kort er vist og lagt på bordet.


> En hurtig liste:
>
> - Løgne historierne om PowerVR dengang Kyro2 kom ud.

Hvad gik dêt ud på ? (har ikke set eller hørt om dêt).

> - Prægenereret HSR i 3DMark2003

Betyder at,...

> - Kreativ navngivning af Gf4MX der burde havde heddet gf2+

Kreativitet er det samme som snyd ? Evt. et link til din påstand ?

> - Kreativ navngivning af gf2mx der burde havde heddet gf256minus

hehe..??

> - Tilbageholdelse af drivere indtil frigivelse kunne bruges til at
> - stjæle presse fra ATI i forbindelse med Radeon8500 lanceringen.

Hvor kan jeg læse om dêt ?
Det lyder lidt som en hel sæt ænder,
der blev søsat på samme tid, og som
folk har husket pga. rygterne.

>
>
> > Alle nørder valgte dog at tro på
> > rygterne, selvom Futuremark
> > konstaterede, der ikke var snyd
> > med i billedet.
> >
> Kan kun opfordre dig til at læse noget mere om hele misseren, og helst
> et andet sted end bare i Nvidia's pressematriale.

Bundlinjen og summen af alt vrøvl blev vel foretaget af Futuremark selv,
uanset hvad folk ellers mener Nvidia har truet med ?


>
> > Nvidias løsning ER problematisk, når der snakkes PS og directx 9.
> >
> Jamen det er jo det jeg har sagt hele tiden.

...det har jeg vel også.

>
>
> > Nøjagtig det samme som ATI gjorde (først) i Quake 3.
> >
> Og det er så 3+ år siden, se yderligere ovenfor.

Huskes endnu.


>
> > Sjovt nok er forskellen i ydelsen, sammenlignet med
> > andre DX9 spil, meget stor i HL2, og mig bekendt
> > har ingen af de andre spilproducenter haft alvorlige
> > problemer med at tilpasse spillet til FX, kun konstateret,
> > at ydelsen er begrænset uden det har taget overdreven
> > lang tid at få det til at køre bare nogenlunde.
> >
> Og du synes ikke det er problematisk at ydelsen stinker?

Jeg synes det stinker, Valve har gjort et stort nummer
ud af at fortælle omverdenen, at de har brugt 5x så lang
tid på noget, andre firmaer kan "klare i en håndevending",
eller ikke engang har gidet nævne.


> > Hvis det var den hele sandhed, så burde de netop ikke
> > ha' en NV36,NV38,NV40 med i fremtidsplanerne.
> >
> Altså hvem har sagt noget om at Nvidia ville droppe grafikkort, de har
> bare meldt ud det ikke er hovedområde længere,

...men dette skyts får det til at se ud som om, Nvidia
har opgivet kampen om at være det bedste. Tydeligt, ikke ?


>
> >>NV38 tror jeg ikke på, men lad os da håbe NV40 rykker så der er forsat
> >>konkurence til gavn for forbrugere.

Ser ud til, PS2 stadig vil spøge, ja, men seneste test
synes jeg ser ok ud, når man tænker på liget i lasten,
sammenlignet med 9800XT...


> > De snakker allerede om 0.09 mikron teknologi, så ATI
> > skal virkelig løbe stærkt.
> > Nvidia vil forhåbentlig få styr på PS2.0/directx 9 emnet lang
> > tid før.
> >
> Det må man da håbe, ligesom som man må håbe de kan finde ud af at få
> tingene produceret.
>

...som de vel i stor stil får gjort på samme fabrik som ATI,
hos TSMC.



iddqdATworldonline.d~ (02-10-2003)
Kommentar
Fra : iddqdATworldonline.d~


Dato : 02-10-03 19:54

Olesen wrote:
> Nej, for det er jo et ATI, right ?
>
Altså hallo, det er jo ikke fordi man ikke kan overclocke uden den nye
driver.

> Hvad gør ATI så, når de ikke kan presse mere ud af 0.15 ?

Det er vist kun ATI selv der ved hvor længe de kan få mere ud af 0.15.


> Er detbatten så ikke pludselig ganske relevant ?
>
Hvis man er chipproducent måske, men for os andre så er det resultaterne
som tæller ikke hvordan de opnås.



> Fornuftigt nok, men mig bekendt er det samme firma, TSMC,
> som står bag 0.13 teknikken hos både ATI og Nvidia.
> Hvorfor mon ATI er ræd for at springe på samme vogn ??
>
Som nævnt er der vel problemer med lave yields ved 0.13 når der skal
laves chips med mange transistorer, jeg ser det som om at de skifter når
det giver mening og ikke bare for at havde noget at skrive på æsken.


> Hvor har du fået dêt fra, at Nvidia ligefrem har truet Futuremark ?

Jeg gider altså ikke lave research for dig bare fordi du ikke fulgte med
da det stod på, check på nettet så vil du se hvad Futuremark sagde først
og hvad Nvidia så sagde osv.


> Mig bekendt var Nvidia ikke en del af Futuremark-teamet
> da "det kom frem", og Futuremark derved næppe kunne
> ha' løbet den store risiko ?
>
Det kan vil ikke havde undgået din opmærksomhed hvor glade de er for
sagsanlæg i US, der er trods alt flere advokater end ingeniører derovre.



>
>
>
>>>Nvidia har aldrig snydt.
>>
>>Nåh nej, de har lavet optimeringer der ignorer brugernes indstillinger
>>for at få højere framerate på bekostning af billedkvalitet. Hvad kalder
>>du det andet end snyd?
>
>
> Det var nøjagtig dêt ATI gjorde med Quake 3.
> Det blev bare opdaget.

Det har vi vist behandlet mange gange allerede, og som bekendt har de
sagt undskyld hvorefter Nvidia sagde de ville aldrig gøre noget sådan og
nu er Nvidia så blevet snuppet i en hel række ting.



> I alle tests har Nvidia ikke lagt skjul på,

Jo de har. Lav dog lidt research.


> der er foretaget optimeringer, hvor det ikke
> betyder noget for spiloplevelsen.

Og hvordan kan forringet grafik ikke betyde noget for spiloplevelsen?



>>- Løgne historierne om PowerVR dengang Kyro2 kom ud.
>
>
> Hvad gik dêt ud på ? (har ikke set eller hørt om dêt).
>
Nvidia lavede nogle slides til at påvirke resellers med, og som påstod
diverse problemer med fejl osv. der var helt uden grundlag.



>
>>- Prægenereret HSR i 3DMark2003
>
>
> Betyder at,...
>
Slå det op, vi har diskuteret 3DMark2003 en hel del og du ved ikke
engang hvad de havde lavet og så siger du det ikke var snyd


> Kreativitet er det samme som snyd ? Evt. et link til din påstand ?
>
Nej, og jeg angav også at jeg listede beskidte tricks.



>
>>- Kreativ navngivning af gf2mx der burde havde heddet gf256minus
>
>
> hehe..??
>
gf2mx yde lidt dårligere end gf256, de var blot billigere at producere
og folk der ikke var super orienteret troede det var bedre.


> Hvor kan jeg læse om dêt ?
> Det lyder lidt som en hel sæt ænder,
> der blev søsat på samme tid, og som
> folk har husket pga. rygterne.
>
Lav dog lidt research.


> Bundlinjen og summen af alt vrøvl blev vel foretaget af Futuremark selv,
> uanset hvad folk ellers mener Nvidia har truet med ?
>

Øh, ikke forstået.

>
> ..det har jeg vel også.
>
Ikke at det har hindret dig i at mene Nvidia's næste kort vil være bedre
end ATI's nuværende.


> Huskes endnu.
>
Helt fint, men det har jo ikke noget at sige for hvad de laver i dag.


> Jeg synes det stinker, Valve har gjort et stort nummer
> ud af at fortælle omverdenen, at de har brugt 5x så lang
> tid på noget, andre firmaer kan "klare i en håndevending",
> eller ikke engang har gidet nævne.
>
Hmm, for mig at se så har de andre firmaer valgt at leve med Nvidia's
dårlige performance mens Valve altså har kæmpet.


> ..men dette skyts får det til at se ud som om, Nvidia
> har opgivet kampen om at være det bedste. Tydeligt, ikke ?
>
Dine ord ikke mine.

EOD

Bruno


Olesen (03-10-2003)
Kommentar
Fra : Olesen


Dato : 03-10-03 16:39


"iddqdATworldonline.dk" <iddqd@worldonline.dk> skrev i en meddelelse
news:blhs90$lmb$2@news.cybercity.dk...

> Det er vist kun ATI selv der ved hvor længe de kan få mere ud af 0.15.
>
...og derved kun booster det nyeste kort med 32 mhz ?
De fleste tests indikerer, at 0.15 grænsen ER nået.


> > Fornuftigt nok, men mig bekendt er det samme firma, TSMC,
> > som står bag 0.13 teknikken hos både ATI og Nvidia.
> > Hvorfor mon ATI er ræd for at springe på samme vogn ??
> >
> Som nævnt er der vel problemer med lave yields ved 0.13 når der skal
> laves chips med mange transistorer, jeg ser det som om at de skifter når
> det giver mening og ikke bare for at havde noget at skrive på æsken.

Problemet har være til stede, men teknikken "'low-k dieletric' "
muliggør brugen af 0.13 uden problemer. Nvidia brugte dog 0.13 teknikken
FØR "'low-k dieletric' " blev standard-teknik, de turde åbenbart godt,
og årsagen til udskydelsen af FX serien var netop bla. dêrfor..






Bernhard Ege (03-10-2003)
Kommentar
Fra : Bernhard Ege


Dato : 03-10-03 18:46


"Olesen" <olesen@jubiipost.dk> wrote in message
news:3f7d9826$0$32463$edfadb0f@dread16.news.tele.dk...
>
> "iddqdATworldonline.dk" <iddqd@worldonline.dk> skrev i en meddelelse
> news:blhs90$lmb$2@news.cybercity.dk...
>
> > Det er vist kun ATI selv der ved hvor længe de kan få mere ud af
0.15.
> >
> ..og derved kun booster det nyeste kort med 32 mhz ?
> De fleste tests indikerer, at 0.15 grænsen ER nået.

Ved at parallelisere kan 0.15 bruges i lang tid endnu. Ulempen er at man
ikke får så mange transistorer per kvadrat-mm som ved 0.13 eller lavere
og at varmeudviklingen er højere. MHz (ikke mhz) er ikke ensbetydende
med ydelse (se f.eks. cpuer fra AMD og Intel).

> > > Fornuftigt nok, men mig bekendt er det samme firma, TSMC,
> > > som står bag 0.13 teknikken hos både ATI og Nvidia.
> > > Hvorfor mon ATI er ræd for at springe på samme vogn ??
> > >
> > Som nævnt er der vel problemer med lave yields ved 0.13 når der skal
> > laves chips med mange transistorer, jeg ser det som om at de skifter
når
> > det giver mening og ikke bare for at havde noget at skrive på æsken.
>
> Problemet har være til stede, men teknikken "'low-k dieletric' "
> muliggør brugen af 0.13 uden problemer. Nvidia brugte dog 0.13
teknikken
> FØR "'low-k dieletric' " blev standard-teknik, de turde åbenbart godt,
> og årsagen til udskydelsen af FX serien var netop bla. dêrfor..

Pff, nVidia bruger 0.13 fordi de er nød til det (bedre økonomi). Deres
geforce5900 ville jo brænde af eller skulle bruge en køler som larmer
som en støvsuger (eller som koster ad h... til) hvis de brugte 0.15

mvh Bernhard


/morten (01-10-2003)
Kommentar
Fra : /morten


Dato : 01-10-03 21:09

> At Valve mig bekendt er de eneste
> som bruger 5 x så lang tid på at skrive
> kode til FX-serien, hvor andre ikke
> har nævnt lign. problemer siger mere
> om Valves evner end om FX kortenes
> evt. mangler.
>

Hold da op du må da være danmarks sejeste kodekarl siden du er i stand
til at udtale dig om Valves evner udi softwareudvikling ?

helt utroligt altså !

/morten



Olesen (02-10-2003)
Kommentar
Fra : Olesen


Dato : 02-10-03 17:42


"/morten" <molsson_spammer@vip.cybercity.dk> skrev i en meddelelse
news:blfc6p$82v$1@news.cybercity.dk...
> > At Valve mig bekendt er de eneste
> > som bruger 5 x så lang tid på at skrive
> > kode til FX-serien, hvor andre ikke
> > har nævnt lign. problemer siger mere
> > om Valves evner end om FX kortenes
> > evt. mangler.
> >
>
> Hold da op du må da være danmarks sejeste kodekarl siden du er i stand
> til at udtale dig om Valves evner udi softwareudvikling ?


Har du hørt om lign. tilfælde andre steder ?



/morten (02-10-2003)
Kommentar
Fra : /morten


Dato : 02-10-03 18:42


"Olesen" <olesen@jubiipost.dk> wrote in message
news:3f7c556c$0$32483$edfadb0f@dread16.news.tele.dk...
>
> "/morten" <molsson_spammer@vip.cybercity.dk> skrev i en meddelelse
> news:blfc6p$82v$1@news.cybercity.dk...
> > > At Valve mig bekendt er de eneste
> > > som bruger 5 x så lang tid på at skrive
> > > kode til FX-serien, hvor andre ikke
> > > har nævnt lign. problemer siger mere
> > > om Valves evner end om FX kortenes
> > > evt. mangler.
> > >
> >
> > Hold da op du må da være danmarks sejeste kodekarl siden du er i stand
> > til at udtale dig om Valves evner udi softwareudvikling ?
>
>
> Har du hørt om lign. tilfælde andre steder ?
>

Jeg forstår ikke dit spørgsmål ?

/morten



Olesen (02-10-2003)
Kommentar
Fra : Olesen


Dato : 02-10-03 18:49


"/morten" <molsson_spammer@vip.cybercity.dk> skrev i en meddelelse
news:blho0g$fal$1@news.cybercity.dk...
>
> "Olesen" <olesen@jubiipost.dk> wrote in message

> > Har du hørt om lign. tilfælde andre steder ?
> >
>
> Jeg forstår ikke dit spørgsmål ?


Så er det heller ikke nemt at svare..)

Jeg mener blot, at hvis det har været så vanskeligt
for Valve at få HL2 til at køre på FX, så er det sært,
andre spiludviklere ikke har nævnt et kvidr om vanskeligheden
ved udviklingen af deres spil.

-men måske jeg bare har overset/hørt det.



/morten (02-10-2003)
Kommentar
Fra : /morten


Dato : 02-10-03 19:00


"Olesen" <olesen@jubiipost.dk> wrote in message
news:3f7c6527$0$32435$edfadb0f@dread16.news.tele.dk...
>
> "/morten" <molsson_spammer@vip.cybercity.dk> skrev i en meddelelse
> news:blho0g$fal$1@news.cybercity.dk...
> >
> > "Olesen" <olesen@jubiipost.dk> wrote in message
>
> > > Har du hørt om lign. tilfælde andre steder ?
> > >
> >
> > Jeg forstår ikke dit spørgsmål ?
>
>
> Så er det heller ikke nemt at svare..)
>
> Jeg mener blot, at hvis det har været så vanskeligt
> for Valve at få HL2 til at køre på FX, så er det sært,
> andre spiludviklere ikke har nævnt et kvidr om vanskeligheden
> ved udviklingen af deres spil.
>
> -men måske jeg bare har overset/hørt det.
>

Tja - HL2 ser ud til at blive en af de titler der rykker grænsen for
hvad man har set af grafik, lyd a.i. m.m. - den tanke har jeg svært
ved at forene med ideen om, at Valve skulle have inkompetente udviklere...

Nu er der måske heller ikke særlige mange udviklere der har seriøse
DX9-titler der er så langt hende i udviklingsforløbet, at det giver mening
at begynde at lave performancesammenlingninger for diverse kort...

/morten



Olesen (02-10-2003)
Kommentar
Fra : Olesen


Dato : 02-10-03 19:34


"/morten" <molsson_spammer@vip.cybercity.dk> skrev i en meddelelse
news:blhp11$grb$1@news.cybercity.dk...

> Tja - HL2 ser ud til at blive en af de titler der rykker grænsen for
> hvad man har set af grafik, lyd a.i. m.m. - den tanke har jeg svært
> ved at forene med ideen om, at Valve skulle have inkompetente udviklere...

Ja, lyder sært, det hele...men 5 år, så har de jo også
haft tiden til det...


> Nu er der måske heller ikke særlige mange udviklere der har seriøse
> DX9-titler der er så langt hende i udviklingsforløbet, at det giver mening
> at begynde at lave performancesammenlingninger for diverse kort...


Mener Doom 3 blir' et hit for FX kort, da OpenGL er eet
af Nvidias helt stærke sider..men er ikke helt inde i dên sag.



iddqdATworldonline.d~ (02-10-2003)
Kommentar
Fra : iddqdATworldonline.d~


Dato : 02-10-03 21:34

Olesen wrote:
> Mener Doom 3 blir' et hit for FX kort, da OpenGL er eet
> af Nvidias helt stærke sider..men er ikke helt inde i dên sag.
>
Tror det bliver ok, men ikke mere end det.

http://english.bonusweb.cz/interviews/carmackgfx.html

Se forøvrigt også testen af NV38 på www.anandtech.com

Mvh

Bruno


Morten Holberg Niels~ (02-10-2003)
Kommentar
Fra : Morten Holberg Niels~


Dato : 02-10-03 19:11


"Olesen" <olesen@jubiipost.dk> skrev i en meddelelse
news:3f7c6527$0$32435$edfadb0f@dread16.news.tele.dk...
>
> "/morten" <molsson_spammer@vip.cybercity.dk> skrev i en meddelelse
> news:blho0g$fal$1@news.cybercity.dk...
> >
> > "Olesen" <olesen@jubiipost.dk> wrote in message
>
> > > Har du hørt om lign. tilfælde andre steder ?
> > >
> >
> > Jeg forstår ikke dit spørgsmål ?
>
>
> Så er det heller ikke nemt at svare..)
>
> Jeg mener blot, at hvis det har været så vanskeligt
> for Valve at få HL2 til at køre på FX, så er det sært,
> andre spiludviklere ikke har nævnt et kvidr om vanskeligheden
> ved udviklingen af deres spil.

Måske de ikke kører på samme engine?

> -men måske jeg bare har overset/hørt det.
>

--
Mvh
Morten Holberg Nielsen

In an interstelaaarrr buuuurrssst im baaack to saaaveeee the uuuunivereerse!



Olesen (02-10-2003)
Kommentar
Fra : Olesen


Dato : 02-10-03 19:36


"Morten Holberg Nielsen" <holberg19@ DELETETHIS ofir.dk> skrev i en
meddelelse news:3f7c6a3c$0$48907$edfadb0f@dtext02.news.tele.dk...

> Måske de ikke kører på samme engine?
>

Det er nok Pixelshader 2.0 som driller hele vejen igennem
og kræver omveje på FX kortene.



Lasse (01-10-2003)
Kommentar
Fra : Lasse


Dato : 01-10-03 11:18

Vil ikke ligefrem kalde nVidia konger mere, efter utallige forsøg på at
snyde sig til højere scores i diverse tests, synes jeg nærmest det er blevet
lidt latterligt...

Lasse

"Olesen" <olesen@jubiipost.dk> wrote in message
news:3f7a0416$0$32444$edfadb0f@dread16.news.tele.dk...
> Jeg har læst en del tests af ATI's nyeste Radeion 9800XT ("extended")
> grafikkort.
>
> Totalt set ser det ud til, at ydelsen er steget marginalt med ca. 5%, max
> 10%
> i visse tilfælde, pga. GPU og RAM frekvensen er skruet en smule i vejret.
> En simpel "overklocking" istedet for innovative idêer.
>
> Køleren er blevet meget mere massiv, kortet er set med 2 blæsere monteret.
> En temperatur på hele 60 grader er blevet målt, hvilket sku' være
> ret meget, specielt i ATI-regi. De største forskelle i ændringerne
> på GPU'en sku' være, de har omarrangeret nogle komponenter,
> simpelthen for bedre at komme af med varmen...
>
> Den kommende Catalyst 3.8 driver sku' indeholde en overclocking-
> funktion, som konstant måler kernens temperatur via en indbygget
> føler på GPU'en, og dermed dynamisk kunne skrue op og ned for den
> "automatiske overclockingfunktion". Netop dêrfor den ekstra
> køler er nødvendig. Hvorfor ikke ha' denne mulighed koblet
> til permanent hvis den er så effektiv ???????
>
> Konklusionen på alle de tests der florerer er, at 9800XT ikke
> er et kvantespring på grafikkortområdet, og de alle med spænding
> venter på, Catalyst 3.8 blir' frigivet. Flere testhold undrer sig også
over,
> hvorfor ATI smider et kort på markedet, uden dens max egenskaber
> kommer til sin ret, vha. Catalyst 3.8 overclock-muligheden...De
> ligefrem anbefaler en 9800Pro 256 mb kort istedet, da 9800XT
> vil blive MEGET kostbar...måske endda dyrere end
> Nvidias kommende NV38'er,-en overclocket 9800pro larmer mindre,
> yder det samme til en meget lavere pris...
>
> Frekvensen har ATI fået skruet op til 412 Mhz, Nvidia's
> FX serie har kørt med 500 i rigtig lang tid.
> Iøvrigt sjovt, at ATI's mid-range kort har
> mere moderne arkitektur på visse områder, bla.
> hurtigere core-hastighed og 0.13 micron-teknik..måske
> derfor, R360'eren (igen) blot er en opdateret R350'er (9800).
>
> Har ATI nået toppen for, hvad de kan præstere ?
> Er det mon utænkeligt, vi vil se Nvidias kommende NV38
> som den GPU, som atter viser Nvidias overlegenhed, teknisk set,
> og een gang for alle slå fast, at Nvidia er kongen ???
>
> Jeg ser det sådan, at ATI har nogle supersunde grafiske
> egenskaber rent kodemæssigt, forstået på den måde,
> der spares meget regnekraft, fordi de har nogle fornuftige
> rutiner til at beregne grafikken, hvorimod Nvidia
> har og er uheldig med eks. PixelShader 2.0, men er
> tekniske overlegne, og vil komme "tilbage" med
> sådan en kraft, ATI kommer til at stå i skyggen igen.
>
> Glæder mig vildt meget til at se kommende FX5950
> mod 9800XT...
>
>



Olesen (01-10-2003)
Kommentar
Fra : Olesen


Dato : 01-10-03 15:57


"Lasse" <lasn@_SLET_mail.dk> skrev i en meddelelse
news:3f7aa9f0$0$32528$edfadb0f@dread16.news.tele.dk...
> Vil ikke ligefrem kalde nVidia konger mere, efter utallige forsøg på at
> snyde sig til højere scores i diverse tests, synes jeg nærmest det er
blevet
> lidt latterligt...
>

Det latterlige er jo, at hele branchen har haft travlt med at beskylde
Nvidia for snyd. Hovedbaggrunden har været FutureMark
benchmarktestene, og alt dêt før der var noget der hed
Aquamark3.

At FutureMark så nævnte et par måneder senere,
at der ikke var tale om snyd, men en optimering
af driverne, så fortsatte folk for nu var kuglerne
jo allerede støbt, og så ku' man lige så godt
score billige point, netop som du er igang med lige nu.

Iøvrigt var ATI de første til at snyde, og de har
endda offentlig indrømmet højt og tydeligt,
at "vi gør det aldrig mere". Nvidia har derimod
aldrig snydt, -har kun været offer for andres
dårlige smag med ATI's markedsføringsafdeling i front.
ATI har iøvrigt også optimeret deres drivere i tidernes morgen.

Iøvrigt har FX5900ultra altid klaret sig særdeles
fornuftigt iforhold til ATI 9800Pro. Det
der vælter læsset er Pixelshaderen, som aldrig
har været FX-seriens store fordel, og det viser
sig i høj grad nu, hvor flere directX 9 spil
kommer frem, og hvor der gøres megen brug
af netop PS2.

Det eneste Nvidia kan ærgre sig over er,
de valgte en lidt anden pixelshader udgave
end den, der måske var god kotume i forhold
til DirectX9 standarden, men det kan de jo
kun lære af.

Man har så hørt folk råbe og skrige over,
at Nvidia nu er færdige...æh bæh buh...de
glemmer bare, at udviklingen fortsætter,
og de mistakes Nvidia har lavet, næppe
vil gentage sig i de kommende GPU'er.



Anders Albrechtsen (01-10-2003)
Kommentar
Fra : Anders Albrechtsen


Dato : 01-10-03 21:06


"Olesen" <olesen@jubiipost.dk> wrote in message
news:3f7aeb3f$0$32449$edfadb0f@dread16.news.tele.dk...
>
> "Lasse" <lasn@_SLET_mail.dk> skrev i en meddelelse
> news:3f7aa9f0$0$32528$edfadb0f@dread16.news.tele.dk...
> > Vil ikke ligefrem kalde nVidia konger mere, efter utallige forsøg på at
> > snyde sig til højere scores i diverse tests, synes jeg nærmest det er
> blevet
> > lidt latterligt...
> >
>
> Det latterlige er jo, at hele branchen har haft travlt med at beskylde
> Nvidia for snyd. Hovedbaggrunden har været FutureMark
> benchmarktestene, og alt dêt før der var noget der hed
> Aquamark3.

Der er mange andre eksempler. Nvidia's seneste drivere har automatisk
deaktiveret trillinear AF i UT 2003 for at kunne opnå en højere score. De
seneste betadrivere er også blevet afsløret i at degradere billedkvaliteten
voldsomt for at kunne forbedre ydelsen.

> At FutureMark så nævnte et par måneder senere,
> at der ikke var tale om snyd, men en optimering
> af driverne, så fortsatte folk for nu var kuglerne
> jo allerede støbt, og så ku' man lige så godt
> score billige point, netop som du er igang med lige nu.

Du mener altså, at det hele er en stor sammensværgelse mod nVidia?

> Iøvrigt var ATI de første til at snyde, og de har
> endda offentlig indrømmet højt og tydeligt,
> at "vi gør det aldrig mere". Nvidia har derimod
> aldrig snydt, -har kun været offer for andres
> dårlige smag med ATI's markedsføringsafdeling i front.
> ATI har iøvrigt også optimeret deres drivere i tidernes morgen.

Mener du helt oprigtigt, at nVidia aldrig har snydt? Så er du, undskyld mig,
mere en almindeligt naiv. Sagen er den, at nVidia har skudt sig selv i foden
ved ikke at ville følge de standarder som resten af branchen er blevet enige
om. Det har intet at gøre med ATI's markedsføringsafdeling at gøre, selvom
det vel næppe kan undre, at de godter sig gevaldigt over nVidia's problemer.

> Iøvrigt har FX5900ultra altid klaret sig særdeles
> fornuftigt iforhold til ATI 9800Pro. Det
> der vælter læsset er Pixelshaderen, som aldrig
> har været FX-seriens store fordel, og det viser
> sig i høj grad nu, hvor flere directX 9 spil
> kommer frem, og hvor der gøres megen brug
> af netop PS2.

Og netop derfor er 9800 Pro et bedre kort. Det yder stort set det samme i
DX6/7/8 og er klart overlegen i DX9.

> Det eneste Nvidia kan ærgre sig over er,
> de valgte en lidt anden pixelshader udgave
> end den, der måske var god kotume i forhold
> til DirectX9 standarden, men det kan de jo
> kun lære af.

De kan lære at lade være med at blive fornærmede, når resten af branchen,
Microsoft inklusive, ikke bøjer sig i støvet for deres krav. Nvidia er offer
for eget storhedsvanvid, ikke en eller anden sammensværgelse.

> Man har så hørt folk råbe og skrige over,
> at Nvidia nu er færdige...æh bæh buh...de
> glemmer bare, at udviklingen fortsætter,
> og de mistakes Nvidia har lavet, næppe
> vil gentage sig i de kommende GPU'er.

Man må da håbe, at nVidia har lært af alt dette, og i fremtiden bliver bedre
til at optimere deres hardware for de vedtagne standarder. I de senere år
har nVidia forsøgt at opnå fordele ved at udvikle egne standarder (Cg,
CineFX etc.), der kun virker med deres hardware, og i sidste ende har det
altså virket negativt tilbage på dem selv.
---
Anders.



Olesen (02-10-2003)
Kommentar
Fra : Olesen


Dato : 02-10-03 17:41


"Anders Albrechtsen" <noname@noplace.com> skrev i en meddelelse
news:msGeb.22$536.5438@news000.worldonline.dk...

> Der er mange andre eksempler. Nvidia's seneste drivere har automatisk
> deaktiveret trillinear AF i UT 2003 for at kunne opnå en højere score. De
> seneste betadrivere er også blevet afsløret i at degradere
billedkvaliteten
> voldsomt for at kunne forbedre ydelsen.

Det kaldes tweak, justering, men ikke snyd.
ATI har gjort det samme (før i tiden).
Når spillet er igang, så vil det ikke kunne
ses alligevel, og er derfor en okay måde
at få bedre ydelse på, trods alt.
Alt dette pga. det uheldige PixelShader 2 i FX-serien..


> > At FutureMark så nævnte et par måneder senere,
> > at der ikke var tale om snyd, men en optimering
> > af driverne, så fortsatte folk for nu var kuglerne
> > jo allerede støbt, og så ku' man lige så godt
> > score billige point, netop som du er igang med lige nu.
>
> Du mener altså, at det hele er en stor sammensværgelse mod nVidia?

Med ATI's markedsafdeling i front, sådan ser det desværre ud, ja.


> > Iøvrigt var ATI de første til at snyde, og de har
> > endda offentlig indrømmet højt og tydeligt,
> > at "vi gør det aldrig mere". Nvidia har derimod
> > aldrig snydt, -har kun været offer for andres
> > dårlige smag med ATI's markedsføringsafdeling i front.
> > ATI har iøvrigt også optimeret deres drivere i tidernes morgen.
>
> Mener du helt oprigtigt, at nVidia aldrig har snydt? Så er du, undskyld
mig,
> mere en almindeligt naiv. Sagen er den, at nVidia har skudt sig selv i
foden
> ved ikke at ville følge de standarder som resten af branchen er blevet
enige
> om. Det har intet at gøre med ATI's markedsføringsafdeling at gøre, selvom
> det vel næppe kan undre, at de godter sig gevaldigt over nVidia's
problemer.

Find de konkrete steder de har "snydt" og er blevet "opdaget", uden
det senere er blevet konkluderet, at der var tale om et tweak
eller en optimering.
Ha' lige Futuremark in mente mens du leder..


> > Iøvrigt har FX5900ultra altid klaret sig særdeles
> > fornuftigt iforhold til ATI 9800Pro. Det
> > der vælter læsset er Pixelshaderen, som aldrig
> > har været FX-seriens store fordel, og det viser
> > sig i høj grad nu, hvor flere directX 9 spil
> > kommer frem, og hvor der gøres megen brug
> > af netop PS2.
>
> Og netop derfor er 9800 Pro et bedre kort. Det yder stort set det samme i
> DX6/7/8 og er klart overlegen i DX9.

I directx 9, hvor PS2 bruges flittigt, der har
de en fordel, ja.


> > Det eneste Nvidia kan ærgre sig over er,
> > de valgte en lidt anden pixelshader udgave
> > end den, der måske var god kotume i forhold
> > til DirectX9 standarden, men det kan de jo
> > kun lære af.
>
> De kan lære at lade være med at blive fornærmede, når resten af branchen,
> Microsoft inklusive, ikke bøjer sig i støvet for deres krav. Nvidia er
offer
> for eget storhedsvanvid, ikke en eller anden sammensværgelse.

ATI's R350 chip indeholder sågar egenskaber, som ikke
hører hjemme i Directx 9, men som Valve alligevel har
valgt at benytte, hvorfor mon ?
Valve har også nævnt, der er mangler i Directx 9,
som med meget andet MS software...


> > Man har så hørt folk råbe og skrige over,
> > at Nvidia nu er færdige...æh bæh buh...de
> > glemmer bare, at udviklingen fortsætter,
> > og de mistakes Nvidia har lavet, næppe
> > vil gentage sig i de kommende GPU'er.
>
> Man må da håbe, at nVidia har lært af alt dette, og i fremtiden bliver
bedre
> til at optimere deres hardware for de vedtagne standarder. I de senere år
> har nVidia forsøgt at opnå fordele ved at udvikle egne standarder (Cg,
> CineFX etc.), der kun virker med deres hardware, og i sidste ende har det
> altså virket negativt tilbage på dem selv.


Det har du så lidt ret i.



Anders Albrechtsen (02-10-2003)
Kommentar
Fra : Anders Albrechtsen


Dato : 02-10-03 20:12


"Olesen" <olesen@jubiipost.dk> wrote in message
news:3f7c552f$0$32453$edfadb0f@dread16.news.tele.dk...
>
> "Anders Albrechtsen" <noname@noplace.com> skrev i en meddelelse
> news:msGeb.22$536.5438@news000.worldonline.dk...
>
> > Der er mange andre eksempler. Nvidia's seneste drivere har automatisk
> > deaktiveret trillinear AF i UT 2003 for at kunne opnå en højere score.
De
> > seneste betadrivere er også blevet afsløret i at degradere
> billedkvaliteten
> > voldsomt for at kunne forbedre ydelsen.
>
> Det kaldes tweak, justering, men ikke snyd.
> ATI har gjort det samme (før i tiden).
> Når spillet er igang, så vil det ikke kunne
> ses alligevel, og er derfor en okay måde
> at få bedre ydelse på, trods alt.
> Alt dette pga. det uheldige PixelShader 2 i FX-serien..

Nej, det er snyd, når driveren degraderer billedkvaliteten, uagtet hvilke
indstillinger der vælges i spillets menu eller driveren kontrolpanel.

> > > At FutureMark så nævnte et par måneder senere,
> > > at der ikke var tale om snyd, men en optimering
> > > af driverne, så fortsatte folk for nu var kuglerne
> > > jo allerede støbt, og så ku' man lige så godt
> > > score billige point, netop som du er igang med lige nu.
> >
> > Du mener altså, at det hele er en stor sammensværgelse mod nVidia?
>
> Med ATI's markedsafdeling i front, sådan ser det desværre ud, ja.

Du mener altså, at ATI har bestukket samtlige nettets IT-sider lige fra
Tom's Hardware over Anadtech og til Beyond3D? Indrøm dog, at nVidia har
snydt og kom videre, i stedet for at blive vd med at forsvare dem.
Selvfølgelig godter de sig da hos ATI, men det er ikke det samme som, at de
har orkestreret en større sammensværgelse mod nVidia. Nvidia har begået
nogel designmæssige brøler som de nu betaler prisen for. I stedet for at
snyde og føle sig forfulgte, burde de i stedet bruge krudtet på at få
udbedret disse mangler i deres kommende kort.

> > > Iøvrigt var ATI de første til at snyde, og de har
> > > endda offentlig indrømmet højt og tydeligt,
> > > at "vi gør det aldrig mere". Nvidia har derimod
> > > aldrig snydt, -har kun været offer for andres
> > > dårlige smag med ATI's markedsføringsafdeling i front.
> > > ATI har iøvrigt også optimeret deres drivere i tidernes morgen.
> >
> > Mener du helt oprigtigt, at nVidia aldrig har snydt? Så er du, undskyld
> mig,
> > mere en almindeligt naiv. Sagen er den, at nVidia har skudt sig selv i
> foden
> > ved ikke at ville følge de standarder som resten af branchen er blevet
> enige
> > om. Det har intet at gøre med ATI's markedsføringsafdeling at gøre,
selvom
> > det vel næppe kan undre, at de godter sig gevaldigt over nVidia's
> problemer.
>
> Find de konkrete steder de har "snydt" og er blevet "opdaget", uden
> det senere er blevet konkluderet, at der var tale om et tweak
> eller en optimering.
> Ha' lige Futuremark in mente mens du leder..

Du har allerede fået et glimrende eksempel i Aquamark 3 . På mirakuløs vi
næsten fordobles scoren i 45.23 driveren sammenlignet med 44.03, men kigger
man på screenshots er det klart, at hele scenen ikke optegnes korrekt. Det
samme gælder nVidias 51.75 betadriver. Linket kan du finde andetsteds.

> > > Iøvrigt har FX5900ultra altid klaret sig særdeles
> > > fornuftigt iforhold til ATI 9800Pro. Det
> > > der vælter læsset er Pixelshaderen, som aldrig
> > > har været FX-seriens store fordel, og det viser
> > > sig i høj grad nu, hvor flere directX 9 spil
> > > kommer frem, og hvor der gøres megen brug
> > > af netop PS2.
> >
> > Og netop derfor er 9800 Pro et bedre kort. Det yder stort set det samme
i
> > DX6/7/8 og er klart overlegen i DX9.
>
> I directx 9, hvor PS2 bruges flittigt, der har
> de en fordel, ja.

Den eneste nævneværdge forskel mellem DX8 og DX9 er jo de opdaterede shader
algortimer. Ergo er det korrekt, at ATI er klart overlegen i DX9. End of
story.

> > > Det eneste Nvidia kan ærgre sig over er,
> > > de valgte en lidt anden pixelshader udgave
> > > end den, der måske var god kotume i forhold
> > > til DirectX9 standarden, men det kan de jo
> > > kun lære af.
> >
> > De kan lære at lade være med at blive fornærmede, når resten af
branchen,
> > Microsoft inklusive, ikke bøjer sig i støvet for deres krav. Nvidia er
> offer
> > for eget storhedsvanvid, ikke en eller anden sammensværgelse.
>
> ATI's R350 chip indeholder sågar egenskaber, som ikke
> hører hjemme i Directx 9, men som Valve alligevel har
> valgt at benytte, hvorfor mon ?

Og hvilke er det så lige?

> Valve har også nævnt, der er mangler i Directx 9,
> som med meget andet MS software...

Selvfølgelig er der da mangler. Men de fejl du hentyder til skyldes, at
Halflife 2 motoren egentlig er optimeret for PS 3.0 og VS 3.0 som først
kommer med DX10. Grunden til dette er bl.a., at de nuværende DX9 shaders
ikke kører optimalt med antialiasing.

> > > Man har så hørt folk råbe og skrige over,
> > > at Nvidia nu er færdige...æh bæh buh...de
> > > glemmer bare, at udviklingen fortsætter,
> > > og de mistakes Nvidia har lavet, næppe
> > > vil gentage sig i de kommende GPU'er.
> >
> > Man må da håbe, at nVidia har lært af alt dette, og i fremtiden bliver
> bedre
> > til at optimere deres hardware for de vedtagne standarder. I de senere
år
> > har nVidia forsøgt at opnå fordele ved at udvikle egne standarder (Cg,
> > CineFX etc.), der kun virker med deres hardware, og i sidste ende har
det
> > altså virket negativt tilbage på dem selv.
>
>
> Det har du så lidt ret i.

Hvis du mener det, bør du også holde dig for god til at forsvare nVidia og
deres dumheder.
---
Anders



Morten Holberg Niels~ (02-10-2003)
Kommentar
Fra : Morten Holberg Niels~


Dato : 02-10-03 21:54


"Anders Albrechtsen" <noname@noplace.com> skrev i en meddelelse
news:nc%eb.9$Kv.1260@news000.worldonline.dk...
>
> "Olesen" <olesen@jubiipost.dk> wrote in message
> news:3f7c552f$0$32453$edfadb0f@dread16.news.tele.dk...
> >
> > "Anders Albrechtsen" <noname@noplace.com> skrev i en meddelelse
> > news:msGeb.22$536.5438@news000.worldonline.dk...
> Du har allerede fået et glimrende eksempel i Aquamark 3 . På mirakuløs vi
> næsten fordobles scoren i 45.23 driveren sammenlignet med 44.03, men
kigger
> man på screenshots er det klart, at hele scenen ikke optegnes korrekt. Det
> samme gælder nVidias 51.75 betadriver. Linket kan du finde andetsteds.

Ovenstående har Hr. Olesen dog valgt ikke at kommentere. Indholdet passer
måske ikke herren?



--
Mvh
Morten Holberg Nielsen

In an interstelaaarrr buuuurrssst im baaack to saaaveeee the uuuunivereerse!



Anders Albrechtsen (03-10-2003)
Kommentar
Fra : Anders Albrechtsen


Dato : 03-10-03 11:48


"Morten Holberg Nielsen" <holberg19@ DELETETHIS ofir.dk> wrote in message
news:3f7c9048$0$48888$edfadb0f@dtext02.news.tele.dk...
>
> "Anders Albrechtsen" <noname@noplace.com> skrev i en meddelelse
> news:nc%eb.9$Kv.1260@news000.worldonline.dk...
> >
> > "Olesen" <olesen@jubiipost.dk> wrote in message
> > news:3f7c552f$0$32453$edfadb0f@dread16.news.tele.dk...
> > >
> > > "Anders Albrechtsen" <noname@noplace.com> skrev i en meddelelse
> > > news:msGeb.22$536.5438@news000.worldonline.dk...
> > Du har allerede fået et glimrende eksempel i Aquamark 3 . På mirakuløs
vi
> > næsten fordobles scoren i 45.23 driveren sammenlignet med 44.03, men
> kigger
> > man på screenshots er det klart, at hele scenen ikke optegnes korrekt.
Det
> > samme gælder nVidias 51.75 betadriver. Linket kan du finde andetsteds.
>
> Ovenstående har Hr. Olesen dog valgt ikke at kommentere. Indholdet passer
> måske ikke herren?
>
>

Åbenbart ikke. I hans øjne er nVidia jo offer for en sammensværgelse.
---
Mvh
Anders



Olesen (03-10-2003)
Kommentar
Fra : Olesen


Dato : 03-10-03 16:41


"Morten Holberg Nielsen" <holberg19@ DELETETHIS ofir.dk> skrev i en
meddelelse news:3f7c9048$0$48888$edfadb0f@dtext02.news.tele.dk...

> > Du har allerede fået et glimrende eksempel i Aquamark 3 . På mirakuløs
vi
> > næsten fordobles scoren i 45.23 driveren sammenlignet med 44.03, men
> kigger
> > man på screenshots er det klart, at hele scenen ikke optegnes korrekt.
Det
> > samme gælder nVidias 51.75 betadriver. Linket kan du finde andetsteds.
>
> Ovenstående har Hr. Olesen dog valgt ikke at kommentere. Indholdet passer
> måske ikke herren?

Ork jo. Men at kalde det snyd ? næppe...



Bernhard Ege (03-10-2003)
Kommentar
Fra : Bernhard Ege


Dato : 03-10-03 18:57


"Olesen" <olesen@jubiipost.dk> wrote in message
news:3f7d9879$0$32491$edfadb0f@dread16.news.tele.dk...
>
> "Morten Holberg Nielsen" <holberg19@ DELETETHIS ofir.dk> skrev i en
> meddelelse news:3f7c9048$0$48888$edfadb0f@dtext02.news.tele.dk...
>
> > > Du har allerede fået et glimrende eksempel i Aquamark 3 . På
mirakuløs
> vi
> > > næsten fordobles scoren i 45.23 driveren sammenlignet med 44.03,
men
> > kigger
> > > man på screenshots er det klart, at hele scenen ikke optegnes
korrekt.
> Det
> > > samme gælder nVidias 51.75 betadriver. Linket kan du finde
andetsteds.
> >
> > Ovenstående har Hr. Olesen dog valgt ikke at kommentere. Indholdet
passer
> > måske ikke herren?
>
> Ork jo. Men at kalde det snyd ? næppe...

Hvornår er det da snyd?

Er det snyd at optimere en driver mht. til en speciel applikation uden
at der en negativ indflydelse på applikationen?

Er det snyd at driveren sænker billedkvaliteten for at opnå en højere
framerate mht. til en speciel applikation?

Er det snyd at driveren indeholder omfattende data om en applikation og
at disse data som forhåndsviden om 3d-scener for at undgå at lave visse
beregninger?

Er det snyd at en driver helt undlader at tegne frames men blot
rapporterer tilbage at den har tegnet dem?

Er det snyd at en driver blot tegner noget af scenen for at spare tid og
dermed foregiver en højere ydelse?

Er det snyd når en driver sætter AA til 2x når man bad om 4x i et
benchmark program?

Gentagelse: Hvornår er det snyd? Du lader til at vide det.

mvh Bernhard


Olesen (03-10-2003)
Kommentar
Fra : Olesen


Dato : 03-10-03 20:46


"Bernhard Ege" <bme@hst.auc.dk> skrev i en meddelelse
news:SLifb.5599$8H1.4426@news.get2net.dk...


> Er det snyd at optimere en driver mht. til en speciel applikation uden
> at der en negativ indflydelse på applikationen?

Ved at reducere visse elementers grafiske kvalitet for
at opnå fordele andetsteds, er det svært at se det
som snyd. En opvejning måske ?
Spilproducenter idag bruger også 'gamle' elementer
fra directx 7 + 8 hvor effekterne er tilstrækkelige for
at få bedre ydelse.
Er dêt snyd ?


> Er det snyd at driveren sænker billedkvaliteten for at opnå en højere
> framerate mht. til en speciel applikation?

Ud fra en helhedsvurdering kan det være en sund idê
for at få spillet mere flydende. Snyd ? vel
egentlig ikke. Man må vel trække på de værktøjer
man endnu engang har, og er vurderngen, at i dette
tilfælde sker der ikke alverden, og en typisk bruger
ikke vil lægge mærke til det når spillet ikke vises
frame-by-frame, så går det vel an.


> Er det snyd at driveren indeholder omfattende data om en applikation og
> at disse data som forhåndsviden om 3d-scener for at undgå at lave visse
> beregninger?

Næppe. Ku' man sige en form for grafisk cache ??
Hvis alle spil skulle tilgodeses, ville driveren
blive urimelig stor....mener iøvrigt, at
visse drivere anbefales frem for en anden
i visse spil, af den ene eller anden årsag.


> Er det snyd at en driver helt undlader at tegne frames men blot
> rapporterer tilbage at den har tegnet dem?

Hvis denne rapportering tar' lige så lang tid som
det tar' at tegne den kan jeg godt se et problem.
Tror man ku' finde mange teknikker brugt
af spiludviklerne, for i det hele taget at få det til at
hænge sammen..gad godt vide, hvad der ofte
gemmer sig i de forskellige patches...


> Er det snyd at en driver blot tegner noget af scenen for at spare tid og
> dermed foregiver en højere ydelse?

Er det snyd, når du får mere med af billedet ved
en 16-9 tv end et mere konventionelt 4-3 ?


> Er det snyd når en driver sætter AA til 2x når man bad om 4x i et
> benchmark program?

Er det snyd, når ATI ikke overholder Directx 9 "hints" om,
at her ændres precision, men driveren sidder dette overhørigt,
og kunden måske kunne score et par ekstra frames ?


> Gentagelse: Hvornår er det snyd? Du lader til at vide det.

Som mange andre, så er meningerne endnu flere.



Bernhard Ege (03-10-2003)
Kommentar
Fra : Bernhard Ege


Dato : 03-10-03 23:29


"Olesen" <olesen@jubiipost.dk> wrote in message
news:3f7dd20c$0$32519$edfadb0f@dread16.news.tele.dk...
>
> "Bernhard Ege" <bme@hst.auc.dk> skrev i en meddelelse
> news:SLifb.5599$8H1.4426@news.get2net.dk...
>
>
> > Er det snyd at optimere en driver mht. til en speciel applikation
uden
> > at der en negativ indflydelse på applikationen?
>
> Ved at reducere visse elementers grafiske kvalitet for
> at opnå fordele andetsteds, er det svært at se det
> som snyd. En opvejning måske ?
> Spilproducenter idag bruger også 'gamle' elementer
> fra directx 7 + 8 hvor effekterne er tilstrækkelige for
> at få bedre ydelse.
> Er dêt snyd ?

Det er en afvejning, ja. Men jeg vil da ikke snydes. Jeg vil vide at når
jeg sætter den til en ønsket kvalitet, så får jeg den. Og at nogle
programmer kan nøjes med DX7/8 er da ligegyldigt hvis programmet
understøtter det. Hvis det understøtter DX9 samtidig, så vælger man da
det for der er bedre mulighed for flotte grafiske effekter

>
> > Er det snyd at driveren sænker billedkvaliteten for at opnå en
højere
> > framerate mht. til en speciel applikation?
>
> Ud fra en helhedsvurdering kan det være en sund idê
> for at få spillet mere flydende. Snyd ? vel
> egentlig ikke. Man må vel trække på de værktøjer
> man endnu engang har, og er vurderngen, at i dette
> tilfælde sker der ikke alverden, og en typisk bruger
> ikke vil lægge mærke til det når spillet ikke vises
> frame-by-frame, så går det vel an.

Hvorfor må brugeren ikke selv bestemme det endsige vide at det sker? Det
er jo meget tænkeligt at brugeren netop ønsker billedkvalitet fremfor
FPS. Denne mulighed eksisterer jo så ikke med det grafikkort og man må
få fat i konkurrentens kort.

>
> > Er det snyd at driveren indeholder omfattende data om en applikation
og
> > at disse data som forhåndsviden om 3d-scener for at undgå at lave
visse
> > beregninger?
>
> Næppe. Ku' man sige en form for grafisk cache ??
> Hvis alle spil skulle tilgodeses, ville driveren
> blive urimelig stor....mener iøvrigt, at
> visse drivere anbefales frem for en anden
> i visse spil, af den ene eller anden årsag.

Det vil sige at du mener det er rimelig at man skal skifte drivere alt
afhængig af hvilket spil man vil spille. Og du mener også at det er ok
at et benchmark program snydes ved at driveren har alle scener fra
benchmarkprogrammet lagt ind som BMP billeder og blot skal vise disse
BMP billeder et efter et uden at skulle beregne noget. Man ser jo det
man skal.

> > Er det snyd at en driver helt undlader at tegne frames men blot
> > rapporterer tilbage at den har tegnet dem?
>
> Hvis denne rapportering tar' lige så lang tid som
> det tar' at tegne den kan jeg godt se et problem.
> Tror man ku' finde mange teknikker brugt
> af spiludviklerne, for i det hele taget at få det til at
> hænge sammen..gad godt vide, hvad der ofte
> gemmer sig i de forskellige patches...

Det vil sige at hvis rapporteringen foregår hurtig nok, så gør det ikke
noget at den ikke tegner den frame. Det vil sige at du vil acceptere en
driver som smider frames væk bare så du kan se din FPS tæller gå i
vejret uden egentlig at få hvad du betaler for. Nogle folk vil snydes.

>
> > Er det snyd at en driver blot tegner noget af scenen for at spare
tid og
> > dermed foregiver en højere ydelse?
>
> Er det snyd, når du får mere med af billedet ved
> en 16-9 tv end et mere konventionelt 4-3 ?

Jeg læser det som et ja. Vi kommer da en anelse nærmere mht. til hvad du
mener der er snyd

>
> > Er det snyd når en driver sætter AA til 2x når man bad om 4x i et
> > benchmark program?
>
> Er det snyd, når ATI ikke overholder Directx 9 "hints" om,
> at her ændres precision, men driveren sidder dette overhørigt,
> og kunden måske kunne score et par ekstra frames ?

Du svarede ikke på mit spørgsmål, men jeg vil da gerne prøve at svare på
dit. Jeg ved ikke om du har ret i det du siger og hvis du har, i hvilken
situation det er du tænker på. Hvis det er PixelShaderen, så er grunden
nok at ATI kortene kun kan køre 24bit, hverken mere eller mindre. Det
ved alle sådan set ligesom de ved at nVidia kan køre 16bit og 32bit
(bare ikke så hurtigt).

>
> > Gentagelse: Hvornår er det snyd? Du lader til at vide det.
>
> Som mange andre, så er meningerne endnu flere.

Snyd er ganske enkelt når du ikke får hvad du betaler for. Hvis du køber
et kort der kan klare rendere efter directx9 standarden, så bliver du
snydt hvis du køber et nyere geforce kort. Programmet kan ikke selv se
at kortet ikke gør som det får besked på og tror derfor kortet er fuldt
ud dx9 kompatibelt. Men sådan en kompatibilitet gælder ikke kun overfor
programmet. Det gælder også overfor den person som skal se på
resultatet. Du skal tænke på at directx9 kan simuleres ideelt i software
og hvis der er betydelig forskel mellem et hardware rendered billede og
et software rendered billede så er der enten en fejl i
driveren/hardwaren eller også er det en bevidst handling som kan betyde
at man prøver at dække over noget.

nVidia er slemme til det. ATI knap så slemme. Folk som ser strengt på
snyderi vil nok prøve at undgå nvidia kortene. Jeg ved jeg gør og når
jeg står og skal købe et nyt kort en gang så vil jeg lægge stor vægt på
om reviews prøver at måle den reelle ydelse af kortene eller nøjes med
futuremark benchmarks som forherliger snyderi i drivere.

Jeg er glad for mit ATI9700 Og er også glad for mit geforce2gts (man
skal bare nøjes med de gamle drivere hvori der ikke er så meget snyd,
såsom 21.83 driverne).

mvh Bernhard


/morten (04-10-2003)
Kommentar
Fra : /morten


Dato : 04-10-03 08:33

> > Er det snyd at en driver blot tegner noget af scenen for at spare tid og
> > dermed foregiver en højere ydelse?
>
> Er det snyd, når du får mere med af billedet ved
> en 16-9 tv end et mere konventionelt 4-3 ?

ok - det var så verdens dårligste analogi - ved du overhovedet hvad manden
taler om ?
tv-formater != renderingstricks

/morten



Kenneth Iversen (04-10-2003)
Kommentar
Fra : Kenneth Iversen


Dato : 04-10-03 11:59

"Olesen" <olesen@jubiipost.dk> skrev i en meddelelse
news:3f7dd20c$0$32519$edfadb0f@dread16.news.tele.dk...
> Er det snyd, når du får mere med af billedet ved
> en 16-9 tv end et mere konventionelt 4-3 ?

"/morten" <molsson_spammer@vip.cybercity.dk> skrev i en meddelelse
news:bllt2i$bh8$1@news.cybercity.dk...
> ok - det var så verdens dårligste analogi

Ja det må man da sige. At det så heller ikke er helt korrekt er noget andet :)

/Kenneth Iversen

How to Remove Linux and Install Windows 2000 or Windows NT:
http://support.microsoft.com/support/kb/articles/q247/8/04.asp


Lars Jørgensen (03-10-2003)
Kommentar
Fra : Lars Jørgensen


Dato : 03-10-03 21:13

On Fri, 3 Oct 2003 21:46:19 +0200, Olesen wrote:

>> Er det snyd at optimere en driver mht. til en speciel applikation uden
>> at der en negativ indflydelse på applikationen?
>
> Ved at reducere visse elementers grafiske kvalitet for
> at opnå fordele andetsteds, er det svært at se det
> som snyd. En opvejning måske ?

Der er defineret en standart. Den skal overholdes ellers leveres varen
ikke. Er det kun noget "tilsvarende" skal det oplyses.

> Spilproducenter idag bruger også 'gamle' elementer
> fra directx 7 + 8 hvor effekterne er tilstrækkelige for
> at få bedre ydelse.
> Er dêt snyd ?

Tjae... på den måde vil det være lige for alle.

>> Er det snyd at driveren sænker billedkvaliteten for at opnå en højere
>> framerate mht. til en speciel applikation?
>
> Ud fra en helhedsvurdering kan det være en sund idê
> for at få spillet mere flydende. Snyd ? vel
> egentlig ikke. Man må vel trække på de værktøjer
> man endnu engang har, og er vurderngen, at i dette
> tilfælde sker der ikke alverden, og en typisk bruger
> ikke vil lægge mærke til det når spillet ikke vises
> frame-by-frame, så går det vel an.

Hvorfor skjule det? At lave det som en "tweak-option" ville da være helt
fint, men sådan foregår det jo ikke altid.

>> Er det snyd at driveren indeholder omfattende data om en applikation og
>> at disse data som forhåndsviden om 3d-scener for at undgå at lave visse
>> beregninger?
>
> Næppe. Ku' man sige en form for grafisk cache ??
> Hvis alle spil skulle tilgodeses, ville driveren
> blive urimelig stor....mener iøvrigt, at
> visse drivere anbefales frem for en anden
> i visse spil, af den ene eller anden årsag.

Det ødelægger jo hele idéen om benchmarking. En god test skal jo gerne
fortælle hvordan et kørt generelt yder. Hvis man så får "kunstigt" høje
resultater, vil man nok blive skuffet når man pludselig sidder med en
"ukendt" spil.

>> Er det snyd at en driver blot tegner noget af scenen for at spare tid og
>> dermed foregiver en højere ydelse?
>
> Er det snyd, når du får mere med af billedet ved
> en 16-9 tv end et mere konventionelt 4-3 ?

Errr...? Var det et svar?

>> Er det snyd når en driver sætter AA til 2x når man bad om 4x i et
>> benchmark program?
>
> Er det snyd, når ATI ikke overholder Directx 9 "hints" om,
> at her ændres precision, men driveren sidder dette overhørigt,
> og kunden måske kunne score et par ekstra frames ?

Var det et ja?

--
Lars

TBC (01-10-2003)
Kommentar
Fra : TBC


Dato : 01-10-03 12:20

"Olesen" <olesen@jubiipost.dk> skrev i en meddelelse
news:3f7a0416$0$32444$edfadb0f@dread16.news.tele.dk...

> Har ATI nået toppen for, hvad de kan præstere ?

Næppe, måske med denne core, men ellers næppe.

> Er det mon utænkeligt, vi vil se Nvidias kommende NV38
> som den GPU, som atter viser Nvidias overlegenhed, teknisk set,
> og een gang for alle slå fast, at Nvidia er kongen ???

Det er ikke 'utænkeligt'. Men det vi ser for tiden er at de to konkurerende
producenter holder hinanden på tæerne og får produceret bedre og bedre kort
til glæde for os forbrugere. Så hurra for konkurencen og grafikkort
markedet.

Så hvad skal den type "religionskrig" med at bitche en af producenterne gøre
godt for ?

Sålænge begge producenter har kort som kan 'true' og konkurrere med hinanden
vil der blive satset hårdt på at fremstille nye konkurrerende og dominerende
kort. Så min "religion" i denne forbindelse går da på at "bede til" at begge
producenter vil have "ånden" over sig og være med i sprinten mod målet om
det dominerende kort.

TBC
- Som selv pt. sidder med et FX5900




Olesen (01-10-2003)
Kommentar
Fra : Olesen


Dato : 01-10-03 16:04


"TBC" <-sutmin@2night.dk> skrev i en meddelelse
news:3f7ab84a$0$22677$d40e179e@nntp02.dk.telia.net...
> "Olesen" <olesen@jubiipost.dk> skrev i en meddelelse
> news:3f7a0416$0$32444$edfadb0f@dread16.news.tele.dk...
>
> > Har ATI nået toppen for, hvad de kan præstere ?
>
> Næppe, måske med denne core, men ellers næppe.

R420'eren bør virkelig komme til at skulle sparke røv,
hvis ATI vil være med helt i toppen fremover.
For de beskedne ydelsesboost vi har set fra 9700PRO
til 9800PRO og senest fra 9800PRO til 9800XT tyder på,
de har presset citronen tilstrækkelig meget. Selv varmen
begynder så småt at nage ATI, specielt 9800XT blir'
meget varm. Og alligevel køres der med betydelig
lavere frekvenser i mekanikken end eks. Nvidia's 5900ultra.
Tænk på, at R360'eren, som er ATI's nyeste skud, ikke
er nogen revolution, for at citere et testhold, så er
Nvidia klar med en NV38 meget snart, som siges at vil være
et mærkbar forbedring iforhold til 5900ultra.
Og så vil NV40'eren komme meget hurtig, så hvis
ikke ATI for frekvensen i vejret, så er deres fornuftige
grafikrutiner ikke meget værd.

> > Er det mon utænkeligt, vi vil se Nvidias kommende NV38
> > som den GPU, som atter viser Nvidias overlegenhed, teknisk set,
> > og een gang for alle slå fast, at Nvidia er kongen ???
>
> Det er ikke 'utænkeligt'. Men det vi ser for tiden er at de to
konkurerende
> producenter holder hinanden på tæerne og får produceret bedre og bedre
kort
> til glæde for os forbrugere. Så hurra for konkurencen og grafikkort
> markedet.

Ja. Den er guld værd.


> Så hvad skal den type "religionskrig" med at bitche en af producenterne
gøre
> godt for ?


Spørg ATI's markedsføringsafdeling.


> Sålænge begge producenter har kort som kan 'true' og konkurrere med
hinanden
> vil der blive satset hårdt på at fremstille nye konkurrerende og
dominerende
> kort. Så min "religion" i denne forbindelse går da på at "bede til" at
begge
> producenter vil have "ånden" over sig og være med i sprinten mod målet om
> det dominerende kort.

Enig. Men jeg hygger mig stadig gevaldigt over alle dem
som har vist Nvidia rygge på det sidste, uden at ta' hensyn til,
at efter en NV35, så kommer en NV38 og senere en NV40.



Morten Holberg Niels~ (01-10-2003)
Kommentar
Fra : Morten Holberg Niels~


Dato : 01-10-03 17:24


"Olesen" <olesen@jubiipost.dk> skrev i en meddelelse
news:3f7aed04$0$24663$edfadb0f@dread14.news.tele.dk...
>
> "TBC" <-sutmin@2night.dk> skrev i en meddelelse
> news:3f7ab84a$0$22677$d40e179e@nntp02.dk.telia.net...
> > "Olesen" <olesen@jubiipost.dk> skrev i en meddelelse
> > news:3f7a0416$0$32444$edfadb0f@dread16.news.tele.dk...
> >
> > > Har ATI nået toppen for, hvad de kan præstere ?
> >
> > Næppe, måske med denne core, men ellers næppe.
>
> R420'eren bør virkelig komme til at skulle sparke røv,
> hvis ATI vil være med helt i toppen fremover.
> For de beskedne ydelsesboost vi har set fra 9700PRO
> til 9800PRO og senest fra 9800PRO til 9800XT tyder på,
> de har presset citronen tilstrækkelig meget. Selv varmen
> begynder så småt at nage ATI, specielt 9800XT blir'
> meget varm. Og alligevel køres der med betydelig
> lavere frekvenser i mekanikken end eks. Nvidia's 5900ultra.
> Tænk på, at R360'eren, som er ATI's nyeste skud, ikke
> er nogen revolution, for at citere et testhold, så er
> Nvidia klar med en NV38 meget snart, som siges at vil være
> et mærkbar forbedring iforhold til 5900ultra.
> Og så vil NV40'eren komme meget hurtig, så hvis
> ikke ATI for frekvensen i vejret, så er deres fornuftige
> grafikrutiner ikke meget værd.

Lad mig gætte... Du læser kun Onkel Toms Hardware?

Du er klart farvet i retning af Nvidia. Hvad med at holde sig til facts og
ikke hvad du ønsker skulle være facts?

Det andet ødelægger diskussionen.

--
Mvh
Morten Holberg Nielsen

In an interstelaaarrr buuuurrssst im baaack to saaaveeee the uuuunivereerse!



Olesen (01-10-2003)
Kommentar
Fra : Olesen


Dato : 01-10-03 18:46


"Morten Holberg Nielsen" <holberg19@ DELETETHIS ofir.dk> skrev i en
meddelelse news:3f7affa1$0$48889$edfadb0f@dtext02.news.tele.dk...

> Lad mig gætte... Du læser kun Onkel Toms Hardware?
>
> Du er klart farvet i retning af Nvidia. Hvad med at holde sig til facts og
> ikke hvad du ønsker skulle være facts?
>

Sålænge der er stor grad af hold i det jeg skriver,
og ikke noget jeg "håber på", så kan du kalde
det farvet eller ej. Det jeg skriver er en vurdering
jeg har foretaget, ud fra de tests jeg er kommet forbi.
Og jeg er da ikke ræd for at sige, at Nvidia
vitterlig ikke har været for heldig på det sidste..
samtidig at nævne, at ATI ikke sparker særlig
meget røv med deres 0.15 teknik.
Det er jo lige før det er mere interessanat
at se, hvad der sker med 9600XT kortet.

Du vil vil eks. ikke benægte, at 0.15 teknikken
er aldrende og ikke kan presses særligt meget mere ?

Hvis du alligevel gør, så forklar venligst hvorfor.



Anders Albrechtsen (01-10-2003)
Kommentar
Fra : Anders Albrechtsen


Dato : 01-10-03 21:24


"Olesen" <olesen@jubiipost.dk> wrote in message
news:3f7b12ff$0$32544$edfadb0f@dread16.news.tele.dk...
>
> "Morten Holberg Nielsen" <holberg19@ DELETETHIS ofir.dk> skrev i en
> meddelelse news:3f7affa1$0$48889$edfadb0f@dtext02.news.tele.dk...
>
> > Lad mig gætte... Du læser kun Onkel Toms Hardware?
> >
> > Du er klart farvet i retning af Nvidia. Hvad med at holde sig til facts
og
> > ikke hvad du ønsker skulle være facts?
> >
>
> Sålænge der er stor grad af hold i det jeg skriver,
> og ikke noget jeg "håber på", så kan du kalde
> det farvet eller ej. Det jeg skriver er en vurdering
> jeg har foretaget, ud fra de tests jeg er kommet forbi.

Så har du efter min mening valgt at være særdeles selektiv. Fakta peger i en
helt anden retning, end den du håber på.

> Og jeg er da ikke ræd for at sige, at Nvidia
> vitterlig ikke har været for heldig på det sidste..
> samtidig at nævne, at ATI ikke sparker særlig
> meget røv med deres 0.15 teknik.

Ikke sparker røv? ATI fejer da alle nVidia's kort fuldstændigt af banen i
alt der lugter bare en anelse af DX9.

>snip<

> Du vil vil eks. ikke benægte, at 0.15 teknikken
> er aldrende og ikke kan presses særligt meget mere ?

>snip<

Det er da komplet irrelevant. ATI laver et skifte til mindre
micronteknologi, når det bliver nødvendigt. Lige nu er det ikke nødvednigt,
fordi deres nuværende teknologi er hurtigere.
---
Anders



Morten Holberg Niels~ (02-10-2003)
Kommentar
Fra : Morten Holberg Niels~


Dato : 02-10-03 00:17


"Olesen" <olesen@jubiipost.dk> skrev i en meddelelse
news:3f7b12ff$0$32544$edfadb0f@dread16.news.tele.dk...
>
> "Morten Holberg Nielsen" <holberg19@ DELETETHIS ofir.dk> skrev i en
> meddelelse news:3f7affa1$0$48889$edfadb0f@dtext02.news.tele.dk...
>
> > Lad mig gætte... Du læser kun Onkel Toms Hardware?
> >
> > Du er klart farvet i retning af Nvidia. Hvad med at holde sig til facts
og
> > ikke hvad du ønsker skulle være facts?
> >
>
> Sålænge der er stor grad af hold i det jeg skriver,
> og ikke noget jeg "håber på", så kan du kalde
> det farvet eller ej.

Jeg har læst trådene grundigt igennem. Der er i en stor del af det du
skriver mangel på basal viden og din diskussionsteknik mildest talt mystisk.

Din farvning i retning af Nvidia påviser tydeligt -ikke mindst med baggrund
i dine svar de sidste 12 timer- at du er urokkelig i dine forestillinger.
Samtidig er du ikke det mindste bange for at lave antagelse på antagelse,
som du derefter fremstiller som uomtvistelige argumenter. Disse er alene
begrundet på "noget du tror" og ikke på facts, som er tilgængelige for
almindelige mennesker.

>Det jeg skriver er en vurdering
> jeg har foretaget, ud fra de tests jeg er kommet forbi.
> Og jeg er da ikke ræd for at sige, at Nvidia
> vitterlig ikke har været for heldig på det sidste..
> samtidig at nævne, at ATI ikke sparker særlig
> meget røv med deres 0.15 teknik.
> Det er jo lige før det er mere interessanat
> at se, hvad der sker med 9600XT kortet.

Nå, de sparker PRÆCIST så meget røv at Nvidia intet har at skulle have sagt
på grafikmarkedet pt, hvis du spørger langt de fleste med teknisk indsigt.

Men det tæller måske ikke hvis det drejer sig om 0.15 teknik?

> Du vil vil eks. ikke benægte, at 0.15 teknikken
> er aldrende og ikke kan presses særligt meget mere ?

Nu er jeg ikke kortudvikler. Jeg ved ikke hvor meget det er muligt, inden
for givne grænser at presse 0.15 tekninkken. Det ved du givetvis heller ikke
særlig meget om. Om muligt noget som helst.
Hvad jeg -og du velsagtens også ved- er, at teknikken som nævnt én gang
tidligere, er god nok til at være i førertrøjen på grafikkortmarkedet pt.
Det er vel incitament nok til at holde fast så længe som muligt.

--
Mvh
Morten Holberg Nielsen

In an interstelaaarrr buuuurrssst im baaack to saaaveeee the uuuunivereerse!



Peter Pan (02-10-2003)
Kommentar
Fra : Peter Pan


Dato : 02-10-03 21:47

"Olesen" <olesen@jubiipost.dk> skrev i en meddelelse
news:3f7b12ff$0$32544$edfadb0f@dread16.news.tele.dk...
> Og jeg er da ikke ræd for at sige, at Nvidia
> vitterlig ikke har været for heldig på det sidste..
> samtidig at nævne, at ATI ikke sparker særlig
> meget røv med deres 0.15 teknik.

ATI har pt kronen på grafikkort markedet. Og det er med 0.15 teknik. Det
siger da bare at Nvidia ikke er særlig god til at udnytte deres 0.13 - eller
at ATI er geniale med deres 0.15.

> Det er jo lige før det er mere interessanat
> at se, hvad der sker med 9600XT kortet.

Det er selvfølgelig mere interessant - da der vil blive solgt lang flere
9600XT kort end 9800XT kort!

> Du vil vil eks. ikke benægte, at 0.15 teknikken
> er aldrende og ikke kan presses særligt meget mere ?
>
> Hvis du alligevel gør, så forklar venligst hvorfor.

Hvis jeg havde spurgt dig om hvor langt Intel vil tage 0.18 mikron
teknologien da Intel lige havde trukket deres 1133 MHz Pentium3 processor
tilbage, hvad havde du så svaret?

Intel kunne trække 2 GHz Pentium4'ere ud af 0.18 micron. De kunne dog ikke
komme højere end 1,1 GHz med selv samme teknologi på deres Pentium3. Det
viser vel tydeligt at man sagtens kan få mere ud af noget der ser ud til at
have nået toppen.

Mvh
Anders



Olesen (03-10-2003)
Kommentar
Fra : Olesen


Dato : 03-10-03 16:43


"Peter Pan" <.@anders.dk> skrev i en meddelelse
news:bli2k1$pha$1@sunsite.dk...

> ATI har pt kronen på grafikkort markedet. Og det er med 0.15 teknik. Det
> siger da bare at Nvidia ikke er særlig god til at udnytte deres 0.13 -
eller
> at ATI er geniale med deres 0.15.

Nvidia har problemer af ps2 lign. art, har ikke noget med
fremstillingsprocesser at gøre ?

> Hvis jeg havde spurgt dig om hvor langt Intel vil tage 0.18 mikron
> teknologien da Intel lige havde trukket deres 1133 MHz Pentium3 processor
> tilbage, hvad havde du så svaret?


En anden debat, som slet ikke besvarer det simple spørgsmål om,
hvorfor ATI kun øger freq. med 32 mhz..



Joe Sandøe (01-10-2003)
Kommentar
Fra : Joe Sandøe


Dato : 01-10-03 17:45


"Olesen" <olesen@jubiipost.dk> wrote in message
news:3f7aed04$0$24663$edfadb0f@dread14.news.tele.dk...
>
> "TBC" <-sutmin@2night.dk> skrev i en meddelelse
-SNIP-
> > Sålænge begge producenter har kort som kan 'true' og konkurrere med
> hinanden
> > vil der blive satset hårdt på at fremstille nye konkurrerende og
> dominerende
> > kort. Så min "religion" i denne forbindelse går da på at "bede til" at
> begge
> > producenter vil have "ånden" over sig og være med i sprinten mod målet
om
> > det dominerende kort.
>
> Enig. Men jeg hygger mig stadig gevaldigt over alle dem
> som har vist Nvidia rygge på det sidste, uden at ta' hensyn til,
> at efter en NV35, så kommer en NV38 og senere en NV40.
>
Øøøøh det billigste ATI 9800Pro koster stadig 800-900 kr mindre end det
billigste GeForce 5900Ultra. Så i forhold til pris/ydelse inden for de dyre
kort, er 9800Pro et ganske godt køb. Ang. at vise nogen ryggen, så har
GeForce før lanceringen af 5900 kortene også haft nogle teknikske problemer
med 5800 kortet, hvor ATI's 9700Pro havde været på market i lang tid.
Ligeså er det da med Intel og AMD - på forskellige tidspunkter har de nogle
skiftesvis nogle gode processorer på marked. Jeg kan helt tilslutte mig TBC,
med at det er til vores bedste.
VH Joe




Olesen (01-10-2003)
Kommentar
Fra : Olesen


Dato : 01-10-03 18:55


"Joe Sandøe" <from_heaven@hell.dk> skrev i en meddelelse
news:blf09n$2nna$1@news.cybercity.dk...

> Øøøøh det billigste ATI 9800Pro koster stadig 800-900 kr mindre end det
> billigste GeForce 5900Ultra. Så i forhold til pris/ydelse inden for de
dyre
> kort, er 9800Pro et ganske godt køb.


Har du tænkt på, visse kort kan være bundled
med ekstra software, som kan gøre kortet
lidt mere interessant et det andet ?
Men ja, Nvidia har altid været lidt dyrere
selvom forskellen synes mere udlignet.


> Ang. at vise nogen ryggen, så har
> GeForce før lanceringen af 5900 kortene også haft nogle teknikske
problemer
> med 5800 kortet, hvor ATI's 9700Pro havde været på market i lang tid.

Netop støjniveauet var det helt store samtaleemne, ja.
Ydelsen var bedre end både TI42,46 og 4800, så
rent roadmap-mæssigt tror jeg det var som det sku' være.
Er dog godt klar over, TI-serien har været rigtig godt med her
på det sidste, hvor Pixel-performancen har været lidt ringe i FX-serien.
Men indrømmet, 9700/pro var et suverænt kort da det kom frem,
og klarer sig overraskende flot sammenlignet med ATI's nyeste.
ATI's udvikling har næsten stået stille siden 9700 kom frem.


> Ligeså er det da med Intel og AMD - på forskellige tidspunkter har de
nogle
> skiftesvis nogle gode processorer på marked. Jeg kan helt tilslutte mig
TBC,
> med at det er til vores bedste.


Jeg mener, uden at være helt sikker, at Nvidia har en kortere
roadmap end ATI. Nvidia har vidst 6 måneder mellem hver
fornyelse, husker ikke ATI's, men mener, no offense, den er lidt længere.



Michael Skarum (01-10-2003)
Kommentar
Fra : Michael Skarum


Dato : 01-10-03 19:03

> Enig. Men jeg hygger mig stadig gevaldigt over alle dem
> som har vist Nvidia rygge på det sidste, uden at ta' hensyn til,
> at efter en NV35, så kommer en NV38 og senere en NV40.

Hvis man har den holdning får man jo aldrig nogen sinde købt et nyt
grafikkort! Jeg skulle bruge et grafikkort nu, og der var et ATI baseret det
eneste på markedet der levede op til mine krav. Det kan godt være at nVidia
kommer med et kort om 2 måneder eller 6 måneder som lever op til disse krav,
men det kan jeg ikke bruge til noget nu.



Olesen (01-10-2003)
Kommentar
Fra : Olesen


Dato : 01-10-03 19:39


"Michael Skarum" <michael_sletmig@skarum.net> skrev i en meddelelse
news:3f7b1648$0$97237$edfadb0f@dread12.news.tele.dk...
> > Enig. Men jeg hygger mig stadig gevaldigt over alle dem
> > som har vist Nvidia rygge på det sidste, uden at ta' hensyn til,
> > at efter en NV35, så kommer en NV38 og senere en NV40.
>
> Hvis man har den holdning får man jo aldrig nogen sinde købt et nyt
> grafikkort!

Håber også mit Asus TI4200 128 mb kan holde min tid ud,
forstået på den måde, at jeg kan vente til PCI Express er standard,
Bundkortene KUN har S-ATA stik, og floppycontrolleren er væk
og DVD-r/rw har blue-ray..





Anders Albrechtsen (01-10-2003)
Kommentar
Fra : Anders Albrechtsen


Dato : 01-10-03 21:19


"Olesen" <olesen@jubiipost.dk> wrote in message
news:3f7aed04$0$24663$edfadb0f@dread14.news.tele.dk...
>
> "TBC" <-sutmin@2night.dk> skrev i en meddelelse
> news:3f7ab84a$0$22677$d40e179e@nntp02.dk.telia.net...
> > "Olesen" <olesen@jubiipost.dk> skrev i en meddelelse
> > news:3f7a0416$0$32444$edfadb0f@dread16.news.tele.dk...
> >
> > > Har ATI nået toppen for, hvad de kan præstere ?
> >
> > Næppe, måske med denne core, men ellers næppe.
>
> R420'eren bør virkelig komme til at skulle sparke røv,
> hvis ATI vil være med helt i toppen fremover.
> For de beskedne ydelsesboost vi har set fra 9700PRO
> til 9800PRO og senest fra 9800PRO til 9800XT tyder på,
> de har presset citronen tilstrækkelig meget. Selv varmen
> begynder så småt at nage ATI, specielt 9800XT blir'
> meget varm. Og alligevel køres der med betydelig
> lavere frekvenser i mekanikken end eks. Nvidia's 5900ultra.

Det sludder tror du da ikke engang selv på?

> Tænk på, at R360'eren, som er ATI's nyeste skud, ikke
> er nogen revolution, for at citere et testhold, så er
> Nvidia klar med en NV38 meget snart, som siges at vil være
> et mærkbar forbedring iforhold til 5900ultra.

Der tager du fejl. Læs her
http://www.anandtech.com/video/showdoc.html?i=1890. NV38 er blot et højere
clocket GeForceFX 5900 Ultra, med de samme svagheder mht. FP ydelse i DX9.

> Og så vil NV40'eren komme meget hurtig, så hvis
> ikke ATI for frekvensen i vejret, så er deres fornuftige
> grafikrutiner ikke meget værd.

De kommer først til foråret. Som tidligere nævnt betyder clockhastigheden
ikke så meget længere, idet tendensen er, at GPU'erne får flere og flere
programmerbare floating point enheder, der kan fortage mange operationer per
clockcycle. Der er i øvrigt, endnu ubekræftede, rygter fremme om, at ATI
springer en generation over og kommer med et nyt kort der bygger på .9 eller
..11 micron teknologi

> > Så hvad skal den type "religionskrig" med at bitche en af producenterne
> gøre
> > godt for ?
>
>
> Spørg ATI's markedsføringsafdeling.

Det er da ikke ATI man kan klandre for dette. Sagen er den, at nVidia er
gentagne gange er blevet taget i snyd, hvorfor store dele af branchen har
meget lidt til overs for dem lige nu. Det gælder både hardwareproducenter,
websites og softwareudviklere.

>snip<
---
Anders



Christian Spøer (01-10-2003)
Kommentar
Fra : Christian Spøer


Dato : 01-10-03 18:10

> Jeg har læst en del tests af ATI's nyeste Radeion 9800XT ("extended")
> grafikkort.
>
> Totalt set ser det ud til, at ydelsen er steget marginalt med ca. 5%, max
> 10%
> i visse tilfælde, pga. GPU og RAM frekvensen er skruet en smule i vejret.
> En simpel "overklocking" istedet for innovative idêer.

ATi har ikke blæret sig med innovative ideer. Bare en stærkere version af
den stærkeste på markedet. Men er det ikke sådan nVidia har gjort i snart
mange år med deres Ultra modeller? ;)

> Køleren er blevet meget mere massiv, kortet er set med 2 blæsere monteret.
> En temperatur på hele 60 grader er blevet målt, hvilket sku' være
> ret meget, specielt i ATI-regi. De største forskelle i ændringerne
> på GPU'en sku' være, de har omarrangeret nogle komponenter,
> simpelthen for bedre at komme af med varmen...

Den er ikke blevet mere passiv, den er blevet intelligent. Ligesom lownoise
kølere. Overvåger sig selv, og justerer ydelsen efter varmen. Sådan har
nVidia vist gjort med FX5900 Ultra i et stykke tid. Og jeg behøver næsten
ikke at kommentere, at 5900'eren lød som en støvsuger indtil den fik
intelligent styring af køleren, vel?
Omarrangeringen kommer kun os til gode, da kortet i så fald oc'er lettere
end 9800Pro. Varmen kommer jo væk hurtigere.

> Den kommende Catalyst 3.8 driver sku' indeholde en overclocking-
> funktion, som konstant måler kernens temperatur via en indbygget
> føler på GPU'en, og dermed dynamisk kunne skrue op og ned for den
> "automatiske overclockingfunktion". Netop dêrfor den ekstra
> køler er nødvendig. Hvorfor ikke ha' denne mulighed koblet
> til permanent hvis den er så effektiv ???????

Igen er det et trick, der er set hos nVidia i deres FX5900 Ultra, der kører
"sløvt" i 2D og højt i 3D. Så vidt jeg ved har ASUS haft det på et par af
deres nyere nVidia kort.

> Konklusionen på alle de tests der florerer er, at 9800XT ikke
> er et kvantespring på grafikkortområdet, og de alle med spænding
> venter på, Catalyst 3.8 blir' frigivet. Flere testhold undrer sig også
over,
> hvorfor ATI smider et kort på markedet, uden dens max egenskaber
> kommer til sin ret, vha. Catalyst 3.8 overclock-muligheden...De
> ligefrem anbefaler en 9800Pro 256 mb kort istedet, da 9800XT
> vil blive MEGET kostbar...måske endda dyrere end
> Nvidias kommende NV38'er,-en overclocket 9800pro larmer mindre,
> yder det samme til en meget lavere pris...

9800XT skulle heller ikke være ment som et kvantespring. Men endnu en lille
lussing til nVidia. Og hvis ATi kan slå nVidia uden optimeret software, så
kan nVidia kun få kvalme af at tænke på, hvad der så sker når deres nye
driver bliver frigivet.

> Frekvensen har ATI fået skruet op til 412 Mhz, Nvidia's
> FX serie har kørt med 500 i rigtig lang tid.
> Iøvrigt sjovt, at ATI's mid-range kort har
> mere moderne arkitektur på visse områder, bla.
> hurtigere core-hastighed og 0.13 micron-teknik..måske
> derfor, R360'eren (igen) blot er en opdateret R350'er (9800).

Og nVidias FX er jo bygget på 0.13 micron mod ATi's 0,15 micron. Så det kan
umuligt undre dig, at nVidias kort kører høje hastighed. Men er det
alligevel ikke ATi der ejer den gule førertrøje?
Og det er overhoved ikke "mere moderne" at have højere hastighed, det er
bare et udtryk for at have en mindre processor (die), der bruger mindre
strøm, og derfor kan tåle høj hastighed.

> Har ATI nået toppen for, hvad de kan præstere ?
> Er det mon utænkeligt, vi vil se Nvidias kommende NV38
> som den GPU, som atter viser Nvidias overlegenhed, teknisk set,
> og een gang for alle slå fast, at Nvidia er kongen ???

"Atter viser"? Hvornår er det lige nVidia sidst har kunnet give ATi røvfuld?
Og så har nVidia vist aldrig været særligt teknisk overlegen, når ATi har
kunnet iføre sig førertrøjen med lavere hastighed på GPU'en! Kongen?! Må jeg
være fri.

> Jeg ser det sådan, at ATI har nogle supersunde grafiske
> egenskaber rent kodemæssigt, forstået på den måde,
> der spares meget regnekraft, fordi de har nogle fornuftige
> rutiner til at beregne grafikken, hvorimod Nvidia
> har og er uheldig med eks. PixelShader 2.0, men er
> tekniske overlegne, og vil komme "tilbage" med
> sådan en kraft, ATI kommer til at stå i skyggen igen.

Det er da også den smarte måde at gøre det på! Det er meget ufedt at være
stærk, hvis man er usmidig. Prøv at se nVidias muligheder for at køre andet
end DirectX8, Quake og Wolfenstein! De er ikke eksisterende. Jovist det er
et stærkt kort, det gode FX5900 Ultra. Men kan det bruge kræfterne til
noget? Lige så snart du vil spille i DirectX9 er du på skideren.

> Glæder mig vildt meget til at se kommende FX5950
> mod 9800XT...

Da FX5950 vil blive en opdatering fra FX5900 som 9800XT har været det fra
9800Pro, vil jeg forudsige ydelsesforbedringer på ca. samme niveau som vi
har set med ATi nu. Altså stadigt en masse kræfter, og fraværende ydelse i
DirectX9.



Olesen (01-10-2003)
Kommentar
Fra : Olesen


Dato : 01-10-03 19:29


"Christian Spøer" <christian_spoer@hotmail.com> skrev i en meddelelse
news:3f7b0a48$0$24664$edfadb0f@dread14.news.tele.dk...

> ATi har ikke blæret sig med innovative ideer.

De har nævnt højt og helligt, at netop 9800XT sku'
være SÅ meget bedre at klokke end et 9800PRO.
9700pro'en er iøvrigt stadig den bedst af alle at klokke på,
ikke sært, da 9800pro samt nu 9800XT har nået grænsen
for, hvad de kan presse ud af den aldrende 0.15 teknik.


> Bare en stærkere version af
> den stærkeste på markedet. Men er det ikke sådan nVidia har gjort i snart
> mange år med deres Ultra modeller? ;)

Nvidia foretog kvantespring før, men trinnene til toppen
er blevet mindre, ja.


> > Køleren er blevet meget mere massiv, kortet er set med 2 blæsere
monteret.
> > En temperatur på hele 60 grader er blevet målt, hvilket sku' være
> > ret meget, specielt i ATI-regi. De største forskelle i ændringerne
> > på GPU'en sku' være, de har omarrangeret nogle komponenter,
> > simpelthen for bedre at komme af med varmen...
>
> Den er ikke blevet mere passiv, den er blevet intelligent.

Jeg skrev også massiv. Forstået på den måde, at der nu
er køleprofil både foran og bagpå kortet og i lang større
masse end hidtil set. Kortet er meget tungere.

> Ligesom lownoise
> kølere. Overvåger sig selv, og justerer ydelsen efter varmen. Sådan har
> nVidia vist gjort med FX5900 Ultra i et stykke tid. Og jeg behøver næsten
> ikke at kommentere, at 5900'eren lød som en støvsuger indtil den fik
> intelligent styring af køleren, vel?

Det var faktisk den nu udgåede FX5800 som støjede, og
også kun når den blev belastet, men modsat ATI, så kørte
blæseren hurtig bare der var 3D på menuen, ATI starter
kun når varmen blir' for høj, og det er okay.
Tests har vist, at Nvidias kort generelt er mere støjsvage
end typiske modeller fra ATI, hvilket kommer bag på mange,
når man har FX5800'eren in mind.

http://www.hardwaretidende.dk/hard/artikel/03/07/15/6415531


> > Den kommende Catalyst 3.8 driver sku' indeholde en overclocking-
> > funktion, som konstant måler kernens temperatur via en indbygget
> > føler på GPU'en, og dermed dynamisk kunne skrue op og ned for den
> > "automatiske overclockingfunktion". Netop dêrfor den ekstra
> > køler er nødvendig. Hvorfor ikke ha' denne mulighed koblet
> > til permanent hvis den er så effektiv ???????
>
> Igen er det et trick, der er set hos nVidia i deres FX5900 Ultra, der
kører
> "sløvt" i 2D og højt i 3D. Så vidt jeg ved har ASUS haft det på et par af
> deres nyere nVidia kort.

Nej. Nvidia har ingen indbygget dynamisk overklokking funktion.
Dette er unikt for ATI 9800XT. Du tænker på cpu-blæseren ?


> 9800XT skulle heller ikke være ment som et kvantespring. Men endnu en
lille
> lussing til nVidia. Og hvis ATi kan slå nVidia uden optimeret software, så
> kan nVidia kun få kvalme af at tænke på, hvad der så sker når deres nye
> driver bliver frigivet.

Alle regnede med, at RADEON 9800PRO/256 mb sku'
afløses af noget der hed RADEION 9900pro, og som
virkelig sku' sparke røv og sætte Nvidia til vægs for alvor,
og vise, ATI er mærket for fremtiden.
...man snakker dog om en forøgelse på ca. 5-10 procent
når det går bedst, men FX5900 er alligevel betydelig
hurtigere i eks. OpenGL. Noget ATI ikke har fået
skruet ordentlig sammen på samme måde, som
Nvidia har deres egen svage version af PS2.0. (næsten).


> > Frekvensen har ATI fået skruet op til 412 Mhz, Nvidia's
> > FX serie har kørt med 500 i rigtig lang tid.
> > Iøvrigt sjovt, at ATI's mid-range kort har
> > mere moderne arkitektur på visse områder, bla.
> > hurtigere core-hastighed og 0.13 micron-teknik..måske
> > derfor, R360'eren (igen) blot er en opdateret R350'er (9800).
>
> Og nVidias FX er jo bygget på 0.13 micron mod ATi's 0,15 micron. Så det
kan
> umuligt undre dig, at nVidias kort kører høje hastighed. Men er det
> alligevel ikke ATi der ejer den gule førertrøje?

Teknisk set ?
NEJ.
Shadermæssigt ?
JO. Det er kun pga. Nvidias dårlige shader-performance,
ATI ligger lunt i svinget.

Men det ER stadig nemmere at fixe en minor-bug
i shader-afdelingen, end gå fra 0.15 til 0.13 og få
det til at virke tilfredsstillende.


> Og det er overhoved ikke "mere moderne" at have højere hastighed, det er
> bare et udtryk for at have en mindre processor (die), der bruger mindre
> strøm, og derfor kan tåle høj hastighed.

Det handler om fart, uanset hvad, og derfor
skal der ny og kostbar udvikling til, og derfor
er 0.13 en nødvendighed for ATI i de dyreste kort,
da 0.15 ikke kan presses mere. (blir af samme grund
spændende at se, hvad "overdrive" funktionen kan
presse ud af saft når den frigives til november.

Der snakkes dog i krogene om, at de vil gå
direkte fra 0.15 til 0.09 hvilket er en sindsssyg tanke,
da de først nu har fået nogenlunde styr på
0.13 i de billige 9600 kort. I High-End
afdelingen tør de simpelthen ikke.


> > Har ATI nået toppen for, hvad de kan præstere ?
> > Er det mon utænkeligt, vi vil se Nvidias kommende NV38
> > som den GPU, som atter viser Nvidias overlegenhed, teknisk set,
> > og een gang for alle slå fast, at Nvidia er kongen ???
>
> "Atter viser"? Hvornår er det lige nVidia sidst har kunnet give ATi
røvfuld?

Okay. Men Nvidia har altså stadig markedsandelen som gir'
dem smør på brødet. Iøvrigt er Nvidia stadig ATI langt overlegen
når vi snakker professionelle kort som Quadro FX til industrien osv.


> Og så har nVidia vist aldrig været særligt teknisk overlegen, når ATi har
> kunnet iføre sig førertrøjen med lavere hastighed på GPU'en! Kongen?! Må
jeg
> være fri.

Igen, det er netop Nvidias svage PS ydelse som har kørt dem
i knæ, men i programmer, hvor Pixelshader brugen er begrænset,
så følger FX5900 trods alle odds Radeion 9800XT til dørs på
behagelig måde.
Læs det chokerende materiale her:

http://www.hardinfo.dk/show.asp?page=3546

Det ser iøvrigt ud som om, at Futuremarks 2003 benchmark-program
er sat lidt i skyggen af Aquamark3 som sku' være mere
"real-game agtigt" og ikke så syntetisk.
Det sjov er faktisk, at Nvidia FX5900 klarer sig ganske godt
her, stik modsat af hvad man sku' forvente, da der må være gjort
brug af en del PixelShader 2.0 i det ganske nye og moderne og
mere og mere brugte Aquamark3 testprogram.

http://www.hardinfo.dk/show.asp?page=3547

> > Jeg ser det sådan, at ATI har nogle supersunde grafiske
> > egenskaber rent kodemæssigt, forstået på den måde,
> > der spares meget regnekraft, fordi de har nogle fornuftige
> > rutiner til at beregne grafikken, hvorimod Nvidia
> > har og er uheldig med eks. PixelShader 2.0, men er
> > tekniske overlegne, og vil komme "tilbage" med
> > sådan en kraft, ATI kommer til at stå i skyggen igen.
>
> Det er da også den smarte måde at gøre det på! Det er meget ufedt at være
> stærk, hvis man er usmidig.

Hvis ikke du har styrken i hardwaren tilstede,
så er det eet fedt at du er god andre steder, da
den tekniske begrænsning er svær at lave op på
sådan pludselig. Måske derfor ATI er langsomme
med at føre 0.13 over i high-end afdelingen.


> Prøv at se nVidias muligheder for at køre andet
> end DirectX8, Quake og Wolfenstein! De er ikke eksisterende. Jovist det er
> et stærkt kort, det gode FX5900 Ultra. Men kan det bruge kræfterne til
> noget? Lige så snart du vil spille i DirectX9 er du på skideren.

Jep. De HAR et problem, indrømmet, men totalt
set ser jeg stadig Nvidia som overlegne, hvis
bare de ikke havde den der F...... PS2.0 lag...


> > Glæder mig vildt meget til at se kommende FX5950
> > mod 9800XT...
>
> Da FX5950 vil blive en opdatering fra FX5900 som 9800XT har været det fra
> 9800Pro, vil jeg forudsige ydelsesforbedringer på ca. samme niveau som vi
> har set med ATi nu. Altså stadigt en masse kræfter, og fraværende ydelse i
> DirectX9.

Jeg er også spændt på tacklingen af deres største problem pt.



iddqdATworldonline.d~ (01-10-2003)
Kommentar
Fra : iddqdATworldonline.d~


Dato : 01-10-03 23:44

Olesen wrote:

> Tests har vist, at Nvidias kort generelt er mere støjsvage
> end typiske modeller fra ATI, hvilket kommer bag på mange,
> når man har FX5800'eren in mind.
>
> http://www.hardwaretidende.dk/hard/artikel/03/07/15/6415531

Man kan vist dårligt kalde det en repræsentativ test, de har 3 ATI
basserede kort og 15 Nvidia basserede kort.

Forøvrigt er det også helt hen i vejret at angive dB målinger i en graf,
uden at tage højde for hvad en reelle forskel er på fx. 30 og 40 db. Men
det er jo en helt anden sag.

Og deres konklusion er da også forkert, da der jo som bekendt findes ATI
basserede kort der er passivt kølet kig bare her:

http://www.sapphiretech.com/vga/9700proult.asp

Godt nok kun et 9700 Pro, men det er også bare ment som et eksempel.

Mvh

Bruno


Michael Skarum (02-10-2003)
Kommentar
Fra : Michael Skarum


Dato : 02-10-03 15:55

> Og deres konklusion er da også forkert, da der jo som bekendt findes ATI
> basserede kort der er passivt kølet kig bare her:
>
> http://www.sapphiretech.com/vga/9700proult.asp
>
> Godt nok kun et 9700 Pro, men det er også bare ment som et eksempel.

Og der findes også 9800PRO og 9600PRO med passiv køling. Har selv
sidstnævnte, og det virker upåklageligt



Anders Albrechtsen (01-10-2003)
Kommentar
Fra : Anders Albrechtsen


Dato : 01-10-03 20:48


"Olesen" <olesen@jubiipost.dk> wrote in message
news:3f7a0416$0$32444$edfadb0f@dread16.news.tele.dk...
> Jeg har læst en del tests af ATI's nyeste Radeion 9800XT ("extended")
> grafikkort.
>
> Totalt set ser det ud til, at ydelsen er steget marginalt med ca. 5%, max
> 10%
> i visse tilfælde, pga. GPU og RAM frekvensen er skruet en smule i vejret.
> En simpel "overklocking" istedet for innovative idêer.

Det er ikke nødvednigt med innovative ideer, når man allerede er langt foran
den nærmeste konkurrent, hvad det angår.

> Køleren er blevet meget mere massiv, kortet er set med 2 blæsere monteret.
> En temperatur på hele 60 grader er blevet målt, hvilket sku' være
> ret meget, specielt i ATI-regi. De største forskelle i ændringerne
> på GPU'en sku' være, de har omarrangeret nogle komponenter,
> simpelthen for bedre at komme af med varmen...

Som mange andre allerede har sagt, er 60 grader altså ingenting. De gamle
Voodoo3 kort blev ofte helt op til 70 grader på GPU'en.

> Den kommende Catalyst 3.8 driver sku' indeholde en overclocking-
> funktion, som konstant måler kernens temperatur via en indbygget
> føler på GPU'en, og dermed dynamisk kunne skrue op og ned for den
> "automatiske overclockingfunktion". Netop dêrfor den ekstra
> køler er nødvendig. Hvorfor ikke ha' denne mulighed koblet
> til permanent hvis den er så effektiv ???????

Dumt spørgsmål.

> Konklusionen på alle de tests der florerer er, at 9800XT ikke
> er et kvantespring på grafikkortområdet, og de alle med spænding
> venter på, Catalyst 3.8 blir' frigivet. Flere testhold undrer sig også
over,
> hvorfor ATI smider et kort på markedet, uden dens max egenskaber
> kommer til sin ret, vha. Catalyst 3.8 overclock-muligheden...De
> ligefrem anbefaler en 9800Pro 256 mb kort istedet, da 9800XT
> vil blive MEGET kostbar...måske endda dyrere end
> Nvidias kommende NV38'er,-en overclocket 9800pro larmer mindre,
> yder det samme til en meget lavere pris...

Hvor har du læst, at nogel anbefler 9800 Pro 256 mb? Hvis nogen har
anbefalet det, aner de simpelthen ikke, hvad de taler om. Radeon 9800 Pro
256 mb har jo DDR2 RAM, som udvikler langt mere varme og har højere latency.
I en del spil yder det faktisk lavere end 128 mb versionen.

> Frekvensen har ATI fået skruet op til 412 Mhz, Nvidia's
> FX serie har kørt med 500 i rigtig lang tid.

Og? Mhz betyder ikke en snus.

> Har ATI nået toppen for, hvad de kan præstere ?

Nej.

> Er det mon utænkeligt, vi vil se Nvidias kommende NV38
> som den GPU, som atter viser Nvidias overlegenhed, teknisk set,
> og een gang for alle slå fast, at Nvidia er kongen ???

Nej det er ikke tænkeligt. NV38 er blot et GeForceFX 5900 Ultra Ultra, dvs.
et GeForce 5900 Ultra clocket 475/950 og med et nyt FlowFX kølesystem.
Kortet har stadig den samme 4x2 arkitektur, som betyder at det bliver
mørbanket af ATI's kort i alle DX9 applikationer.

> Jeg ser det sådan, at ATI har nogle supersunde grafiske
> egenskaber rent kodemæssigt, forstået på den måde,
> der spares meget regnekraft, fordi de har nogle fornuftige
> rutiner til at beregne grafikken, hvorimod Nvidia
> har og er uheldig med eks. PixelShader 2.0, men er
> tekniske overlegne, og vil komme "tilbage" med
> sådan en kraft, ATI kommer til at stå i skyggen igen.

Teknisk ovrlegen? Vorherre bevares. Nvidia valgte jo at gå egne veje, da
ATI, Microsoft og de andre ikke ville lade sig styre af deres ønsker, da DX9
specifikationeren skulle vedtages. Som sagerne er nu, er ATI overlegen hvad
DX9 grafik angår, derom kan der ikke herske nogen tvivl. Bevares, på papiret
understøtter NV3x kortene FP32 shader-instruktioner, men i praksis er GPUen
for langsom til at køre andet end FP16 eller FP12, hvilket er langt mindre
end DX9 specs som er FP24 (som ATI kører).

> Glæder mig vildt meget til at se kommende FX5950
> mod 9800XT...

Det kan du så se her: http://www.anandtech.com/video/showdoc.html?i=1890.
NV38 får prygl i alt hvad der bare lugter lidt af DX9, samt i hovedparten af
de andre tests. Anadtech konkluderer da også, at man bør vælge et ATI kort,
hvis man vil opgradere nu.
---
Anders.



Olesen (02-10-2003)
Kommentar
Fra : Olesen


Dato : 02-10-03 17:32


"Anders Albrechtsen" <noname@noplace.com> skrev i en meddelelse
news:acGeb.20$536.3727@news000.worldonline.dk...

> Det er ikke nødvednigt med innovative ideer, når man allerede er langt
foran
> den nærmeste konkurrent, hvad det angår.

Den der hviler på laurbærbladene...
Iøvrigt siger flere kilder, at 0.15 teknikken
for ATI's vedkommende ikke kan presses mere.


> Som mange andre allerede har sagt, er 60 grader altså ingenting. De gamle
> Voodoo3 kort blev ofte helt op til 70 grader på GPU'en.

Mig bekendt er det højt når vi snakker ATI som
ellers har kunnet nøjes med langt mindre...


> > Den kommende Catalyst 3.8 driver sku' indeholde en overclocking-
> > funktion, som konstant måler kernens temperatur via en indbygget
> > føler på GPU'en, og dermed dynamisk kunne skrue op og ned for den
> > "automatiske overclockingfunktion". Netop dêrfor den ekstra
> > køler er nødvendig. Hvorfor ikke ha' denne mulighed koblet
> > til permanent hvis den er så effektiv ???????
>
> Dumt spørgsmål.

Prøv at forklare alligevel ?
Hvis de permanent ku' ha' blot eks.
40 % af den fulde overclock, så ville
de ha' opnået endnu bedre performancehop
end det vi nu ser fra 9700pro og 9800pro.
Men ok, jeg er stensikker på, Overdrive
ikke vil gi' alverden, da kernen nok er
ganske tæt på max alligevel.


> Hvor har du læst, at nogel anbefler 9800 Pro 256 mb?


Næsten alle steder de har haft XT oppe mod
de andre i familien.
Og da især prisen som blir/er skyhøj
gør 9800Pro til et endnu bedre køb.


> Hvis nogen har
> anbefalet det, aner de simpelthen ikke, hvad de taler om. Radeon 9800 Pro
> 256 mb har jo DDR2 RAM, som udvikler langt mere varme og har højere
latency.
> I en del spil yder det faktisk lavere end 128 mb versionen.

Prisen er det afgørende.


> > Frekvensen har ATI fået skruet op til 412 Mhz, Nvidia's
> > FX serie har kørt med 500 i rigtig lang tid.
>
> Og? Mhz betyder ikke en snus.

Nej vel ikke sålænge man ikke kan vride
mere ud af en processteknisk aldrende konstruktion,
og konkurrenten snildt er i fuld gang med 0.13 på
high-end modellerne, så SKAL det jo pr. automatik,
bla. i ATI's marketingafdeling ikke betyde en snus, vel ?


> > Er det mon utænkeligt, vi vil se Nvidias kommende NV38
> > som den GPU, som atter viser Nvidias overlegenhed, teknisk set,
> > og een gang for alle slå fast, at Nvidia er kongen ???
>
> Nej det er ikke tænkeligt. NV38 er blot et GeForceFX 5900 Ultra Ultra,
dvs.
> et GeForce 5900 Ultra clocket 475/950 og med et nyt FlowFX kølesystem.
> Kortet har stadig den samme 4x2 arkitektur, som betyder at det bliver
> mørbanket af ATI's kort i alle DX9 applikationer.

4x2 arkitekturen viser sig at være en fordel,
jo mere avancerede spillene blir' med flere
multitextures i brug. Ældre spil benytter
ofte single texture, og de kommende spil
vil øge multitextures. Hvordan PixelShader 2.0
vil opføre sig er dog mere interessant.

Manden bag "Serious Sam" siger om dên sag:

"Just wanted to write a word or two regarding the issue raised couple of
days ago.
Seems like the whole Internet community wants to crucify nVidia about the
controversy
of how many rendering pipelines GeForceFX realy has. Is it 8 pipelines with
1 texture unit,
or 4 with 2, or ... uh... I don't know anymore. And it really DOESN'T matter
that much!
The only thing that matters is how fast and how good it can render pixels.
And both GeForceFX
and Radeon9700 are great products, the kind of hardware that developers long
for. So, personally,
I don't care much what's "under the hood".
Don't get me wrong, I am into 3D-graphic hardware, but this pipeline thing
really went out of proportion.
Number of pipelines is a good hardware information, and that's all there's
to it. It really doesn't need to
reflect the speed of the hardware directly. Come to think of it...
currently, there are no games that
utilize even 1/3rd of nifty features these two boards have.
Oh, before I forget... I'm not "nVidiot" (and I'm not "fanATIc", either).
I'm just a game developer
who wants good and fast technology for the future. And both ATI and nVidia
have it now!"


> > Jeg ser det sådan, at ATI har nogle supersunde grafiske
> > egenskaber rent kodemæssigt, forstået på den måde,
> > der spares meget regnekraft, fordi de har nogle fornuftige
> > rutiner til at beregne grafikken, hvorimod Nvidia
> > har og er uheldig med eks. PixelShader 2.0, men er
> > tekniske overlegne, og vil komme "tilbage" med
> > sådan en kraft, ATI kommer til at stå i skyggen igen.
>
> Teknisk ovrlegen? Vorherre bevares. Nvidia valgte jo at gå egne veje, da
> ATI, Microsoft og de andre ikke ville lade sig styre af deres ønsker, da
DX9
> specifikationeren skulle vedtages.

Den information KUNNE du ha' fået fra Valve, som iøvrigt
selv har sagt, der er store mangler og fejl i DirectX 9.
Så hvis vi ser bort fra deres uheldige shaderperformance,
så vinder Nvidia flertallet af tests.


> Som sagerne er nu, er ATI overlegen hvad
> DX9 grafik angår....

Når det kommer til afvikling af PS2.0 tunge ting, ja.


>derom kan der ikke herske nogen tvivl. Bevares, på papiret
> understøtter NV3x kortene FP32 shader-instruktioner, men i praksis er
GPUen
> for langsom til at køre andet end FP16 eller FP12, hvilket er langt mindre
> end DX9 specs som er FP24 (som ATI kører).

Ikke den hele sandhed. Se her:

"DX9 has what are called partial precision hints that indicate to the GPU
when
FP16 can be safely used without adversely impacting image quality. When
partial precision hints are passed to the GPU, nVidia has the advantage
since it only runs FP16 whereas ATI will continue to run at FP24. But in
cases where a minimum of
FP24 is required by a shader operation, the Radeon 9800 Pro will use its
FP24 precision
whereas the GeForceFX 5900 Ultra uses its more accurate, but more
processing-intensive FP32 precision. ""

Med andre ord, Nvidia er mere flexibel, og man kunne fristes til at sige,
at ATI ikke overholder DirectX 9 standarden, da de fortsætter med FP24
hvor FP16 iflg. spiludvikleren ville være rigeligt. Jeg er ikke klar over
ydelsesforskellen, men
det bør alligevel bemærkes, at ATI ikke følger DirectX 9's hints til punkt
og prikke.


> > Glæder mig vildt meget til at se kommende FX5950
> > mod 9800XT...
>
> Det kan du så se her: http://www.anandtech.com/video/showdoc.html?i=1890.
> NV38 får prygl i alt hvad der bare lugter lidt af DX9, samt i hovedparten
af
> de andre tests.

Hvordan hænger det sammen med følgende linjer, som er fundet
i dit ellers interessante link:

"Looking at the stats, ATI clearly wins in 6 games, NVIDIA wins in 4 games
and the two come very close in 5 games."

Det synes jeg så er okay af Nvidia, da de åbenbart stadig har deres
smertensbarn, den uheldige PS2.0, videre ført i NV38...
Tør ikke tænke på hvad der vil ske, når NV40 fårhåbentlig
får rette dette.



Anders Albrechtsen (02-10-2003)
Kommentar
Fra : Anders Albrechtsen


Dato : 02-10-03 20:42


"Olesen" <olesen@jubiipost.dk> wrote in message
news:3f7c534d$0$32536$edfadb0f@dread16.news.tele.dk...
>
> "Anders Albrechtsen" <noname@noplace.com> skrev i en meddelelse
> news:acGeb.20$536.3727@news000.worldonline.dk...
>
> > Det er ikke nødvednigt med innovative ideer, når man allerede er langt
> foran
> > den nærmeste konkurrent, hvad det angår.
>
> Den der hviler på laurbærbladene...
> Iøvrigt siger flere kilder, at 0.15 teknikken
> for ATI's vedkommende ikke kan presses mere.

Det er komplet ligegylding, så længe chippen yder bedre.

> > Som mange andre allerede har sagt, er 60 grader altså ingenting. De
gamle
> > Voodoo3 kort blev ofte helt op til 70 grader på GPU'en.
>
> Mig bekendt er det højt når vi snakker ATI som
> ellers har kunnet nøjes med langt mindre...

Det er irrelevant, så længe alt fungerer.

> > > Den kommende Catalyst 3.8 driver sku' indeholde en overclocking-
> > > funktion, som konstant måler kernens temperatur via en indbygget
> > > føler på GPU'en, og dermed dynamisk kunne skrue op og ned for den
> > > "automatiske overclockingfunktion". Netop dêrfor den ekstra
> > > køler er nødvendig. Hvorfor ikke ha' denne mulighed koblet
> > > til permanent hvis den er så effektiv ???????
> >
> > Dumt spørgsmål.
>
> Prøv at forklare alligevel ?
> Hvis de permanent ku' ha' blot eks.
> 40 % af den fulde overclock, så ville
> de ha' opnået endnu bedre performancehop
> end det vi nu ser fra 9700pro og 9800pro.
> Men ok, jeg er stensikker på, Overdrive
> ikke vil gi' alverden, da kernen nok er
> ganske tæt på max alligevel.

Indrømmet Overdrive virker som et marketingstunt, men jeg kan ikke se, at
det skulle være specielt problematisk. Som andre allerede har skrevet, har
bl.a. nVidia implementeret en lignende funktion på deres GeForceFX 5900
kort, hvor der clockes ned i 2D.

> > Hvor har du læst, at nogel anbefler 9800 Pro 256 mb?
>
>
> Næsten alle steder de har haft XT oppe mod
> de andre i familien.
> Og da især prisen som blir/er skyhøj
> gør 9800Pro til et endnu bedre køb.

Det kommer jo til at koste det samme, så hvordan kan de anbefale 9800 Pro
256 mb? Som jeg allerede har skrevet, bruger 9800 Pro 256 mb DDR2 RAM, som
der en række ulemper ved.

> > Hvis nogen har
> > anbefalet det, aner de simpelthen ikke, hvad de taler om. Radeon 9800
Pro
> > 256 mb har jo DDR2 RAM, som udvikler langt mere varme og har højere
> latency.
> > I en del spil yder det faktisk lavere end 128 mb versionen.
>
> Prisen er det afgørende.

Jamen så er 128 mb versionen da et langt bedre køb. Efter mine mening er
Radeon 9800 Pro 256 MB DDR2 ikke pengene værd. Modellen vil sikkert også
udgå, når Radeon 9800XT kommer.

> > > Frekvensen har ATI fået skruet op til 412 Mhz, Nvidia's
> > > FX serie har kørt med 500 i rigtig lang tid.
> >
> > Og? Mhz betyder ikke en snus.
>
> Nej vel ikke sålænge man ikke kan vride
> mere ud af en processteknisk aldrende konstruktion,
> og konkurrenten snildt er i fuld gang med 0.13 på
> high-end modellerne, så SKAL det jo pr. automatik,
> bla. i ATI's marketingafdeling ikke betyde en snus, vel ?

Det betyder ingenting, så længe chippen yder bedre. Og som situaionen er
lige nu, yder ATI's R3xx GPU clock for clock bedre end nVidia's NV35.

> > > Er det mon utænkeligt, vi vil se Nvidias kommende NV38
> > > som den GPU, som atter viser Nvidias overlegenhed, teknisk set,
> > > og een gang for alle slå fast, at Nvidia er kongen ???
> >
> > Nej det er ikke tænkeligt. NV38 er blot et GeForceFX 5900 Ultra Ultra,
> dvs.
> > et GeForce 5900 Ultra clocket 475/950 og med et nyt FlowFX kølesystem.
> > Kortet har stadig den samme 4x2 arkitektur, som betyder at det bliver
> > mørbanket af ATI's kort i alle DX9 applikationer.
>
> 4x2 arkitekturen viser sig at være en fordel,
> jo mere avancerede spillene blir' med flere
> multitextures i brug. Ældre spil benytter
> ofte single texture, og de kommende spil
> vil øge multitextures. Hvordan PixelShader 2.0
> vil opføre sig er dog mere interessant.

Problemet r abre, at DX9 ikke er skrevet til 4x2.

> Manden bag "Serious Sam" siger om dên sag:
>
> "Just wanted to write a word or two regarding the issue raised couple of
> days ago.
> Seems like the whole Internet community wants to crucify nVidia about the
> controversy
> of how many rendering pipelines GeForceFX realy has. Is it 8 pipelines
with
> 1 texture unit,
> or 4 with 2, or ... uh... I don't know anymore. And it really DOESN'T
matter
> that much!
> The only thing that matters is how fast and how good it can render pixels.
> And both GeForceFX
> and Radeon9700 are great products, the kind of hardware that developers
long
> for. So, personally,
> I don't care much what's "under the hood".
> Don't get me wrong, I am into 3D-graphic hardware, but this pipeline thing
> really went out of proportion.
> Number of pipelines is a good hardware information, and that's all there's
> to it. It really doesn't need to
> reflect the speed of the hardware directly. Come to think of it...
> currently, there are no games that
> utilize even 1/3rd of nifty features these two boards have.
> Oh, before I forget... I'm not "nVidiot" (and I'm not "fanATIc", either).
> I'm just a game developer
> who wants good and fast technology for the future. And both ATI and nVidia
> have it now!"

Jeg ved ikke hvilken sammenhæng det er taget ud af, men som det står her er
det en gang vås. Selvfølgelig betyder det noget, om vi taler 4x2 eller 8x1.
I øvrigt er det ikke den eneste grund til, at ATI's nuværende chip yder
bedre end nVidia's. Den vigtigste grund er, at ATI's chip kan udføre flere
instruktioner per clock cycle, idet dens FP enheder er stærkere.

> > > Jeg ser det sådan, at ATI har nogle supersunde grafiske
> > > egenskaber rent kodemæssigt, forstået på den måde,
> > > der spares meget regnekraft, fordi de har nogle fornuftige
> > > rutiner til at beregne grafikken, hvorimod Nvidia
> > > har og er uheldig med eks. PixelShader 2.0, men er
> > > tekniske overlegne, og vil komme "tilbage" med
> > > sådan en kraft, ATI kommer til at stå i skyggen igen.
> >
> > Teknisk ovrlegen? Vorherre bevares. Nvidia valgte jo at gå egne veje, da
> > ATI, Microsoft og de andre ikke ville lade sig styre af deres ønsker, da
> DX9
> > specifikationeren skulle vedtages.
>
> Den information KUNNE du ha' fået fra Valve, som iøvrigt
> selv har sagt, der er store mangler og fejl i DirectX 9.
> Så hvis vi ser bort fra deres uheldige shaderperformance,
> så vinder Nvidia flertallet af tests.

Nvidia vinder hovedsgaeligt de tests, hvor der bruges faste benchmarks så
som timedemos etc. Lige så snart man sammenligner "real world performance" i
spil, er Radeon 9800 Pro i reglen hurtigere. Dette gælder helt almindelige
spil, som GTA Vice City, BF 1942 og Warcraft 3.

> > Som sagerne er nu, er ATI overlegen hvad
> > DX9 grafik angår....
>
> Når det kommer til afvikling af PS2.0 tunge ting, ja.

Som er den væsentligste forskel på DX8.1 og DX9.

> >derom kan der ikke herske nogen tvivl. Bevares, på papiret
> > understøtter NV3x kortene FP32 shader-instruktioner, men i praksis er
> GPUen
> > for langsom til at køre andet end FP16 eller FP12, hvilket er langt
mindre
> > end DX9 specs som er FP24 (som ATI kører).
>
> Ikke den hele sandhed. Se her:
>
> "DX9 has what are called partial precision hints that indicate to the GPU
> when
> FP16 can be safely used without adversely impacting image quality. When
> partial precision hints are passed to the GPU, nVidia has the advantage
> since it only runs FP16 whereas ATI will continue to run at FP24. But in
> cases where a minimum of
> FP24 is required by a shader operation, the Radeon 9800 Pro will use its
> FP24 precision
> whereas the GeForceFX 5900 Ultra uses its more accurate, but more
> processing-intensive FP32 precision. ""
>
> Med andre ord, Nvidia er mere flexibel, og man kunne fristes til at sige,
> at ATI ikke overholder DirectX 9 standarden, da de fortsætter med FP24
> hvor FP16 iflg. spiludvikleren ville være rigeligt. Jeg er ikke klar over
> ydelsesforskellen, men
> det bør alligevel bemærkes, at ATI ikke følger DirectX 9's hints til punkt
> og prikke.

Ja, det er altsammen meget godt, men DX9 HLSL er altså skrevet til at køre
fuld FP precision, ikke halv eller kvart precision.

> > > Glæder mig vildt meget til at se kommende FX5950
> > > mod 9800XT...
> >
> > Det kan du så se her:
http://www.anandtech.com/video/showdoc.html?i=1890.
> > NV38 får prygl i alt hvad der bare lugter lidt af DX9, samt i
hovedparten
> af
> > de andre tests.
>
> Hvordan hænger det sammen med følgende linjer, som er fundet
> i dit ellers interessante link:
>
> "Looking at the stats, ATI clearly wins in 6 games, NVIDIA wins in 4 games
> and the two come very close in 5 games."

Ingen af testene invloverer rene DX 9 applikationer undtagen Aquamark 3. Og
her er det flere gange blvet påvist at den utrolige fordobling af nVidias
score fra 44.03 til 45.23 driveren skyldes snyd. Noget tyder på, atde samme
"optimeringer" er til stede i den betadriver Anadtech har fået lov til at
anvende. Om selvsamme skriver de i øvrigt:

"We used ATI's publicly available Catalyst 3.7 drivers and in order to
support the NV38 we used NVIDIA's forthcoming 52.14 drivers. The 52.14
drivers apparently have issues in two games, neither of which are featured
in our test suite (Half Life 2 & Gunmetal)."

Det er interesant læsning, idet Gunmetal jo er skrevet i Cg og derfor
kraftigt optimeret for nVidias chipsets. Noget må altså være rivende galt
med den driver.

> Det synes jeg så er okay af Nvidia, da de åbenbart stadig har deres
> smertensbarn, den uheldige PS2.0, videre ført i NV38...
> Tør ikke tænke på hvad der vil ske, når NV40 fårhåbentlig
> får rette dette.

Det må vi jo så se til foråret.
---
Anders



Kim Larsen (03-10-2003)
Kommentar
Fra : Kim Larsen


Dato : 03-10-03 16:13

Læs dette og tag det som i vil, forstå det som i vil.

http://news.com.com/2100-1046_3-1012553.html

Kim Larsen



Bernhard Ege (03-10-2003)
Kommentar
Fra : Bernhard Ege


Dato : 03-10-03 18:59


"Kim Larsen" <mythos42@tdcadsl.dk> wrote in message
news:3f7d9215$0$32446$edfadb0f@dread16.news.tele.dk...
> Læs dette og tag det som i vil, forstå det som i vil.
>
> http://news.com.com/2100-1046_3-1012553.html
>
> Kim Larsen

Jeg tror nVidia sidder med en masse aktier i Futuremark sådan lige
pludselig

mvh Bernhard


Søg
Reklame
Statistik
Spørgsmål : 177501
Tips : 31968
Nyheder : 719565
Indlæg : 6408527
Brugere : 218887

Månedens bedste
Årets bedste
Sidste års bedste