|
| Nytænkning på grafikkort Fra : Hans |
Dato : 06-07-02 17:12 |
|
Jeg har prøvet at rette henvendelse til et par af de store producenter af
grafikkort med en idé jeg garanteret ikke er ene om, men har ingen respons
fået overhovedet, så derfor kunne jeg godt tænke mig at få nogle
tilkendegivelser fra jer brugere af dagens grafikkort.
Efter min mening er producenterne med til at fastholde os alle med
problematikken omkring effektiv køling af de hurtige grafikkort, da de
vedbliver med at montere GSP'en på den "forkerte" side af printet.
Komponenterne på et AGP-kort vender som bekendt nedaf i et mini- midi eller
maxi towerkabinet, og derved bliver varmen fra GSP'en hængende under kortet,
hvilket stiller yderligere krav til køling af chippen. Ydermere er der meget
lidt plads mellem AGP og PCI-slot 1, hvis dette skal bruges, så problemet er
reelt nok.
Kigger vi ind i vores maskine må vi konstatere at der er masser af ubenyttet
plads på oversiden af AGP-kortet, da der er langt over til cpu-køleren.
Flyttes GSP'en om på oversiden af grafikkortet får vi langt mere plads til
en effektiv, ikke støjende køling, men fordelen er også at varmen vil blive
bortledt i en naturlig opadgående retning. Bortledning af denne varme er
ikke noget problem i et moderne kabinet, da der er mulighed for at montere
en kabinetblæser eller flere under strømforsyningen.
Er det bare mig som undres over denne indlysende fejlplacering, eller er vi
mange?
mvh, Hans
| |
Thomas Worm Madsen (06-07-2002)
| Kommentar Fra : Thomas Worm Madsen |
Dato : 06-07-02 18:33 |
|
> Er det bare mig som undres over denne indlysende fejlplacering, eller er
vi
> mange?
Nej du har ganske ret.. men der må da være en god grund til at de ikke har
gjort det. Jeg kan bare ikke lige komme på hvad det skulle være..?
Måske grafikken så bliver på hovedet ? ( )
/Thomas
| |
Hans (06-07-2002)
| Kommentar Fra : Hans |
Dato : 06-07-02 18:37 |
|
"Thomas Worm Madsen" <ormen@ormens.dk> skrev i en meddelelse
news:ag79jl$iij$1@sunsite.dk...
> Måske grafikken så bliver på hovedet ? ( )
Det vil da være fint - Så sparer vi også skærmen.
mvh, Hans
| |
Villy Jensen (06-07-2002)
| Kommentar Fra : Villy Jensen |
Dato : 06-07-02 19:10 |
|
"Hans" <fast@2night.d.k> skrev i en meddelelse
news:3d272ab2$0$16820$edfadb0f@dspool01.news.tele.dk...
> "Thomas Worm Madsen" <ormen@ormens.dk> skrev i en meddelelse
> news:ag79jl$iij$1@sunsite.dk...
>
> > Måske grafikken så bliver på hovedet ? ( )
>
> Det vil da være fint - Så sparer vi også skærmen.
Fedt input ...
Meen tror du garantien dækker, hvis du flytter GPU'en om bag på PCB?
Mvh Villy
http://hjem.get2net.dk/villy
| |
Herbert (06-07-2002)
| Kommentar Fra : Herbert |
Dato : 06-07-02 18:37 |
|
> Jeg har prøvet at rette henvendelse til et par af de store producenter af
> grafikkort med en idé jeg garanteret ikke er ene om, men har ingen respons
> fået overhovedet, så derfor kunne jeg godt tænke mig at få nogle
> tilkendegivelser fra jer brugere af dagens grafikkort.
>
> Efter min mening er producenterne med til at fastholde os alle med
> problematikken omkring effektiv køling af de hurtige grafikkort, da de
> vedbliver med at montere GSP'en på den "forkerte" side af printet.
>
> Komponenterne på et AGP-kort vender som bekendt nedaf i et mini- midi
eller
> maxi towerkabinet, og derved bliver varmen fra GSP'en hængende under
kortet,
> hvilket stiller yderligere krav til køling af chippen. Ydermere er der
meget
> lidt plads mellem AGP og PCI-slot 1, hvis dette skal bruges, så problemet
er
> reelt nok.
>
> Kigger vi ind i vores maskine må vi konstatere at der er masser af
ubenyttet
> plads på oversiden af AGP-kortet, da der er langt over til cpu-køleren.
> Flyttes GSP'en om på oversiden af grafikkortet får vi langt mere plads til
> en effektiv, ikke støjende køling, men fordelen er også at varmen vil
blive
> bortledt i en naturlig opadgående retning. Bortledning af denne varme er
> ikke noget problem i et moderne kabinet, da der er mulighed for at montere
> en kabinetblæser eller flere under strømforsyningen.
>
> Er det bare mig som undres over denne indlysende fejlplacering, eller er
vi
> mange?
>
> mvh, Hans
Hej Hans
Jeg kan kun sigde HØRT!
/Erik
| |
Steffen (06-07-2002)
| Kommentar Fra : Steffen |
Dato : 06-07-02 19:13 |
|
For at tænke på noget helt andet. Så synes jeg også man burde gøre at man
kunne opgradere RAM på et grafikkort. Det vil selvfølgelig først være en god
idé når RAM'en kommer på på fx 512. Så kunne man starte med at købe en
skrabet udgave af kortet, og så købe flere RAM og montere dem nemt når
nødvendigt. Det burde vel ikke være så svært at lave?
--
Sincerly / Mvh.Steffen
"To start press any key........ Where's the any key?"
- Homer Simpson
1.4 Ghz. AMD Thunderbird
512 DDR RAM Kingston ECC
Soltek 75-DRV2 motherboard
64 MB ATi Radeon 8500 graphic-card
20 GB Seagate Harddisc
SoundBlaster Audigy soundcard
5.1 Inspire 5300 speakers
16x AOpen DVD Rom
Windows XP
256/128 ADSL
"Herbert" <Herbert007@hotmail.com_Remove> skrev i en meddelelse
news:ag79ri$qvs$1@news.cybercity.dk...
>
> > Jeg har prøvet at rette henvendelse til et par af de store producenter
af
> > grafikkort med en idé jeg garanteret ikke er ene om, men har ingen
respons
> > fået overhovedet, så derfor kunne jeg godt tænke mig at få nogle
> > tilkendegivelser fra jer brugere af dagens grafikkort.
> >
> > Efter min mening er producenterne med til at fastholde os alle med
> > problematikken omkring effektiv køling af de hurtige grafikkort, da de
> > vedbliver med at montere GSP'en på den "forkerte" side af printet.
> >
> > Komponenterne på et AGP-kort vender som bekendt nedaf i et mini- midi
> eller
> > maxi towerkabinet, og derved bliver varmen fra GSP'en hængende under
> kortet,
> > hvilket stiller yderligere krav til køling af chippen. Ydermere er der
> meget
> > lidt plads mellem AGP og PCI-slot 1, hvis dette skal bruges, så
problemet
> er
> > reelt nok.
> >
> > Kigger vi ind i vores maskine må vi konstatere at der er masser af
> ubenyttet
> > plads på oversiden af AGP-kortet, da der er langt over til cpu-køleren.
> > Flyttes GSP'en om på oversiden af grafikkortet får vi langt mere plads
til
> > en effektiv, ikke støjende køling, men fordelen er også at varmen vil
> blive
> > bortledt i en naturlig opadgående retning. Bortledning af denne varme er
> > ikke noget problem i et moderne kabinet, da der er mulighed for at
montere
> > en kabinetblæser eller flere under strømforsyningen.
> >
> > Er det bare mig som undres over denne indlysende fejlplacering, eller er
> vi
> > mange?
> >
> > mvh, Hans
>
> Hej Hans
>
> Jeg kan kun sigde HØRT!
>
> /Erik
>
>
| |
Karsten Feddersen (06-07-2002)
| Kommentar Fra : Karsten Feddersen |
Dato : 06-07-02 20:09 |
|
Hej
Steffen wrote:
> For at tænke på noget helt andet. Så synes jeg også man burde gøre at man
> kunne opgradere RAM på et grafikkort. Det vil selvfølgelig først være en god
> idé når RAM'en kommer på på fx 512. Så kunne man starte med at købe en
> skrabet udgave af kortet, og så købe flere RAM og montere dem nemt når
> nødvendigt. Det burde vel ikke være så svært at lave?
Gammel idé. Matrox Millenium kortene havde 4Mb og de kunne opgraderes
til 8Mb, men stort set ingen benyttede denne mulighed. Ram sokler er
relativt dyre at sætte på et ramkort. Der skal også specialram til og
sansynligvis skal kortene tilpasses så de får autodetect af hukommelsen.
Så det kræver ekstra i udviklingen af kortene. Den udgift det medfører
vil kun være til gavn for ganske få brugere og det er de 99,9% af
køberne næppe tilfreds med.
--
Med venlig hilsen / Best regards / Mit freundlichen Grüßen
Karsten Feddersen
http://www.feddersen.dk
| |
Søren (07-07-2002)
| Kommentar Fra : Søren |
Dato : 07-07-02 05:39 |
|
Hvorfor ikke helt skippe grafikkortet med den form det har i dag?. Med de
hurtigere cpu der vælter frem for tiden til næsten ingen penge, var det
måske en ide at bruge selve cpu'en som GPU.
Det mest simple ville være at køre alt grafik software emuleret, så er det
kun et program man skal opdatere hver gang de finder på noget nyt, og det
sker jo tit.
Søren.
| |
Karsten Feddersen (07-07-2002)
| Kommentar Fra : Karsten Feddersen |
Dato : 07-07-02 07:24 |
|
Hej
Søren wrote:
> Det mest simple ville være at køre alt grafik software emuleret, så er det
> kun et program man skal opdatere hver gang de finder på noget nyt, og det
> sker jo tit.
Det er jo det Direct X gør. Hvis dit grafikkort ikke har den indbyggede
3D funktion i hardware, så laver softwaren grafikken til dit.
Det kan sagten lade sig gøre at spille de nye 3D-spil på ældre
grafikkort uden 3D-acceleration, men det går pokkers langsomt, selvom
kortet sad i en P4 2,5Ghz.
Måden at få rigtig hurtige maskiner er ved at lave en række
specialiserede chips og fordele opgaverne.
--
Med venlig hilsen / Best regards / Mit freundlichen Grüßen
Karsten Feddersen
http://www.feddersen.dk
| |
Mogens (07-07-2002)
| Kommentar Fra : Mogens |
Dato : 07-07-02 09:26 |
|
On Sun, 07 Jul 2002 08:24:01 +0200, Karsten Feddersen
<karsten@feddersen.dk> wrote:
>Måden at få rigtig hurtige maskiner er ved at lave en række
>specialiserede chips og fordele opgaverne.
Ja, PC'er kommer sgu til at lige de gamle Amiga'er mere og mere.
| |
H3nrik V! [2670] (07-07-2002)
| Kommentar Fra : H3nrik V! [2670] |
Dato : 07-07-02 12:39 |
|
"Mogens" <moveng@portalen.no> wrote in message
news:cnufiuc2c4pibr3cd65ge5lbmqdh1oqsj0@4ax.com...
> On Sun, 07 Jul 2002 08:24:01 +0200, Karsten Feddersen
> <karsten@feddersen.dk> wrote:
>
> >Måden at få rigtig hurtige maskiner er ved at lave en række
> >specialiserede chips og fordele opgaverne.
>
> Ja, PC'er kommer sgu til at lige de gamle Amiga'er mere og mere.
Ja... Lige min tanke...!
/H3nrik - med 3 adskilte Amiga'er og en indbygget i et AT-mnitower...
| |
Dennis Jakobsen (07-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 07-07-02 16:32 |
|
Søren wrote:
> Hvorfor ikke helt skippe grafikkortet med den form det har i dag?. Med de
> hurtigere cpu der vælter frem for tiden til næsten ingen penge, var det
> måske en ide at bruge selve cpu'en som GPU.
tror du selv?!?
> Det mest simple ville være at køre alt grafik software emuleret, så er det
> kun et program man skal opdatere hver gang de finder på noget nyt, og det
> sker jo tit.
ja, og du tror en 5Ghz CPU ville være nok til at software emulere
hardwired grafik rutiner? NOT.. du ville få 1 frame hvert 10. sekund i
Quake2..
| |
Søren (07-07-2002)
| Kommentar Fra : Søren |
Dato : 07-07-02 19:40 |
|
"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
news:ag9ms2$c28$2@phys-news1.kolumbus.fi...
> Søren wrote:
> > Hvorfor ikke helt skippe grafikkortet med den form det har i dag?. Med
de
> > hurtigere cpu der vælter frem for tiden til næsten ingen penge, var det
> > måske en ide at bruge selve cpu'en som GPU.
>
> tror du selv?!?
>
> > Det mest simple ville være at køre alt grafik software emuleret, så er
det
> > kun et program man skal opdatere hver gang de finder på noget nyt, og
det
> > sker jo tit.
>
> ja, og du tror en 5Ghz CPU ville være nok til at software emulere
> hardwired grafik rutiner? NOT.. du ville få 1 frame hvert 10. sekund i
> Quake2..
>
Jeg er ret sikker på at 5 ghz software emulering skrevet i
maskinkode/assembler er nok til at slå et geforce4 ti 4600 med flere gange.
Hvis windows xp var skrevet i maskinkode kunne det køre på en commodore64
!!!
Søren.
| |
Dennis Jakobsen (07-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 07-07-02 21:01 |
|
Søren wrote:
> Jeg er ret sikker på at 5 ghz software emulering skrevet i
> maskinkode/assembler er nok til at slå et geforce4 ti 4600 med flere gange.
ja, så forstår du jo knapt så meget om emulering kontra hardwired
løsninger..
> Hvis windows xp var skrevet i maskinkode kunne det køre på en commodore64
> !!!
lol.. NOT.. det ville måske fylde det halve, men det er jo stadig
200mb for meget!! hehe.. :)
og med 64kb ram.. I DONT THINK SO!!! :)
boot logoet alene ville være for stort!!
| |
Søren (07-07-2002)
| Kommentar Fra : Søren |
Dato : 07-07-02 22:51 |
|
> lol.. NOT.. det ville måske fylde det halve, men det er jo stadig
> 200mb for meget!! hehe.. :)
>
> og med 64kb ram.. I DONT THINK SO!!! :)
>
Prøv at tale med en programmør så kan han fortælle dig lidt om maskinkode
kontra objekorienteret højniveu sprog.
En hver der har lidt kendskab til programmering, ved at høj niveusprog
programmer fylder mange gange mere kører meget langsommere end lav niveu
sprog. Hvorfor tror du NASA er ude efter 8086 processorer ???, fordi deres
programmer skal køre i maskinkode !!!, hvis man i 69 have brugt windows som
styre system var man aldrig kommet til månen.
Søren
| |
Dennis Jakobsen (08-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 08-07-02 12:13 |
|
Søren wrote:
>>lol.. NOT.. det ville måske fylde det halve, men det er jo stadig
>>200mb for meget!! hehe.. :)
>>
>>og med 64kb ram.. I DONT THINK SO!!! :)
>>
>
>
> Prøv at tale med en programmør så kan han fortælle dig lidt om maskinkode
> kontra objekorienteret højniveu sprog.
jeg ER programmør.. så jeg fortæller lige mig selv en historie..
imens kan du jo bede din programmør kammerat om at fortælle dig
sandheden nu istedet for det bavl han lukker ud..
> En hver der har lidt kendskab til programmering, ved at høj niveusprog
> programmer fylder mange gange mere kører meget langsommere end lav niveu
mange gange mere?.. njaaa.. i besynderlige omstændigheder kunne det
godt fylde 2-3 gange mere.. men det kører under ingen omstændigheder
mange gange langsommere..
jeg kan se fordelene i fx. et spil, du har en eller anden processor
slugende t&l funktion der skal beregnes (fordi grafik kortet ikke lige
havde det :).. så giver det selvf. et performance boost.. men
maskinkode er ikke generelt 3-4 gange hurtigere..
nu afhænger det jo også af hvilken compiler du bruger osv.
> sprog. Hvorfor tror du NASA er ude efter 8086 processorer ???, fordi deres
> programmer skal køre i maskinkode !!!, hvis man i 69 have brugt windows som
> styre system var man aldrig kommet til månen.
nej, men havde man brugt AmigaOS istedet for Windows så havde vi nok kun
200Mhz 68080 processorer fra Motorola og 16mb ram.. fordi Windows ikke
var der til at sluge alle vores resourcer.
så NASA's medarbejdere kører laptops på 8086, med deres eget Assembler
baserede OS ? ;)
hvad er det for nogle besynderlige ting du slynger ud?
hvor har du fundet disse 'facts' ?
| |
Søren (08-07-2002)
| Kommentar Fra : Søren |
Dato : 08-07-02 16:12 |
|
"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
news:agbs3q$n00$1@phys-news1.kolumbus.fi...
>
> jeg ER programmør.. så jeg fortæller lige mig selv en historie..
> imens kan du jo bede din programmør kammerat om at fortælle dig
> sandheden nu istedet for det bavl han lukker ud..
>
Hvis du er programmør så må du bruge en fandens masse NOP instruktioner hvis
det du sagde tidligere skal være sandt:
> ja, og du tror en 5Ghz CPU ville være nok til at software emulere
> hardwired grafik rutiner? NOT.. du ville få 1 frame hvert 10. sekund i
> Quake2..
Må jeg gætte på du er ansat ved microsoft ?, de prøver også at lave
programmer/rutiner der er så store og resource krævende som overhovedet
muligt.
Et program der udskriver dit navn vil jeg tror vil se sådan her ud på dit
tegne brædt (men sikkert mere kompliceret):
For t=1 to 40^10 do
For t2=1to t
Do nothing at all 10^10 times
Next t
Next t2
Dumbass=Dennis
Write Dumbass
| |
Dennis Jakobsen (08-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 08-07-02 18:13 |
|
Søren wrote:
> "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
> news:agbs3q$n00$1@phys-news1.kolumbus.fi...
>
>>jeg ER programmør.. så jeg fortæller lige mig selv en historie..
>>imens kan du jo bede din programmør kammerat om at fortælle dig
>>sandheden nu istedet for det bavl han lukker ud..
>
> Hvis du er programmør så må du bruge en fandens masse NOP instruktioner hvis
> det du sagde tidligere skal være sandt:
ja, NOP er min favorit instruktion! :)
og du må være en fucking hardcore programmør hvis du tror du kan
erstatte et grafikkort med assembler programmering og en lidt hurtigere
processor..
>>ja, og du tror en 5Ghz CPU ville være nok til at software emulere
>>hardwired grafik rutiner? NOT.. du ville få 1 frame hvert 10. sekund i
>>Quake2..
>
> Må jeg gætte på du er ansat ved microsoft ?, de prøver også at lave
> programmer/rutiner der er så store og resource krævende som overhovedet
> muligt.
ja, det må du godt gætte på..
> Et program der udskriver dit navn vil jeg tror vil se sådan her ud på dit
> tegne brædt (men sikkert mere kompliceret):
>
> For t=1 to 40^10 do
> For t2=1to t
> Do nothing at all 10^10 times
> Next t
> Next t2
> Dumbass=Dennis
> Write Dumbass
ej, hvor skægt! men fattede du det selv? hehe.. dumbass!
| |
Peter Jespersen (08-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 08-07-02 16:37 |
|
On Sun, 7 Jul 2002 23:50:47 +0200, S ren wrote:
>
>> lol.. NOT.. det ville måske fylde det halve, men det er jo stadig
>> 200mb for meget!! hehe.. :)
>>
>> og med 64kb ram.. I DONT THINK SO!!! :)
>Prøv at tale med en programmør så kan han fortælle dig lidt om maskinkode
>kontra objekorienteret højniveu sprog.
>En hver der har lidt kendskab til programmering, ved at høj niveusprog
>programmer fylder mange gange mere kører meget langsommere end lav niveu
>sprog. Hvorfor tror du NASA er ude efter 8086 processorer ???, fordi deres
>programmer skal køre i maskinkode !!!, hvis man i 69 have brugt windows som
>styre system var man aldrig kommet til månen.
8086'eren var ganske velegnet til brug i embedded systems på det
tidspunkt hvor systemet blev slynget sammen. NASA er ved at tage
sig sammen til at skifte systemet ud (De nye SA er ganske
nuttede), det koster bare af helvede til - indtil bevillingerne
ankommer er de kort sagt tvunget til at benytte den billige vej.
Siden systemet stadig kører som det skal, har de valgt ikke at
rokke for meget med båden og foretage halvhjertede og
halvhjernede småopgraderinger og lappeløsning af systemet som de
kan falde over ved forhandlingerne.
Umiddelbart vil jeg tro at softwaren er fremstillet i Assembler
og ikke maskinkode (Jeg kan godt huske da Columbia landede og
det er netop til styring af rumfærgens løfteraketter de
benyttes) , det er så noget andet - men det hinderer ej NASA i
at skifte 8086 processorene ud med fx i486 processorer eller
RISE mP6 processorer pga bagudkompatibiliteten...så er det at
modificere koden til de nye følere.
Og ja abstraktioner koster plads og ofte ydelsesmæssigt.....
BTW: x86 ASM er noget djævlen har skabt...
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
I am as bored as a pacifists pistol!
| |
H3nrik V! [2670] (09-07-2002)
| Kommentar Fra : H3nrik V! [2670] |
Dato : 09-07-02 16:04 |
|
"Peter Jespersen" <flywheel@illogical.dk> wrote in message
news:syljurryvyybtvpnyqx.gyy3ua3.pminews@news.tele.dk...
On Sun, 7 Jul 2002 23:50:47 +0200, S ren wrote:
Umiddelbart vil jeg tro at softwaren er fremstillet i Assembler
og ikke maskinkode (Jeg kan godt huske da Columbia landede og
Og forskellen er??? Enhver assembler instruktion kan da svjv omsættes
direkte til en maskinkode... Jeg havde faktisk en lærer, der fandt en fejl i
et stykke assemblerprogram ud fra maskinkoderne... Hardcore... :)
/H3nrik!
| |
Peter Jespersen (11-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 11-07-02 19:24 |
|
On Tue, 9 Jul 2002 17:03:34 +0200, H3nrik V! [2670] wrote:
>
>"Peter Jespersen" <flywheel@illogical.dk> wrote in message
>news:syljurryvyybtvpnyqx.gyy3ua3.pminews@news.tele.dk...
>On Sun, 7 Jul 2002 23:50:47 +0200, S ren wrote:
>
>Umiddelbart vil jeg tro at softwaren er fremstillet i Assembler
>og ikke maskinkode (Jeg kan godt huske da Columbia landede og
>
>Og forskellen er??? Enhver assembler instruktion kan da svjv omsættes
>direkte til en maskinkode... Jeg havde faktisk en lærer, der fandt en fejl i
>et stykke assemblerprogram ud fra maskinkoderne... Hardcore... :)
Jeg ville lige pointere at maskinkode og ASM ikke er det
samme....det at man kan oversætte C++ kode til maskinkode gør
det ej heller til det samme....der er stadig en mellemstation
imellem ASM og maskinkode/binær kode!
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
Roses are Red, Violets are Blue, I'm Schizophrenic and so am I!
| |
H3nrik V! [2670] (12-07-2002)
| Kommentar Fra : H3nrik V! [2670] |
Dato : 12-07-02 08:20 |
|
"Peter Jespersen" <flywheel@illogical.dk> wrote in message
news:syljurryvyybtvpnyqx.gz3vjh1.pminews@news.tele.dk...
>On Tue, 9 Jul 2002 17:03:34 +0200, H3nrik V! [2670] wrote:
>Jeg ville lige pointere at maskinkode og ASM ikke er det
>samme....det at man kan oversætte C++ kode til maskinkode gør
>det ej heller til det samme....der er stadig en mellemstation
>imellem ASM og maskinkode/binær kode!
Altså... Enhver assemblerkode har en maskinkode (eks. MOV = 0x1000 - kun
eksempel) hvorimod højere niveau sprog som C++ kompileres til Assembler, der
derefter oversættes til maskinkode. For eksempel en for løkke i C++ kan
oversættes til assembler på flere måder, hvorimod en assembler instruktion
KUN kan oversættes til maskinkode på én måde. Derfor: Assembler=Maskinkode!
/H3nrik!
| |
Peter Jespersen (12-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 12-07-02 12:15 |
|
On Fri, 12 Jul 2002 09:20:19 +0200, H3nrik V! [2670] wrote:
>
>"Peter Jespersen" <flywheel@illogical.dk> wrote in message
>news:syljurryvyybtvpnyqx.gz3vjh1.pminews@news.tele.dk...
>>On Tue, 9 Jul 2002 17:03:34 +0200, H3nrik V! [2670] wrote:
>
>
>>Jeg ville lige pointere at maskinkode og ASM ikke er det
>>samme....det at man kan oversætte C++ kode til maskinkode gør
>>det ej heller til det samme....der er stadig en mellemstation
>>imellem ASM og maskinkode/binær kode!
>
>Altså... Enhver assemblerkode har en maskinkode (eks. MOV = 0x1000 - kun
>eksempel) hvorimod højere niveau sprog som C++ kompileres til Assembler, der
>derefter oversættes til maskinkode. For eksempel en for løkke i C++ kan
I nogle tilfælde oversættes det en ekstra gang, via et platformsuafhængigt
sprog - for større portabilitet.
>oversættes til assembler på flere måder, hvorimod en assembler instruktion
>KUN kan oversættes til maskinkode på én måde. Derfor: Assembler=Maskinkode!
Det skal stadig oversættes... Assembler er stadig er symbolsk sprog.
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
Whatever you do, take care of your shoes.
| |
H3nrik V! [2670] (09-07-2002)
| Kommentar Fra : H3nrik V! [2670] |
Dato : 09-07-02 16:00 |
|
"Søren" <pc@tdcspace.dk> wrote in message
news:3d28bb61$0$16782$edfadb0f@dspool01.news.tele.dk...
>
> sprog. Hvorfor tror du NASA er ude efter 8086 processorer ???, fordi deres
> programmer skal køre i maskinkode !!!, hvis man i 69 have brugt windows
som
> styre system var man aldrig kommet til månen.
Tjah... Fordi de bli'r antikke engang...? For assembler/maskinkode kan
såmænd sagtens køre på en P4 CPU, der er bare flere opcodes at ta' af...!
/H3nrik!
| |
H3nrik V! [2670] (09-07-2002)
| Kommentar Fra : H3nrik V! [2670] |
Dato : 09-07-02 15:58 |
|
"Søren" <pc@tdcspace.dk> wrote in message
news:3d288af0$0$16825$edfadb0f@dspool01.news.tele.dk...
> Jeg er ret sikker på at 5 ghz software emulering skrevet i
> maskinkode/assembler er nok til at slå et geforce4 ti 4600 med flere
gange.
> Hvis windows xp var skrevet i maskinkode kunne det køre på en commodore64
Ja, og ville komme på gaden januar 2135...! :)
/H3nrik!
| |
Michael Lund Sørense~ (06-07-2002)
| Kommentar Fra : Michael Lund Sørense~ |
Dato : 06-07-02 19:19 |
|
Hans wrote:
:: Jeg har prøvet at rette henvendelse til et par af de store
:: producenter af grafikkort med en idé jeg garanteret ikke er ene om,
:: men har ingen respons fået overhovedet, så derfor kunne jeg godt
:: tænke mig at få nogle tilkendegivelser fra jer brugere af dagens
:: grafikkort.
::
:: Efter min mening er producenterne med til at fastholde os alle med
:: problematikken omkring effektiv køling af de hurtige grafikkort, da
:: de vedbliver med at montere GSP'en på den "forkerte" side af printet.
::
:: Komponenterne på et AGP-kort vender som bekendt nedaf i et mini-
:: midi eller maxi towerkabinet, og derved bliver varmen fra GSP'en
:: hængende under kortet, hvilket stiller yderligere krav til køling af
:: chippen. Ydermere er der meget lidt plads mellem AGP og PCI-slot 1,
:: hvis dette skal bruges, så problemet er reelt nok.
::
:: Kigger vi ind i vores maskine må vi konstatere at der er masser af
:: ubenyttet plads på oversiden af AGP-kortet, da der er langt over til
:: cpu-køleren. Flyttes GSP'en om på oversiden af grafikkortet får vi
:: langt mere plads til en effektiv, ikke støjende køling, men fordelen
:: er også at varmen vil blive bortledt i en naturlig opadgående
:: retning. Bortledning af denne varme er ikke noget problem i et
:: moderne kabinet, da der er mulighed for at montere en kabinetblæser
:: eller flere under strømforsyningen.
::
:: Er det bare mig som undres over denne indlysende fejlplacering,
:: eller er vi mange?
::
Jeg havde en diskussion med Kim Larsen "Mythos" for et stykke tid siden
<j6bE8.2579$4f4.211592@news000.worldonline.dk> 14-05-02
da Kim viste link til nogle grafikkort der fyldte to pladser for at få
plads til blæseren. På den anden side af printpladen er der masser af
plads og som du nævner vender den side op af.
Jo vi er enige, men jeg tror vi ikke er enige med gældende normer for
AGP kort. Men så må de laves om! Eller der kan komme en bemærkning på
æsken - Kræver ekstra plads.
Hvis linket er blevet for gammelt, så find det i Google news groups
eller Mailgate.org
--
Hilsen
Michael Lund Sørensen
www.milux.dk.sletdette
| |
Hans (06-07-2002)
| Kommentar Fra : Hans |
Dato : 06-07-02 19:34 |
|
"Michael Lund Sørensen" <hold-diskussionen-i@nyhedsgruppen-tak.dk> skrev i
en meddelelse news:8wGV8.7567$I52.214978@news010.worldonline.dk...
> Jo vi er enige, men jeg tror vi ikke er enige med gældende normer for
> AGP kort. Men så må de laves om! Eller der kan komme en bemærkning på
> æsken - Kræver ekstra plads.
Det er præcis den argumentation som fastholder de gældende normer uden
mulighed for innovation og forbedring af perfomance på markedets
topprodukter.
Det er ganske givet at grænsen for grafikkorts ydeevne ligger i en
begrænsning af bortskaffelse af varme fra kortet. Du nævner selv en helt
uacceptabel løsning hvor køleren er så stor at kortet fylder flere slots.
Hvis man brugte indersiden af hovedet ville det være indlysende at flytte
problemet, og udnytte pladsen hvor den har været hele tiden med ATX normen.
Det gør det endnu mere uforståeligt da de fleste store producenter af
skærmkort, samtidig har egenudvikling og produktion af de tilhørende
bundkort. Hermed sikres at pudsige mekaniske bi-effekter opstår.
Det er fuldstændigt absurd at bremse udviklingen af nye generationer
grafikkort, som har alle forudsætninger for at kunne fungere optimalt rent
termisk, men ikke har de nuværende korts ulemper i form af støj.
mvh, Hans
| |
Michael Lund Sørense~ (06-07-2002)
| Kommentar Fra : Michael Lund Sørense~ |
Dato : 06-07-02 22:19 |
|
Hans wrote:
:: "Michael Lund Sørensen" <hold-diskussionen-i@nyhedsgruppen-tak.dk>
skrev i
:: en meddelelse news:8wGV8.7567$I52.214978@news010.worldonline.dk...
::
::: Jo vi er enige, men jeg tror vi ikke er enige med gældende normer
::: for AGP kort. Men så må de laves om! Eller der kan komme en
::: bemærkning på æsken - Kræver ekstra plads.
::
:: Det er præcis den argumentation som fastholder de gældende normer
:: uden mulighed for innovation og forbedring af perfomance på markedets
:: topprodukter.
::
:: Det er ganske givet at grænsen for grafikkorts ydeevne ligger i en
:: begrænsning af bortskaffelse af varme fra kortet. Du nævner selv en
:: helt uacceptabel løsning hvor køleren er så stor at kortet fylder
:: flere slots.
::
:: Hvis man brugte indersiden af hovedet ville det være indlysende at
:: flytte problemet, og udnytte pladsen hvor den har været hele tiden
:: med ATX normen. Det gør det endnu mere uforståeligt da de fleste
:: store producenter af skærmkort, samtidig har egenudvikling og
:: produktion af de tilhørende bundkort. Hermed sikres at pudsige
:: mekaniske bi-effekter opstår.
::
:: Det er fuldstændigt absurd at bremse udviklingen af nye generationer
:: grafikkort, som har alle forudsætninger for at kunne fungere
:: optimalt rent termisk, men ikke har de nuværende korts ulemper i
:: form af støj.
::
Vi er så enige som vi kan blive!
Jeg kan tilføje at mit Happengut tv-kort blokker fuldstændigt for
blæseren på mit GF2MX400 kort. Hvordan den får suget luft ind ved jeg
ikke for blæseren rør tv-kortet.
Luften finder nok en smutvej
--
Hilsen
Michael Lund Sørensen
www.milux.dk.sletdette
| |
Dennis Jakobsen (07-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 07-07-02 16:38 |
|
Hans wrote:
> "Michael Lund Sørensen" <hold-diskussionen-i@nyhedsgruppen-tak.dk> skrev i
> en meddelelse news:8wGV8.7567$I52.214978@news010.worldonline.dk...
>
>
>>Jo vi er enige, men jeg tror vi ikke er enige med gældende normer for
>>AGP kort. Men så må de laves om! Eller der kan komme en bemærkning på
>>æsken - Kræver ekstra plads.
>
>
> Det er præcis den argumentation som fastholder de gældende normer uden
> mulighed for innovation og forbedring af perfomance på markedets
> topprodukter.
>
> Det er ganske givet at grænsen for grafikkorts ydeevne ligger i en
> begrænsning af bortskaffelse af varme fra kortet. Du nævner selv en helt
> uacceptabel løsning hvor køleren er så stor at kortet fylder flere slots.
>
> Hvis man brugte indersiden af hovedet ville det være indlysende at flytte
> problemet, og udnytte pladsen hvor den har været hele tiden med ATX normen.
og hvor er det på mit P2B-DS ATX bundkort? kan du ikke lige kigge i
manualen og så pege på hvor pladsen er?
bare fordi du har et SocketX bundkort betyder det ikke alle andre har!
jeg synes i skulle stoppe denne fjollede tråd før i rent faktisk får
stablet et forslag på benene og sender det til en eller anden grafik
kort fabrikant..
der er nok en grund til at det ikke er blevet gjort endnu.. :)
| |
Michael Lund Sørense~ (07-07-2002)
| Kommentar Fra : Michael Lund Sørense~ |
Dato : 07-07-02 16:54 |
|
>>> Jo vi er enige, men jeg tror vi ikke er enige med gældende normer
>>> for AGP kort. Men så må de laves om! Eller der kan komme en
>>> bemærkning på æsken - Kræver ekstra plads.
>>
>>
>> Det er præcis den argumentation som fastholder de gældende normer
>> uden mulighed for innovation og forbedring af perfomance på markedets
>> topprodukter.
>>
>> Det er ganske givet at grænsen for grafikkorts ydeevne ligger i en
>> begrænsning af bortskaffelse af varme fra kortet. Du nævner selv en
>> helt uacceptabel løsning hvor køleren er så stor at kortet fylder
>> flere slots.
>>
>> Hvis man brugte indersiden af hovedet ville det være indlysende at
>> flytte problemet, og udnytte pladsen hvor den har været hele tiden
>> med ATX normen.
>
> og hvor er det på mit P2B-DS ATX bundkort? kan du ikke lige kigge i
> manualen og så pege på hvor pladsen er?
>
> bare fordi du har et SocketX bundkort betyder det ikke alle andre har!
>
> jeg synes i skulle stoppe denne fjollede tråd før i rent faktisk får
> stablet et forslag på benene og sender det til en eller anden grafik
> kort fabrikant..
Helt ærligt du er langt ude!
Der kan være forside monterede graffikkort og bagside monterede kort.
>
> der er nok en grund til at det ikke er blevet gjort endnu.. :)
Og det står i øverste linie: Gældende NORMER, men det betyder ikke at vi
kan _ønske_ os en udvikling.
--
Hilsen
Michael Lund Sørensen
www.milux.dk.sletdette
| |
Dennis Jakobsen (07-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 07-07-02 18:49 |
|
Michael Lund Sørensen wrote:
>>>>Jo vi er enige, men jeg tror vi ikke er enige med gældende normer
>>>>for AGP kort. Men så må de laves om! Eller der kan komme en
>>>>bemærkning på æsken - Kræver ekstra plads.
>>>
>>>
>>>Det er præcis den argumentation som fastholder de gældende normer
>>>uden mulighed for innovation og forbedring af perfomance på markedets
>>>topprodukter.
>>>
>>>Det er ganske givet at grænsen for grafikkorts ydeevne ligger i en
>>>begrænsning af bortskaffelse af varme fra kortet. Du nævner selv en
>>>helt uacceptabel løsning hvor køleren er så stor at kortet fylder
>>>flere slots.
>>>
>>>Hvis man brugte indersiden af hovedet ville det være indlysende at
>>>flytte problemet, og udnytte pladsen hvor den har været hele tiden
>>>med ATX normen.
>>
>>og hvor er det på mit P2B-DS ATX bundkort? kan du ikke lige kigge i
>>manualen og så pege på hvor pladsen er?
>>
>>bare fordi du har et SocketX bundkort betyder det ikke alle andre har!
>>
>>jeg synes i skulle stoppe denne fjollede tråd før i rent faktisk får
>>stablet et forslag på benene og sender det til en eller anden grafik
>>kort fabrikant..
>
>
> Helt ærligt du er langt ude!
>
> Der kan være forside monterede graffikkort og bagside monterede kort.
nå undskyld, jeg troede rent faktisk i mente det.. kan i så ikke
markere beskederne [APRIL FOOLS] så os seriøse idioter ikke bliver
forvirret..
>>der er nok en grund til at det ikke er blevet gjort endnu.. :)
>
> Og det står i øverste linie: Gældende NORMER, men det betyder ikke at vi
> kan _ønske_ os en udvikling.
nåerh nej.. (prøver sarkastisk at lyde som en total idiot! :) i snakker
vel bare om det for sjov skyld..
| |
Michael Lund Sørense~ (07-07-2002)
| Kommentar Fra : Michael Lund Sørense~ |
Dato : 07-07-02 19:18 |
|
Dennis Jakobsen <brunis@[REM-SPAM]kolumbus.fi> skrev:
:::: bare fordi du har et SocketX bundkort betyder det ikke alle andre
:::: har!
::::
:::: jeg synes i skulle stoppe denne fjollede tråd før i rent faktisk
:::: får stablet et forslag på benene og sender det til en eller anden
:::: grafik kort fabrikant..
:::
:::
::: Helt ærligt du er langt ude!
:::
::: Der kan være forside monterede graffikkort og bagside monterede
::: kort.
::
:: nå undskyld, jeg troede rent faktisk i mente det.. kan i så ikke
:: markere beskederne [APRIL FOOLS] så os seriøse idioter ikke bliver
:: forvirret..
::
:::: der er nok en grund til at det ikke er blevet gjort endnu.. :)
:::
::: Og det står i øverste linie: Gældende NORMER, men det betyder ikke
::: at vi kan _ønske_ os en udvikling.
::
:: nåerh nej.. (prøver sarkastisk at lyde som en total idiot! :) i
:: snakker vel bare om det for sjov skyld..
Jeg forstår dig ikke.
Vi mener ganske seriøst at nogle grafikkort fabrikanterne bør overveje
at sætte GPU'en med blæser på bagsiden af grafikkortet for bedre
kølingsmulighed.
Helt seriøst !
For nogen vil det være en løsning på et kølings problem.
For andre vil det være noget de ikke køber pga de har et bundkort /
lille kabinet, hvor der ikke er plads til det.
Iøvrigt findes det faktisk allerede:
http://www.tech-report.com/onearticle.x/3688
http://akiba.ascii24.com/akiba/news/2002/06/06/imageview/images686825.jp
g.html
--
Hilsen
Michael Lund Sørensen
www.milux.dk.sletdette
| |
Dennis Jakobsen (07-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 07-07-02 19:34 |
|
Michael Lund Sørensen wrote:
>
> Jeg forstår dig ikke.
> Vi mener ganske seriøst at nogle grafikkort fabrikanterne bør overveje
> at sætte GPU'en med blæser på bagsiden af grafikkortet for bedre
> kølingsmulighed.
>
> Helt seriøst !
ja, det var det indtryk jeg fik i første omgang.. det var netop derfor
jeg gav råd imod det.. for det har ikke noget med ATX at gøre at du har
lidt plads OVER AGP slottet.. (i et vertikalt kabinet)
> For nogen vil det være en løsning på et kølings problem
>
> For andre vil det være noget de ikke køber pga de har et bundkort /
> lille kabinet, hvor der ikke er plads til det.
så køber de vel et ATI kort istedet for.. som kører 300mhz uden aktiv
køling? :)
det synes jeg jo er en positiv udvikling..
> Iøvrigt findes det faktisk allerede:
>
> http://www.tech-report.com/onearticle.x/3688
jeg kan ikke huske hvor jeg fandt det link til den reviderede R200 chip
(RV250?) som ikke kræver en blæser.. ret imponerende ved 300mhz..
det burde være sådan varmen blev fjernet.. ikke hvor du putter chippen
i kabinettet..
Dennis
| |
Dennis Jakobsen (07-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 07-07-02 21:02 |
| | |
Michael Lund Sørense~ (07-07-2002)
| Kommentar Fra : Michael Lund Sørense~ |
Dato : 07-07-02 22:23 |
|
Dennis Jakobsen <brunis@[REM-SPAM]kolumbus.fi> skrev:
> Dennis Jakobsen wrote:
>
>> jeg kan ikke huske hvor jeg fandt det link til den reviderede R200
>> chip (RV250?) som ikke kræver en blæser.. ret imponerende ved
>> 300mhz..
>
> http://www.pcpop.com.cn/view.asp?type=news&id=7391
>
> der var den!
Ja det forstår man jo meget af, hvis man er skide god til kinesisk !
Men der _ER_ blæser på de 3 øverste billeder !!!
Åben øjnene og se det og de piller den åbenbart af på de nederste
billeder og sætter en passiv køleplade på. Med de viser jo ikke kortet
i brug uden blæser. Og hvad det er for en chip kan jeg ikke se.
Prøv at antage en seriøs holdning og forstå at ikke alle er interesseret
i ATI
Mit gamle Matrox Marvel G450 eTV havde i øvrigt ingen blæser på!
--
Hilsen
Michael Lund Sørensen
www.milux.dk.sletdette
| |
Dennis Jakobsen (07-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 07-07-02 22:51 |
|
Michael Lund Sørensen wrote:
> Dennis Jakobsen <brunis@[REM-SPAM]kolumbus.fi> skrev:
>
>
>>Dennis Jakobsen wrote:
>>
>>
>>>jeg kan ikke huske hvor jeg fandt det link til den reviderede R200
>>>chip (RV250?) som ikke kræver en blæser.. ret imponerende ved
>>>300mhz..
>>
>> http://www.pcpop.com.cn/view.asp?type=news&id=7391
>>
>>der var den!
>
>
> Ja det forstår man jo meget af, hvis man er skide god til kinesisk !
>
> Men der _ER_ blæser på de 3 øverste billeder !!!
ja, det er det R300 baserede kort..
> Åben øjnene og se det og de piller den åbenbart af på de nederste
> billeder og sætter en passiv køleplade på. Med de viser jo ikke kortet
> i brug uden blæser. Og hvad det er for en chip kan jeg ikke se.
RV250.. den reviderede Radeon8500 udgave..
> Prøv at antage en seriøs holdning og forstå at ikke alle er interesseret
> i ATI
det var vist den forkerte tråd.. (det var tråden under denne) sorry..
jeg troede det var en grafikkort tråd ?
men åbenlyst kun velkommen for gamle Matrox evangelister der kan leve af
deres 2D kvalitet til deres PC rådner..
> Mit gamle Matrox Marvel G450 eTV havde i øvrigt ingen blæser på!
wow.. det havde heller ingen features der kunne kræve en blæser..
Mit Voodoo3 kørte også uden blæser.. jaja, jeg ved det godt, du er
heller ikke interesseret i 3dfx..
| |
Peter Jespersen (08-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 08-07-02 16:19 |
|
On Mon, 08 Jul 2002 00:50:52 +0300, Dennis Jakobsen wrote:
<snip>
>
>det var vist den forkerte tråd.. (det var tråden under denne) sorry..
>
>jeg troede det var en grafikkort tråd ?
>
>men åbenlyst kun velkommen for gamle Matrox evangelister der kan leve af
>deres 2D kvalitet til deres PC rådner..
Drop det pis!!!
>> Mit gamle Matrox Marvel G450 eTV havde i øvrigt ingen blæser på!
>
>wow.. det havde heller ingen features der kunne kræve en blæser..
Drop det pis!!!
Der kan sgu være mange gode grunde til at mange stadig benytter
Matrox-kort, især på ikke-Redmond platforme.
En af grundene til at jeg selv benytter et G400 DH er at både
ATi's og nVidia's SplitScreen implementationer er så
himmelråbende og elendige at man helt får det dårligt. Det er
først med R300 at ATi vil være istand til at vise noget der
kommer tilnærmelsesvis i nærheden. Dernæst har Matrox en gammel
tradition med at have drivere for andet end det nyeste
Fisher-Price fra Redmond.
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
I'm outta sick days; I think I'll call in dead.
| |
Dennis Jakobsen (08-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 08-07-02 17:55 |
|
Peter Jespersen wrote:
> On Mon, 08 Jul 2002 00:50:52 +0300, Dennis Jakobsen wrote:
>
> <snip>
>
>>det var vist den forkerte tråd.. (det var tråden under denne) sorry..
>>
>>jeg troede det var en grafikkort tråd ?
>>
>>men åbenlyst kun velkommen for gamle Matrox evangelister der kan leve af
>>deres 2D kvalitet til deres PC rådner..
>
>
> Drop det pis!!!
>
>
>>>Mit gamle Matrox Marvel G450 eTV havde i øvrigt ingen blæser på!
>>
>>wow.. det havde heller ingen features der kunne kræve en blæser..
>
>
> Drop det pis!!!
hvad for noget pis?
for satan i matrox er 'touchy'.. i ærgrer jer så vildt over de usle 3d
features.. eller mangel på samme at ligeså snart man nævner det, bliver
der sat en hård linie, som hvis vover at overtræde.. uuuhh.. fear the
consequences.. hehe.. i pity you..
hold dog op med at hæng i fortiden og jeres 'wanna-be 2D superiority'
> Der kan sgu være mange gode grunde til at mange stadig benytter
> Matrox-kort, især på ikke-Redmond platforme.
> En af grundene til at jeg selv benytter et G400 DH er at både
> ATi's og nVidia's SplitScreen implementationer er så
> himmelråbende og elendige at man helt får det dårligt. Det er
mit virker fint.. har du prøvet at ty til manualen? bare fordi det
ikke lige virkede første gang du famlede i blinde, kan det jo stadig
fungere fortræffeligt ikke? nå nej.. ikke hvis det ikke er gjort på
Matrox måden.. som jo er end-all be-all løsningen.. riiight..
> først med R300 at ATi vil være istand til at vise noget der
> kommer tilnærmelsesvis i nærheden. Dernæst har Matrox en gammel
> tradition med at have drivere for andet end det nyeste
> Fisher-Price fra Redmond.
hvordan ser en 1024x768x32 ud på dit TV?
ooops.. get with the program.. køb et Radeon8500 i dag..
| |
Peter Jespersen (08-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 08-07-02 23:14 |
|
On Mon, 08 Jul 2002 19:54:33 +0300, Dennis Jakobsen wrote:
<snip>
>hvad for noget pis?
>
>for satan i matrox er 'touchy'.. i ærgrer jer så vildt over de usle 3d
>features.. eller mangel på samme at ligeså snart man nævner det, bliver
>der sat en hård linie, som hvis vover at overtræde.. uuuhh.. fear the
>consequences.. hehe.. i pity you..
Rent faktisk er Matrox ikke så langt bagefter mht features,
deres nyeste processor er gerne en meter foran konkurrenterne.
>hold dog op med at hæng i fortiden og jeres 'wanna-be 2D superiority'
Hmmm...så du bruger aldrig kortets 2D del ??
>> Der kan sgu være mange gode grunde til at mange stadig benytter
>> Matrox-kort, især på ikke-Redmond platforme.
>> En af grundene til at jeg selv benytter et G400 DH er at både
>> ATi's og nVidia's SplitScreen implementationer er så
>> himmelråbende og elendige at man helt får det dårligt. Det er
>
>mit virker fint.. har du prøvet at ty til manualen? bare fordi det
>ikke lige virkede første gang du famlede i blinde, kan det jo stadig
>fungere fortræffeligt ikke? nå nej.. ikke hvis det ikke er gjort på
>Matrox måden.. som jo er end-all be-all løsningen.. riiight..
Heh der har du ganske ret, men selv en blind høne.......
>> først med R300 at ATi vil være istand til at vise noget der
>> kommer tilnærmelsesvis i nærheden. Dernæst har Matrox en gammel
>> tradition med at have drivere for andet end det nyeste
>> Fisher-Price fra Redmond.
>
>hvordan ser en 1024x768x32 ud på dit TV?
>
>ooops.. get with the program.. køb et Radeon8500 i dag..
Aldrig i livet, jeg har overvejet det flere gang men hver gang
er der en hjernedød nar der fået mig fra det....du er den
seneste - jeg kan nu annoncere at det næste grafikkort bliver et
Matrox Parhelia.... Nu ved du hvor du kan parkere både ATi R200,
250 og 300....nemlig et sted hvor solen forhåbentlig aldrig
skinner.
Desværre har jeg ikke i øjeblikket råd til en tredje
Trinitron-skærm, så der bliver ingen TrippleHead for mig indtil
videre.....
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
Yoda am I, of Borg. Assimilated will you be.
| |
Dennis Jakobsen (08-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 08-07-02 23:42 |
|
Peter Jespersen wrote:
> On Mon, 08 Jul 2002 19:54:33 +0300, Dennis Jakobsen wrote:
>
> <snip>
>
>>hvad for noget pis?
>>
>>for satan i matrox er 'touchy'.. i ærgrer jer så vildt over de usle 3d
>>features.. eller mangel på samme at ligeså snart man nævner det, bliver
>>der sat en hård linie, som hvis vover at overtræde.. uuuhh.. fear the
>>consequences.. hehe.. i pity you..
>
>
> Rent faktisk er Matrox ikke så langt bagefter mht features,
> deres nyeste processor er gerne en meter foran konkurrenterne.
>
>
>>hold dog op med at hæng i fortiden og jeres 'wanna-be 2D superiority'
>
>
> Hmmm...så du bruger aldrig kortets 2D del ??
>
>
>>>Der kan sgu være mange gode grunde til at mange stadig benytter
>>>Matrox-kort, især på ikke-Redmond platforme.
>>>En af grundene til at jeg selv benytter et G400 DH er at både
>>>ATi's og nVidia's SplitScreen implementationer er så
>>>himmelråbende og elendige at man helt får det dårligt. Det er
>>
>>mit virker fint.. har du prøvet at ty til manualen? bare fordi det
>>ikke lige virkede første gang du famlede i blinde, kan det jo stadig
>>fungere fortræffeligt ikke? nå nej.. ikke hvis det ikke er gjort på
>>Matrox måden.. som jo er end-all be-all løsningen.. riiight..
>
> Heh der har du ganske ret, men selv en blind høne.......
>
>
>>>først med R300 at ATi vil være istand til at vise noget der
>>>kommer tilnærmelsesvis i nærheden. Dernæst har Matrox en gammel
>>>tradition med at have drivere for andet end det nyeste
>>>Fisher-Price fra Redmond.
>>
>>hvordan ser en 1024x768x32 ud på dit TV?
>>
>>ooops.. get with the program.. køb et Radeon8500 i dag..
>
> Aldrig i livet, jeg har overvejet det flere gang men hver gang
> er der en hjernedød nar der fået mig fra det....du er den
> seneste - jeg kan nu annoncere at det næste grafikkort bliver et
> Matrox Parhelia.... Nu ved du hvor du kan parkere både ATi R200,
> 250 og 300....nemlig et sted hvor solen forhåbentlig aldrig
> skinner.
jeg har da planer om at beholde det.. hver gang jeg opgraderer går det
'gamle' kort over i den sekundære maskine..
så må du jo græde ved din mors skulder når du indser alle de penge du
spildte på dit gårsdagens tech kort til morgendagens pris.. enjoy..
> Desværre har jeg ikke i øjeblikket råd til en tredje
> Trinitron-skærm, så der bliver ingen TrippleHead for mig indtil
> videre.....
årrrhh.. jeg kan da sende dig et billede af mit Radeon8500 setup! :)
| |
Peter Jespersen (09-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 09-07-02 02:15 |
|
On Tue, 09 Jul 2002 01:42:13 +0300, Dennis Jakobsen wrote:
>Peter Jespersen wrote:
>> On Mon, 08 Jul 2002 19:54:33 +0300, Dennis Jakobsen wrote:
>>
>> <snip>
>>
>>>hvad for noget pis?
>>>
>>>for satan i matrox er 'touchy'.. i ærgrer jer så vildt over de usle 3d
>>>features.. eller mangel på samme at ligeså snart man nævner det, bliver
>>>der sat en hård linie, som hvis vover at overtræde.. uuuhh.. fear the
>>>consequences.. hehe.. i pity you..
>>
>>
>> Rent faktisk er Matrox ikke så langt bagefter mht features,
>> deres nyeste processor er gerne en meter foran konkurrenterne.
>>
>>
>>>hold dog op med at hæng i fortiden og jeres 'wanna-be 2D superiority'
>>
>>
>> Hmmm...så du bruger aldrig kortets 2D del ??
Åbenbart ikke....
>>>>Der kan sgu være mange gode grunde til at mange stadig benytter
>>>>Matrox-kort, især på ikke-Redmond platforme.
>>>>En af grundene til at jeg selv benytter et G400 DH er at både
>>>>ATi's og nVidia's SplitScreen implementationer er så
>>>>himmelråbende og elendige at man helt får det dårligt. Det er
>>>
>>>mit virker fint.. har du prøvet at ty til manualen? bare fordi det
>>>ikke lige virkede første gang du famlede i blinde, kan det jo stadig
>>>fungere fortræffeligt ikke? nå nej.. ikke hvis det ikke er gjort på
>>>Matrox måden.. som jo er end-all be-all løsningen.. riiight..
>>
>> Heh der har du ganske ret, men selv en blind høne.......
>>
>>
>>>>først med R300 at ATi vil være istand til at vise noget der
>>>>kommer tilnærmelsesvis i nærheden. Dernæst har Matrox en gammel
>>>>tradition med at have drivere for andet end det nyeste
>>>>Fisher-Price fra Redmond.
>>>
>>>hvordan ser en 1024x768x32 ud på dit TV?
>>>
>>>ooops.. get with the program.. køb et Radeon8500 i dag..
>>
>> Aldrig i livet, jeg har overvejet det flere gang men hver gang
>> er der en hjernedød nar der fået mig fra det....du er den
>> seneste - jeg kan nu annoncere at det næste grafikkort bliver et
>> Matrox Parhelia.... Nu ved du hvor du kan parkere både ATi R200,
>> 250 og 300....nemlig et sted hvor solen forhåbentlig aldrig
>> skinner.
>
>jeg har da planer om at beholde det.. hver gang jeg opgraderer går det
>'gamle' kort over i den sekundære maskine..
>
>så må du jo græde ved din mors skulder når du indser alle de penge du
>spildte på dit gårsdagens tech kort til morgendagens pris.. enjoy...
Skægt nok vil R250 ikke fange P teknologisk....R300 har
chancen...
Jeg har ikke grædt siden jeg indkøbte mit første Matrox-kort,
der 5 år efter stadig er i brug, ligesom mit Millenium2...mit
G400-DH derimod vil jeg nok indramme og hænge op på væggen.....
Så pak du bare dine lego-klodser sammen...
>> Desværre har jeg ikke i øjeblikket råd til en tredje
>> Trinitron-skærm, så der bliver ingen TrippleHead for mig indtil
>> videre.....
>
>årrrhh.. jeg kan da sende dig et billede af mit Radeon8500 setup! :)
Næh hvor kært....men hvad Dualhead er vil også godt nok for mig
i øjeblikket....
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
Where am I? And why am I in this HANDBASKET??
| |
Dennis Jakobsen (09-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 09-07-02 01:47 |
|
Peter Jespersen wrote:
> Skægt nok vil R250 ikke fange P teknologisk....R300 har
> chancen...
vil du være sød at uddybe? at have flere features end et GF4 fanger
ikke teknologisk?
jeg ved godt 3D ikke fanger dig overhovedet, for du har jo stadig et
Matrox kort.. (og lad nu vær at bliv fornærmet, vi kan vel være enige
om at det ikke just har den store 3D performance..)
og ja.. R300 bliver spændende.. lad os se om de kan finde ud af at
udnytte en 256mbit mem bus.. Matrox ser jo ikke ud til at kunne gøre
noget med deres ~20gb/sec.
dem der har et siger jo det tørrer røv med alt andet på markedet..
hvilket Matrox kortet også burde have gjort med de spec's det har..
måske en driver løser det i den nærmeste fremtid?!? hvem ved..
> Jeg har ikke grædt siden jeg indkøbte mit første Matrox-kort,
> der 5 år efter stadig er i brug, ligesom mit Millenium2...mit
> G400-DH derimod vil jeg nok indramme og hænge op på væggen.....
> Så pak du bare dine lego-klodser sammen...
hmm.. jeg overvejede det der Mindstorm sæt, men havde aldrig penge til
det.. mine lomme penge rækker ikke.. ;)
| |
Peter Jespersen (09-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 09-07-02 12:10 |
|
On Tue, 09 Jul 2002 03:46:50 +0300, Dennis Jakobsen wrote:
>Peter Jespersen wrote:
>
>> Skægt nok vil R250 ikke fange P teknologisk....R300 har
>> chancen...
>
>vil du være sød at uddybe? at have flere features end et GF4 fanger
>ikke teknologisk?
Hvem blandet nVidia-skramlet ind her ??
>jeg ved godt 3D ikke fanger dig overhovedet, for du har jo stadig et
>Matrox kort.. (og lad nu vær at bliv fornærmet, vi kan vel være enige
>om at det ikke just har den store 3D performance..)
Nej, 3D ydelsesmæssigt har Matrox altid været en halv generation
bagefter - featuremæssigt og kvalitetsmæssigt har de altid være
foran. Det er det de ligger vægt på og det er det der i den grad
forsinker kortene. Men nej min maskiner er i det hele taget ikke
en spillemaskine - en indikation er fx at den er drevet af en
1000Mhz Morgan.
Men nu er verden sådan at det ikker er alle der er 3D FPS
fixerede .... har kun ganske få spille-svagheder men her slår
min nuværende konfiguration faktisk stadig til. Der er rent
faktisk nogle brugere der ligge mere vægt på billedkvalitet,
fremragende SplitScreen kapabiliteter og en alsidig
driverunderstøttelse.
>og ja.. R300 bliver spændende.. lad os se om de kan finde ud af at
>udnytte en 256mbit mem bus.. Matrox ser jo ikke ud til at kunne gøre
>noget med deres ~20gb/sec.
>
>dem der har et siger jo det tørrer røv med alt andet på markedet...
>hvilket Matrox kortet også burde have gjort med de spec's det har..
>måske en driver løser det i den nærmeste fremtid?!? hvem ved..
Nej - P har flaskehalse og er flere steder underbemandet. Det
store problem er dog hvad Matrox har gjort ved P, eller ikke har
gjort ved P.
Den lave core-clock er det største problem, konkurrenterne er
tæt på at have et forspring på 100Mhz....tager man det med i
overvejelserne - klarer P sig rent faktisk ikke helt dårligt.
Forhåbentlig kommer der er .13my udgave senere i år- hvilket vil
gøre dte muligt at skrue op for taktfrekvensen.
<snip>
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
Finagle's First Law: If an experiment works, something has gone wrong.
| |
Dennis Jakobsen (09-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 09-07-02 14:51 |
|
Peter Jespersen wrote:
> On Tue, 09 Jul 2002 03:46:50 +0300, Dennis Jakobsen wrote:
>
>
>>Peter Jespersen wrote:
>>
>>
>>>Skægt nok vil R250 ikke fange P teknologisk....R300 har
>>>chancen...
>>
>>vil du være sød at uddybe? at have flere features end et GF4 fanger
>>ikke teknologisk?
>
> Hvem blandet nVidia-skramlet ind her ??
det gjorde jeg ... det hentydede jo ikke til noget, så jeg valgte at
tage det navn folk normalt associerer med det bedste grafikkort..
nu ville det jo nok have været Matrox Parhelia i dit tilfælde.
>>jeg ved godt 3D ikke fanger dig overhovedet, for du har jo stadig et
>>Matrox kort.. (og lad nu vær at bliv fornærmet, vi kan vel være enige
>>om at det ikke just har den store 3D performance..)
>
> Nej, 3D ydelsesmæssigt har Matrox altid været en halv generation
tjaa.. indtil Parhelia, var det jo nok mere 2-3 hele generationer
> bagefter - featuremæssigt og kvalitetsmæssigt har de altid være
feature mæssigt? hvilke features snakker du om? (jeg tænker jo straks
3D når du nævner features)
> foran. Det er det de ligger vægt på og det er det der i den grad
> forsinker kortene. Men nej min maskiner er i det hele taget ikke
> en spillemaskine - en indikation er fx at den er drevet af en
> 1000Mhz Morgan.
ja.. det var da overdrevet meget hvis du ikke skal spille! ;)
(men så er der jo mp3 encoding, divx osv. osv. )
> Men nu er verden sådan at det ikker er alle der er 3D FPS
> fixerede .... har kun ganske få spille-svagheder men her slår
> min nuværende konfiguration faktisk stadig til. Der er rent
> faktisk nogle brugere der ligge mere vægt på billedkvalitet,
> fremragende SplitScreen kapabiliteter og en alsidig
> driverunderstøttelse.
ja, jeg lægger fx. vægt på det hele..
> Nej - P har flaskehalse og er flere steder underbemandet. Det
> store problem er dog hvad Matrox har gjort ved P, eller ikke har
> gjort ved P.
> Den lave core-clock er det største problem, konkurrenterne er
> tæt på at have et forspring på 100Mhz....tager man det med i
> overvejelserne - klarer P sig rent faktisk ikke helt dårligt.
> Forhåbentlig kommer der er .13my udgave senere i år- hvilket vil
> gøre dte muligt at skrue op for taktfrekvensen.
njaa.. jeg er ikke helt enig.. det med klok frekvensen har selvf. noget
at sige.. men i memory båndbredde tests har den det halve af et Radeon
(som har det halve af et GF4).. selvom den har det teoretisk dobbelte
til rådighed.. det er ikke GPU klokfrekvensen der begrænser din memory
båndbredde, så er der i hvert fald et kæmpe design flaw og den 256bit
mem bus er spildt..
ja, lad os håbe de får oppet frekvensen.. men det hjælper jo ikke
meget, når de kun udnytter 1/4 af deres båndbredde..
| |
Peter Jespersen (11-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 11-07-02 19:25 |
|
On Tue, 09 Jul 2002 16:51:06 +0300, Dennis Jakobsen wrote:
>Peter Jespersen wrote:
>> On Tue, 09 Jul 2002 03:46:50 +0300, Dennis Jakobsen wrote:
>>
>>>Peter Jespersen wrote:
>>>
>>>>Skægt nok vil R250 ikke fange P teknologisk....R300 har
>>>>chancen...
>>>
>>>vil du være sød at uddybe? at have flere features end et GF4 fanger
>>>ikke teknologisk?
>>
>> Hvem blandet nVidia-skramlet ind her ??
>
>det gjorde jeg ... det hentydede jo ikke til noget, så jeg valgte at
>tage det navn folk normalt associerer med det bedste grafikkort..
>
>nu ville det jo nok have været Matrox Parhelia i dit tilfælde.
Ikke nødvendigvis, vi kan jo ikke alle være lige fixerede...
Men med P mente jeg rent faktisk Parhelia...og bare fordi en
bestemt GPU skyder flest FPS ud behøver det ikke at være den
bedste GPU, til alle opgaver.
En af grundende til at jeg holder så meget af Matrox-kortene er
at de ikke har små obskure fabrikanter til at strikke dem
sammen, uden kontrol. Jeg var dybt skuffet da ATi skubbede hele
produktionen fra sig.
>>>jeg ved godt 3D ikke fanger dig overhovedet, for du har jo stadig et
>>>Matrox kort.. (og lad nu vær at bliv fornærmet, vi kan vel være enige
>>>om at det ikke just har den store 3D performance..)
>>
>> Nej, 3D ydelsesmæssigt har Matrox altid været en halv generation
>
>tjaa.. indtil Parhelia, var det jo nok mere 2-3 hele generationer
At seneste generation processor, kørende på minimum 3
generationsdrivere kan slå en første udgave af en konkurrerende
processor kørende på førsteudgave drivprogrammer er vel ikke
sentationelt....
>> bagefter - featuremæssigt og kvalitetsmæssigt har de altid være
>
>feature mæssigt? hvilke features snakker du om? (jeg tænker jo straks
>3D når du nævner features)
AFAIR mangler Parhelia kun en enkelt feature, så er den DirectX9
kompatibel....selv ikke ATi, der har været medkonspirator kan på
nuværende tidspunkt fremvise noget sådan. 16xFAA er også en
herlig genvej....Surround Gaming...
>> foran. Det er det de ligger vægt på og det er det der i den grad
>> forsinker kortene. Men nej min maskiner er i det hele taget ikke
>> en spillemaskine - en indikation er fx at den er drevet af en
>> 1000Mhz Morgan.
>
>ja.. det var da overdrevet meget hvis du ikke skal spille! ;)
Har stadig svagheder...syysh
>(men så er der jo mp3 encoding, divx osv. osv. )
Yep...der er forskel på om det er procesoren der står og venter
på CD-ROM drevet eller om det er CD-ROM drevet der venter på at
processoren får nosset sig færdig..... hvis det tager over et
døgn at grabbe en DVD-film, begynder det også at blive lidt
kedeligt.
Bruger min maskine til alt multimedia i øjeblikket, har ikke
højtalere til min forstærker.....fx ved afspilning af DVD....Det
er her at DualHead virkelig skinner
>> Men nu er verden sådan at det ikker er alle der er 3D FPS
>> fixerede .... har kun ganske få spille-svagheder men her slår
>> min nuværende konfiguration faktisk stadig til. Der er rent
>> faktisk nogle brugere der ligge mere vægt på billedkvalitet,
>> fremragende SplitScreen kapabiliteter og en alsidig
>> driverunderstøttelse.
>
>ja, jeg lægger fx. vægt på det hele..
Så du vælger det kort der bedst opfylder dine krav....det gør så
ikke et G450MMS til dårligt kort - hvilket der klart blev lagt
op til i starten.
Det at Parhelia ikke 100% er designet til malstrømmen af mere
eller mindre tåbelige 3D-spil, gør det ej heller til en dårlig
dims.
>> Nej - P har flaskehalse og er flere steder underbemandet. Det
>> store problem er dog hvad Matrox har gjort ved P, eller ikke har
>> gjort ved P.
>> Den lave core-clock er det største problem, konkurrenterne er
>> tæt på at have et forspring på 100Mhz....tager man det med i
>> overvejelserne - klarer P sig rent faktisk ikke helt dårligt.
>> Forhåbentlig kommer der er .13my udgave senere i år- hvilket vil
>> gøre dte muligt at skrue op for taktfrekvensen.
>
>njaa.. jeg er ikke helt enig.. det med klok frekvensen har selvf. noget
>at sige.. men i memory båndbredde tests har den det halve af et Radeon
>(som har det halve af et GF4).. selvom den har det teoretisk dobbelte
>til rådighed.. det er ikke GPU klokfrekvensen der begrænser din memory
>båndbredde, så er der i hvert fald et kæmpe design flaw og den 256bit
>mem bus er spildt..
>
>ja, lad os håbe de får oppet frekvensen.. men det hjælper jo ikke
>meget, når de kun udnytter 1/4 af deres båndbredde..
De mangler lidt Band-saving......men det meste ligger på det de
gør med Parhelia...
Men på den anden side, hvis man ved at GPU'en i kamp aldrig vil
komme op i nærheden af at udnytte båndbredden (Det er stadig den
der roder og regerer ved data'en + de hukommelseskredse der
bliver brugt er ikke ligefrem nogle der skaber nyheder), kan man
skære et hjørne og komme ud med kortet nogle måneder før.....
senere kan man så komme med et kort der udnytter
båndbredden.....syntetiske benchmarks viser kun en lille del af
sandheden....
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
No one can hear when you're Screaming in Digital!
| |
Dennis Jakobsen (12-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 12-07-02 01:10 |
|
Peter Jespersen wrote:
> Ikke nødvendigvis, vi kan jo ikke alle være lige fixerede...
jeg er fixeret på det kort der tilfredstiller de fleste af mine behov..
(god 3D, god TV-ud og en billig pris)
det er et Radeon8500 lige nu..
> Men med P mente jeg rent faktisk Parhelia...og bare fordi en
> bestemt GPU skyder flest FPS ud behøver det ikke at være den
> bedste GPU, til alle opgaver.
nej, R200 chippen har fx. flere features end nogen Nvidia GPU, men ikke
den samme rå power.. så derfor betragter jeg den som bedre (altså R200)
:)
> En af grundende til at jeg holder så meget af Matrox-kortene er
> at de ikke har små obskure fabrikanter til at strikke dem
> sammen, uden kontrol. Jeg var dybt skuffet da ATi skubbede hele
> produktionen fra sig.
øhh. har de gjort det? og hvornår? mit er et ATI kort.. (ikke bare
chippen.:))
>>tjaa.. indtil Parhelia, var det jo nok mere 2-3 hele generationer
>
> At seneste generation processor, kørende på minimum 3
> generationsdrivere kan slå en første udgave af en konkurrerende
> processor kørende på førsteudgave drivprogrammer er vel ikke
> sentationelt....
kunne du ikke give nogle navne her.. hvilke CPU'er tænker du på? (og
mente du ikke GPU'er?)
og hvad er et drivprogram? en driver?
Det jeg mente var, at FØR Parhelia kom, var Matrox's bedste tilbud på 3D
kronen 2-3 generationer bagud i både features og performance..
>>>bagefter - featuremæssigt og kvalitetsmæssigt har de altid være
>>
>>feature mæssigt? hvilke features snakker du om? (jeg tænker jo straks
>>3D når du nævner features)
>
> AFAIR mangler Parhelia kun en enkelt feature, så er den DirectX9
> kompatibel..
hvilken feature var det?
> ..selv ikke ATi, der har været medkonspirator kan på
> nuværende tidspunkt fremvise noget sådan.
nææh, men de lancerer det som sædvanlig måneder før softwaren er
tilrådighed.. :) ligesom de gjorde med dx8
jeg tror de tager sig god tid.. de får sig en kanon anden halvdel af
året hvis nVidia ikke får deres NV30 ud til Jul..
men så igen.. der bliver jo også lige 3DLabs' P10.. det lyder som et
heftigt kort.. og det bliver prisen da også uden tvivl.. jeg ved bare
3DLabs kan FANDME lave ordentlige OpenGL drivere..
jeg læste også et sted at det vist kun bliver OpenGL2.. de har droppet
bagud kompatibilitet.. så en fixed T&L er ingen steder at blive fundet..
så DX7 spil kan ikke spilles.. :-/
men med de cpu'er vi har i dag.. kan det vel emuleres uden for meget
besvær..
>>ja.. det var da overdrevet meget hvis du ikke skal spille! ;)
>
> Har stadig svagheder...syysh
(visker: hvilke?)
>>(men så er der jo mp3 encoding, divx osv. osv. )
>
> Yep...der er forskel på om det er procesoren der står og venter
> på CD-ROM drevet eller om det er CD-ROM drevet der venter på at
> processoren får nosset sig færdig..... hvis det tager over et
> døgn at grabbe en DVD-film, begynder det også at blive lidt
> kedeligt.
ja, men hvor gammelt er dit CDROM drev? (jeg tænker på DMA transfers)
og du skal vist langt under 100Mhz hvis CDROM'en venter på processoren.
>>ja, jeg lægger fx. vægt på det hele..
>
> Så du vælger det kort der bedst opfylder dine krav....det gør så
> ikke et G450MMS til dårligt kort - hvilket der klart blev lagt
> op til i starten.
tjoo.. 3D spil er en del af DET HELE.. så G450 er stadig ubrugeligt for
mig.. men ingen tvivl om at det kort tjener sit formål perfekt!
> Det at Parhelia ikke 100% er designet til malstrømmen af mere
> eller mindre tåbelige 3D-spil, gør det ej heller til en dårlig
> dims.
nej, måske ikke 100%.. men der er lagt STOR vægt på 3D delen i denne
omgang.. det blev så stort at de mistede overblikket..
jeg sidder stadig og venter på der kommer en driver update til at fixe
den dårlige brug af båndbredden.. det kan virkelig ikke passe at det
ikke klarer sig bedre..
> De mangler lidt Band-saving......men det meste ligger på det de
> gør med Parhelia...
> Men på den anden side, hvis man ved at GPU'en i kamp aldrig vil
> komme op i nærheden af at udnytte båndbredden (Det er stadig den
> der roder og regerer ved data'en + de hukommelseskredse der
> bliver brugt er ikke ligefrem nogle der skaber nyheder), kan man
> skære et hjørne og komme ud med kortet nogle måneder før.....
> senere kan man så komme med et kort der udnytter
> båndbredden.....syntetiske benchmarks viser kun en lille del af
> sandheden....
tjaa.. hvis du har en syntetisk benchmark og du vil vurdere hele kortet,
så ja..
men i dette tilfælde snakker vi om ren memory båndbredde.. der kan en
test fortælle hele sandheden.. hvilket den også gør i dette tilfælde!
men som sagt håber jeg der kommer et driver fix.. det kunne seriøst
booste performance..
| |
Peter Jespersen (12-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 12-07-02 12:57 |
|
On Fri, 12 Jul 2002 03:10:17 +0300, Dennis Jakobsen wrote:
>Peter Jespersen wrote:
>> Ikke nødvendigvis, vi kan jo ikke alle være lige fixerede...
>
>jeg er fixeret på det kort der tilfredstiller de fleste af mine behov...
>(god 3D, god TV-ud og en billig pris)
>
>det er et Radeon8500 lige nu..
>
>> Men med P mente jeg rent faktisk Parhelia...og bare fordi en
>> bestemt GPU skyder flest FPS ud behøver det ikke at være den
>> bedste GPU, til alle opgaver.
>
>nej, R200 chippen har fx. flere features end nogen Nvidia GPU, men ikke
>den samme rå power.. så derfor betragter jeg den som bedre (altså R200)
>:)
>> En af grundende til at jeg holder så meget af Matrox-kortene er
>> at de ikke har små obskure fabrikanter til at strikke dem
>> sammen, uden kontrol. Jeg var dybt skuffet da ATi skubbede hele
>> produktionen fra sig.
>
>øhh. har de gjort det? og hvornår? mit er et ATI kort.. (ikke bare
>chippen.:))
Idag er det ASUS der fremstiller kortene for ATi.....der var vild panik nogle
steder da ATi lukkede for originale kort til europa...mange forhandlere kunne
så ikke se forskel på "Made by ATi" og "Powered by ATi" og solgte en del kort
af inferiør kvalitet fra obskure fabrikanter.
>>>tjaa.. indtil Parhelia, var det jo nok mere 2-3 hele generationer
>>
>> At seneste generation processor, kørende på minimum 3
>> generationsdrivere kan slå en første udgave af en konkurrerende
>> processor kørende på førsteudgave drivprogrammer er vel ikke
>> sentationelt....
>
>kunne du ikke give nogle navne her.. hvilke CPU'er tænker du på? (og
>mente du ikke GPU'er?)
En GPU er også en processor, du må lære at skelne den fra hovedprocessoren
(På amerikansk Central Processing Unit)
>og hvad er et drivprogram? en driver?
Ja...på god gammel dansk kaldes det blandt andet et drivprogram.
>Det jeg mente var, at FØR Parhelia kom, var Matrox's bedste tilbud på 3D
>kronen 2-3 generationer bagud i både features og performance..
Jeg taler om lanceringstidspunktet...her er Matrox 3D ydelsesmæssigt gerne en
halv generation bagud.
At det eneste de har gjort ved G'en er at smide en ekstra pipeline og noget
Face-animation på i løbet af de sidste 3 år er kedeligt.
>>>>bagefter - featuremæssigt og kvalitetsmæssigt har de altid være
>>>
>>>feature mæssigt? hvilke features snakker du om? (jeg tænker jo straks
>>>3D når du nævner features)
>>
>> AFAIR mangler Parhelia kun en enkelt feature, så er den DirectX9
> > kompatibel..
>
>hvilken feature var det?
Det kan jeg ikke huske lige nu....den står dog på Matrox' roadmap - så det
ser ud som om at PR-gutterne en kold og stromfuld nat har raidet
udviklingslaboratoriet og har givet udviklingsholdet 3 timer til at producere
en prototype...eller også er der en nyuddannet slipsefætter der har ment at
det var smart at tilføre en ny funktion til hver ny version af P de næste 12
år....
Det er ikke til at vide hvad en bi tænker....
>> ..selv ikke ATi, der har været medkonspirator kan på
>> nuværende tidspunkt fremvise noget sådan.
>
>nææh, men de lancerer det som sædvanlig måneder før softwaren er
>tilrådighed.. :) ligesom de gjorde med dx8
De har timingsmæssigt lært en del af deres første fejl....
>jeg tror de tager sig god tid.. de får sig en kanon anden halvdel af
>året hvis nVidia ikke får deres NV30 ud til Jul..
Sidst jeg hørte skulle der være alvorlige problemer med at nå det, så jeg vil
da håbe at ATi formår at udnytte fordelen denne gang.
>men så igen.. der bliver jo også lige 3DLabs' P10.. det lyder som et
>heftigt kort.. og det bliver prisen da også uden tvivl.. jeg ved bare
>3DLabs kan FANDME lave ordentlige OpenGL drivere..
>
>jeg læste også et sted at det vist kun bliver OpenGL2.. de har droppet
>bagud kompatibilitet.. så en fixed T&L er ingen steder at blive fundet..
>så DX7 spil kan ikke spilles.. :-/
>
>men med de cpu'er vi har i dag.. kan det vel emuleres uden for meget
>besvær..
Det er generel purpose processorer, der kort sagt kan beskrives som, kan alt,
bare ikke noget af det særligt godt .... en didikeret processor er altid at
foretrække
>>>ja.. det var da overdrevet meget hvis du ikke skal spille! ;)
>>
>> Har stadig svagheder...syysh
>
>(visker: hvilke?)
Lad mig bare sige at jeg er uønsket i 5 forskellige stater, bare i EU
>>>(men så er der jo mp3 encoding, divx osv. osv. )
>>
>> Yep...der er forskel på om det er procesoren der står og venter
>> på CD-ROM drevet eller om det er CD-ROM drevet der venter på at
>> processoren får nosset sig færdig..... hvis det tager over et
>> døgn at grabbe en DVD-film, begynder det også at blive lidt
>> kedeligt.
>
>ja, men hvor gammelt er dit CDROM drev? (jeg tænker på DMA transfers)
Det er et Pioneer S106......med visse værktøjer på visse styresystemer
(Mpeg3, fast bitrate) står processoren rent faktisk og venter på drevet....
>og du skal vist langt under 100Mhz hvis CDROM'en venter på processoren.
Den sidste maskine var drevet af en K6-2 450Mhz
>>>ja, jeg lægger fx. vægt på det hele..
>>
>> Så du vælger det kort der bedst opfylder dine krav....det gør så
>> ikke et G450MMS til dårligt kort - hvilket der klart blev lagt
>> op til i starten.
>
>tjoo.. 3D spil er en del af DET HELE.. så G450 er stadig ubrugeligt for
>mig.. men ingen tvivl om at det kort tjener sit formål perfekt!
Men stadig kun en del....
Jeg synes at mange har en tendens til at fokusere på kun en enkelt ting..og
den enkelte ting er som regl ydelsen, at cirklerne så er ovale har ikke noget
at sige.
>> Det at Parhelia ikke 100% er designet til malstrømmen af mere
>> eller mindre tåbelige 3D-spil, gør det ej heller til en dårlig
>> dims.
>
>nej, måske ikke 100%.. men der er lagt STOR vægt på 3D delen i denne
>omgang.. det blev så stort at de mistede overblikket..
De prøver for det meste at kapre gamle kunder med første udgave af P....
Jeg tror simpelthen at udviklingen igen har taget for lang tid, i modsætning
til de andre gange har PR-folkene så i nattens mulm og mørke bortranet den
lille nyfødte....ellers var det ej heller til at sige om Matrox i det hele
taget eksisterede på lanceringstidspunktet.
>jeg sidder stadig og venter på der kommer en driver update til at fixe
>den dårlige brug af båndbredden.. det kan virkelig ikke passe at det
>ikke klarer sig bedre..
>tjaa.. hvis du har en syntetisk benchmark og du vil vurdere hele kortet,
>så ja..
>
>men i dette tilfælde snakker vi om ren memory båndbredde.. der kan en
>test fortælle hele sandheden.. hvilket den også gør i dette tilfælde!
>
>men som sagt håber jeg der kommer et driver fix.. det kunne seriøst
>booste performance..
Der var også stabilitetsproblemer med nogle af de testede kort, jeg tror
absolut at de har lejet med prototyperne i frikvarteret....
Det ser også ud til at de har lært både af egne og ATi's fejltalelser mht
driverne, de har koncentreret sig om 2K/XP og Linux driverne (OS/2 driverne
har de folk til) ... forhåbentlig giver det bedre drivere end tidligere da de
selv understøttede alt med halve drivere.....Linux-driverne til G400 er
stadig på beta-stadiet.....
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
If you do not succeed, redefine success.
| |
Dennis Jakobsen (12-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 12-07-02 12:56 |
|
Peter Jespersen wrote:
> Idag er det ASUS der fremstiller kortene for ATi.....der var vild panik nogle
> steder da ATi lukkede for originale kort til europa...mange forhandlere kunne
> så ikke se forskel på "Made by ATi" og "Powered by ATi" og solgte en del kort
> af inferiør kvalitet fra obskure fabrikanter.
Asus?.. så mener du nVidia's chips ikke?
Herqules står for ATI kort i Europa.. og det står stadig frit for
enhver anden at lave kort på deres chips..
>>kunne du ikke give nogle navne her.. hvilke CPU'er tænker du på? (og
>>mente du ikke GPU'er?)
>
>
> En GPU er også en processor, du må lære at skelne den fra hovedprocessoren
> (På amerikansk Central Processing Unit)
tjaa.. det er det vel.. den er bare ikke general purpose..
men når du bare siger processor, bliver jeg jo nødt til at vælge en af
dem... hvis vi så kunne holde os til CPU og GPU i det mindste, så
forvirrer du ikke nogen.. (mig) :)
>>>AFAIR mangler Parhelia kun en enkelt feature, så er den DirectX9
>>>kompatibel..
>>
>>hvilken feature var det?
>
> Det kan jeg ikke huske lige nu....den står dog på Matrox' roadmap - så det
> ser ud som om at PR-gutterne en kold og stromfuld nat har raidet
er det 'publicly available' ? Matrox har altid haft deres læber syet
sammen med sejlgarn hvad angår fremtidige produkter..
nu er jeg ikke selv klar over alle kravene for 'DX9 Compliance' men det
kunne jo være mangel på AGP8x ..jeg ved i hvert fald at deres
farvepræcision er alt for lav.. så det er da en af dem..
> udviklingslaboratoriet og har givet udviklingsholdet 3 timer til at producere
> en prototype...eller også er der en nyuddannet slipsefætter der har ment at
> det var smart at tilføre en ny funktion til hver ny version af P de næste 12
> år....
aahh yes.. same old tactics.. så det er nok den gamle slipsefætter..
> Det er ikke til at vide hvad en bi tænker....
i det tilfælde er du også en bi for mig lige nu.. :)
>>nææh, men de lancerer det som sædvanlig måneder før softwaren er
>>tilrådighed.. :) ligesom de gjorde med dx8
>
> De har timingsmæssigt lært en del af deres første fejl....
så vidt jeg kan forstå er R300 chippen klar.. og har solide drivere..
det er bare begrænset hvor længe de gider vente på Microsoft bliver
færdig med DX9..
>>men med de cpu'er vi har i dag.. kan det vel emuleres uden for meget
>>besvær..
>
> Det er generel purpose processorer, der kort sagt kan beskrives som, kan alt,
> bare ikke noget af det særligt godt .... en didikeret processor er altid at
> foretrække
ja, tak for detaljerne, jeg ved godt hvordan det fungerer.. :)
og med "ikke særlig godt" mener du selvf. "ikke særlig hurtigt"
>>(visker: hvilke?)
>
> Lad mig bare sige at jeg er uønsket i 5 forskellige stater, bare i EU
øh, ok.. det er ikke noget jeg spi.. øh.. tester..
>>nej, måske ikke 100%.. men der er lagt STOR vægt på 3D delen i denne
>>omgang.. det blev så stort at de mistede overblikket..
>
> De prøver for det meste at kapre gamle kunder med første udgave af P...
> Jeg tror simpelthen at udviklingen igen har taget for lang tid, i modsætning
> til de andre gange har PR-folkene så i nattens mulm og mørke bortranet den
> lille nyfødte....ellers var det ej heller til at sige om Matrox i det hele
> taget eksisterede på lanceringstidspunktet.
for lang tid? ...tjaa.. men de skulle dog have brugt noget mere.. for
der er noget i vejen et eller andet sted..
>>men som sagt håber jeg der kommer et driver fix.. det kunne seriøst
>>booste performance..
>
> Der var også stabilitetsproblemer med nogle af de testede kort, jeg tror
> absolut at de har lejet med prototyperne i frikvarteret....
> Det ser også ud til at de har lært både af egne og ATi's fejltalelser mht
> driverne, de har koncentreret sig om 2K/XP og Linux driverne (OS/2 driverne
> har de folk til) ... forhåbentlig giver det bedre drivere end tidligere da de
> selv understøttede alt med halve drivere.....Linux-driverne til G400 er
> stadig på beta-stadiet.....
Matrox kortet var blandt de mest eftertragtede til BeOS, fordi det havde
den bedste understøttelse (video overlay support osv.) driveren var
ikke skrevet af Matrox, men det kræver jo at de er rundhåndede med
udlevering af spec's for at sådan en driver bliver til.. et punkt
hvor nVidia skulle dreje 180 grader..
nu skal jeg ikke kunne udtale mig om ATI's drivere før Radeon
produkterne.. men både mit Radeon og Radeon8500 har virket upåklageligt..
| |
Peter Jespersen (08-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 08-07-02 16:13 |
|
On Sun, 07 Jul 2002 23:02:12 +0300, Dennis Jakobsen wrote:
> http://www.pcpop.com.cn/view.asp?type=news&id=7391
Ahh du fandt den
Husker da 3DFX lavede nummeret...
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
How do you spell relief? OS/2!
| |
Peter Jespersen (08-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 08-07-02 16:10 |
|
On Sun, 07 Jul 2002 21:34:23 +0300, Dennis Jakobsen wrote:
<snip>
>jeg kan ikke huske hvor jeg fandt det link til den reviderede R200 chip
>(RV250?) som ikke kræver en blæser.. ret imponerende ved 300mhz..
Hmmm, LeInq har lige afsløret at ATi R300 (9700) kommer med en
ekstern strømforsyning, da PCI 2 ikke kan levere nok saft til
GPU'en....
Og det kunne jo være rart hvis man var istand til at benytte det
første PCI slot også....
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
OS/2: Bill Gates' worst nightmare!
| |
Dennis Jakobsen (08-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 08-07-02 17:57 |
|
Peter Jespersen wrote:
> On Sun, 07 Jul 2002 21:34:23 +0300, Dennis Jakobsen wrote:
>
> <snip>
>
>>jeg kan ikke huske hvor jeg fandt det link til den reviderede R200 chip
>>(RV250?) som ikke kræver en blæser.. ret imponerende ved 300mhz..
>
>
> Hmmm, LeInq har lige afsløret at ATi R300 (9700) kommer med en
> ekstern strømforsyning, da PCI 2 ikke kan levere nok saft til
> GPU'en....
nej, det kommer med en floppy strøm connector på boardet, fordi AGP2.0
spec'et ikke leverer særlig meget strøm.. bl.a. derfor der var så
mange problemer med GeForce kortene på de først (og de næste) athlon
bundkort..
> Og det kunne jo være rart hvis man var istand til at benytte det
> første PCI slot også....
ja selvf. kan man det.. er der noget i vejen med dit bundkort?
| |
Peter Jespersen (08-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 08-07-02 23:28 |
|
On Mon, 08 Jul 2002 19:57:02 +0300, Dennis Jakobsen wrote:
>Peter Jespersen wrote:
>> On Sun, 07 Jul 2002 21:34:23 +0300, Dennis Jakobsen wrote:
>>
>> <snip>
>>
>>>jeg kan ikke huske hvor jeg fandt det link til den reviderede R200 chip
>>>(RV250?) som ikke kræver en blæser.. ret imponerende ved 300mhz...
>>
>> Hmmm, LeInq har lige afsløret at ATi R300 (9700) kommer med en
>> ekstern strømforsyning, da PCI 2 ikke kan levere nok saft til
>> GPU'en....
>
>nej, det kommer med en floppy strøm connector på boardet, fordi AGP2.0
>spec'et ikke leverer særlig meget strøm.. bl.a. derfor der var så
>mange problemer med GeForce kortene på de først (og de næste) athlon
>bundkort..
Sorry mente AGP2 ikke PCI2..... og dette er ikke en ekstra
strømtilførsel ??
Det er ikke i stil med monsteret fra 3DFX, men det er stadig
ikke regulatorene på bundkortet der benyttes.....
Er det den rigtige vej ??
>> Og det kunne jo være rart hvis man var istand til at benytte det
>> første PCI slot også....
>
>ja selvf. kan man det.. er der noget i vejen med dit bundkort?
En del bundkort har en meget lille plads imellem APG og PCI-0
slottet.... En stor aktiv køler eller endda en endnu større
passiv køler gør sit bedste for at æde den plads...
Men det lyder som om at dit bundkort er specialbygget..uha!
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
Oxymoron: Alone Together
| |
Dennis Jakobsen (09-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 09-07-02 00:05 |
|
Peter Jespersen wrote:
> On Mon, 08 Jul 2002 19:57:02 +0300, Dennis Jakobsen wrote:
>
>
>>Peter Jespersen wrote:
>>
>>>On Sun, 07 Jul 2002 21:34:23 +0300, Dennis Jakobsen wrote:
>>>
>>><snip>
>>>
>>>>jeg kan ikke huske hvor jeg fandt det link til den reviderede R200 chip
>>>>(RV250?) som ikke kræver en blæser.. ret imponerende ved 300mhz..
>>>
>>>Hmmm, LeInq har lige afsløret at ATi R300 (9700) kommer med en
>>>ekstern strømforsyning, da PCI 2 ikke kan levere nok saft til
>>>GPU'en....
>>
>>nej, det kommer med en floppy strøm connector på boardet, fordi AGP2.0
>>spec'et ikke leverer særlig meget strøm.. bl.a. derfor der var så
>>mange problemer med GeForce kortene på de først (og de næste) athlon
>>bundkort..
>
>
> Sorry mente AGP2 ikke PCI2..... og dette er ikke en ekstra
> strømtilførsel ??
>
> Det er ikke i stil med monsteret fra 3DFX, men det er stadig
> ikke regulatorene på bundkortet der benyttes.....
>
> Er det den rigtige vej ??
det er bedre end at lade det crashe som nVidia gjorde.. indtil AGP
spec'et kompenserer for deres fejl..
Asus skal vel heller ikke bebrejdes for at lave de samme connectore
indtil folk får opgraderet deres PowerSupply's..
>>>Og det kunne jo være rart hvis man var istand til at benytte det
>>>første PCI slot også....
>>
>>ja selvf. kan man det.. er der noget i vejen med dit bundkort?
>
> En del bundkort har en meget lille plads imellem APG og PCI-0
> slottet.... En stor aktiv køler eller endda en endnu større
> passiv køler gør sit bedste for at æde den plads...
ja, det gælder jo alle steder for 'en stor aktiv køler'
> Men det lyder som om at dit bundkort er specialbygget..uha!
næh, der er såmænd et PCI slot lige ved siden af.. og mine kort har
ikke pladsmangel..
| |
Peter Jespersen (09-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 09-07-02 02:20 |
|
On Tue, 09 Jul 2002 02:04:32 +0300, Dennis Jakobsen wrote:
>Peter Jespersen wrote:
>> On Mon, 08 Jul 2002 19:57:02 +0300, Dennis Jakobsen wrote:
>>
>>
>>>Peter Jespersen wrote:
>>>
>>>>On Sun, 07 Jul 2002 21:34:23 +0300, Dennis Jakobsen wrote:
>>>>
>>>><snip>
>>>>
>>>>>jeg kan ikke huske hvor jeg fandt det link til den reviderede R200 chip
>>>>>(RV250?) som ikke kræver en blæser.. ret imponerende ved 300mhz..
>>>>
>>>>Hmmm, LeInq har lige afsløret at ATi R300 (9700) kommer med en
>>>>ekstern strømforsyning, da PCI 2 ikke kan levere nok saft til
>>>>GPU'en....
>>>
>>>nej, det kommer med en floppy strøm connector på boardet, fordi AGP2.0
>>>spec'et ikke leverer særlig meget strøm.. bl.a. derfor der var så
>>>mange problemer med GeForce kortene på de først (og de næste) athlon
>>>bundkort..
>>
>>
>> Sorry mente AGP2 ikke PCI2..... og dette er ikke en ekstra
>> strømtilførsel ??
>>
>> Det er ikke i stil med monsteret fra 3DFX, men det er stadig
>> ikke regulatorene på bundkortet der benyttes.....
>>
>> Er det den rigtige vej ??
>
>det er bedre end at lade det crashe som nVidia gjorde.. indtil AGP
>spec'et kompenserer for deres fejl..
Vel jeg er ikke meget for nVidia, hverken deres produkter og
slet ikke deres herregårdsmanerer...
Hvis processoren trækker mere end hvad bundkortet leverer er en
lappeløsning jo på sin plads....hvad jeg mente var : er en
stigende forslugenhed vejen frem ?
>Asus skal vel heller ikke bebrejdes for at lave de samme connectore
>indtil folk får opgraderet deres PowerSupply's..
>
>>>>Og det kunne jo være rart hvis man var istand til at benytte det
>>>>første PCI slot også....
>>>
>>>ja selvf. kan man det.. er der noget i vejen med dit bundkort?
>>
>> En del bundkort har en meget lille plads imellem APG og PCI-0
>> slottet.... En stor aktiv køler eller endda en endnu større
>> passiv køler gør sit bedste for at æde den plads...
>
>ja, det gælder jo alle steder for 'en stor aktiv køler'
>
>> Men det lyder som om at dit bundkort er specialbygget..uha!
>
>næh, der er såmænd et PCI slot lige ved siden af.. og mine kort har
>ikke pladsmangel..
Vel nu yder et R8500 jo ej heller så meget at det kræver den
store køling...
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
Lursa/B'etor '96. Why waste time on an election???
| |
Dennis Jakobsen (09-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 09-07-02 01:57 |
|
Peter Jespersen wrote:
>
> Vel jeg er ikke meget for nVidia, hverken deres produkter og
> slet ikke deres herregårdsmanerer...
heller ikke her.. men hvis de laver et overlegent grafik kort til gode
penge, så er jeg ikke sky for at købe og supporte det!
hvad end der er bedst til pengene har min support og pengepung!
> Hvis processoren trækker mere end hvad bundkortet leverer er en
> lappeløsning jo på sin plads....hvad jeg mente var : er en
> stigende forslugenhed vejen frem ?
tjaa.. eller så skal bundkortet byttes til et andet.. for det er da en
design fejl så..
og nej til strøm slugning.. men med dobbelt så mange transistorer som
en Hammer + de 128MB 700Mhz DDR RAM, skal der jo noget strøm til.. nu
kan jeg ikke lave en samlet sammenligning for jeg ved ikke hvor mange
transistorer der er i 128MB RAM.. men det er jo ikke få..
>>
>>næh, der er såmænd et PCI slot lige ved siden af.. og mine kort har
>>ikke pladsmangel..
>
>
> Vel nu yder et R8500 jo ej heller så meget at det kræver den
> store køling...
det sagde jeg tidligere om et Matrox kort og blev verbalt angrebet.
det er det næst hurtigste på markedet.. den kan vel ikke være helt
skidt.. chippen kører 275Mhz..
der kommer vist også en revideret udgave der kan køre med passiv
køling.. jeg så gerne nVidia følge trop, men nVidia-ATI er lidt
ligesom AMD-Intel..
| |
Peter Jespersen (11-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 11-07-02 19:25 |
|
On Tue, 09 Jul 2002 03:56:40 +0300, Dennis Jakobsen wrote:
>Peter Jespersen wrote:
>>
>> Vel jeg er ikke meget for nVidia, hverken deres produkter og
>> slet ikke deres herregårdsmanerer...
>
>heller ikke her.. men hvis de laver et overlegent grafik kort til gode
>penge, så er jeg ikke sky for at købe og supporte det!
>
>hvad end der er bedst til pengene har min support og pengepung!
Uanset hvad - Hvorfor har du så ikke kastet dig over et GF4 ??
>> Hvis processoren trækker mere end hvad bundkortet leverer er en
>> lappeløsning jo på sin plads....hvad jeg mente var : er en
>> stigende forslugenhed vejen frem ?
>
>tjaa.. eller så skal bundkortet byttes til et andet.. for det er da en
>design fejl så..
Og alligevel ser du ikke noget galt i en ekstern strømtilførsel.
>og nej til strøm slugning.. men med dobbelt så mange transistorer som
>en Hammer + de 128MB 700Mhz DDR RAM, skal der jo noget strøm til.. nu
>kan jeg ikke lave en samlet sammenligning for jeg ved ikke hvor mange
>transistorer der er i 128MB RAM.. men det er jo ikke få..
Hammer hører ej heller til i Superligaen....det gør dne
latterlige PIV ej heller....
>>>næh, der er såmænd et PCI slot lige ved siden af.. og mine kort har
>>>ikke pladsmangel..
>>
>>
>> Vel nu yder et R8500 jo ej heller så meget at det kræver den
>> store køling...
>
>det sagde jeg tidligere om et Matrox kort og blev verbalt angrebet.
Vel - du foretog en tilsvining af alle Matrox-ejere...
>det er det næst hurtigste på markedet.. den kan vel ikke være helt
>skidt.. chippen kører 275Mhz..
>
>der kommer vist også en revideret udgave der kan køre med passiv
>køling.. jeg så gerne nVidia følge trop, men nVidia-ATI er lidt
>ligesom AMD-Intel..
Du mener at nVidia i øjeblikket er ved at forsøge at true
kortfabrikanterne til at droppe tanken om ATi drevne kort ??
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
To err is Human. To blame someone else is politics.
| |
Dennis Jakobsen (12-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 12-07-02 01:28 |
|
Peter Jespersen wrote:
>>hvad end der er bedst til pengene har min support og pengepung!
>
> Uanset hvad - Hvorfor har du så ikke kastet dig over et GF4 ??
som sagt er lav pris også en prioritet.. hvis valget skulle have været
i dag.. kunne det nok være blevet til et Ti4200.. hvis jeg kunne finde
et der ikke havde elendig 2D, Tv-Ud og en blæser med indbygget tordenvejr..
men dengang var der ikke nogen billig Ti4200 konkurrent.. der var
konkurrenten en næsten dobbelt så dyr GF3 chip..
måske GF3 Ti200 var ude deromkring.. er ikke helt sikker..
>>tjaa.. eller så skal bundkortet byttes til et andet.. for det er da en
>>design fejl så..
>
> Og alligevel ser du ikke noget galt i en ekstern strømtilførsel.
den er for det første ikke ekstern.. og nej, jeg ser ikke noget galt i
at shippe et produkt der omgår design fejl i den bus/socket den skal
sidde i.. og jeg fattede heller ikke da Nvidia hovederne gjorde grin
med Voodoo5 kortene.. AGP var ikke designet til at klare det strøm
forbrug.. (bl.a. derfor shipper Asus deres bundkort med AGP Pro)
>>og nej til strøm slugning.. men med dobbelt så mange transistorer som
>>en Hammer + de 128MB 700Mhz DDR RAM, skal der jo noget strøm til.. nu
>>kan jeg ikke lave en samlet sammenligning for jeg ved ikke hvor mange
>>transistorer der er i 128MB RAM.. men det er jo ikke få..
>
> Hammer hører ej heller til i Superligaen....det gør dne
> latterlige PIV ej heller....
kan vi ikke nøjes med de tekniske udtryk.. jeg er ikke den store fodbold
fan..
dne PIV ej heller? hvad betyder det? (jeg var da rar at udelade
latterlige! :) )
>>>Vel nu yder et R8500 jo ej heller så meget at det kræver den
>>>store køling...
>>
>>det sagde jeg tidligere om et Matrox kort og blev verbalt angrebet.
>
> Vel - du foretog en tilsvining af alle Matrox-ejere...
kunne du så ikke quote min tilsvining? så vidt jeg kan se skriver jeg
bare de simple facts..
jeg skrev at med de få features et Matrox kort havde, kunne der knapt
være brug for køling..
ingen features = få transistorer..
få transistorer = lille chip..
lille chip der kører ved lav frekvens skal ikke bruge aktiv køling..
alt dette skrev jeg ikke, fordi jeg var overbevist om at når man
supporter et produkt er man også klar til at indse dets mangler..
men den måde man bliver buet ud på her i gruppen for at nævne at Matrox
ikke har nogle 3D features.. eller at det er logisk at det ikke kræver
aktiv køling.. det er da fanatisme..
>>det er det næst hurtigste på markedet.. den kan vel ikke være helt
>>skidt.. chippen kører 275Mhz..
>>
>>der kommer vist også en revideret udgave der kan køre med passiv
>>køling.. jeg så gerne nVidia følge trop, men nVidia-ATI er lidt
>>ligesom AMD-Intel..
>
> Du mener at nVidia i øjeblikket er ved at forsøge at true
> kortfabrikanterne til at droppe tanken om ATi drevne kort ??
øøh nej.. jeg tænkte på deres strøm forbrug.. Intel brænder meget få
watt af sammenlignet med AMD..
jeg skal ikke kunne kommentere på det du hentyder til.. der var nogle
rygter og nogle powerpoint slides om hvor lamme konkurrentens produkter
er osv. men så vidt jeg har forstået er det ganske alm. business
practise. nVidia's blev bare leaket.. :)
| |
Peter Jespersen (12-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 12-07-02 12:35 |
|
On Fri, 12 Jul 2002 03:27:34 +0300, Dennis Jakobsen wrote:
>Peter Jespersen wrote:
>>>hvad end der er bedst til pengene har min support og pengepung!
>>
>> Uanset hvad - Hvorfor har du så ikke kastet dig over et GF4 ??
>
>som sagt er lav pris også en prioritet.. hvis valget skulle have været
>i dag.. kunne det nok være blevet til et Ti4200.. hvis jeg kunne finde
>et der ikke havde elendig 2D, Tv-Ud og en blæser med indbygget tordenvejr..
>
>men dengang var der ikke nogen billig Ti4200 konkurrent.. der var
>konkurrenten en næsten dobbelt så dyr GF3 chip..
>
>måske GF3 Ti200 var ude deromkring.. er ikke helt sikker..
>
>>>tjaa.. eller så skal bundkortet byttes til et andet.. for det er da en
>>>design fejl så..
>>
>> Og alligevel ser du ikke noget galt i en ekstern strømtilførsel.
>
>den er for det første ikke ekstern.. og nej, jeg ser ikke noget galt i
>at shippe et produkt der omgår design fejl i den bus/socket den skal
>sidde i.. og jeg fattede heller ikke da Nvidia hovederne gjorde grin
>med Voodoo5 kortene.. AGP var ikke designet til at klare det strøm
>forbrug.. (bl.a. derfor shipper Asus deres bundkort med AGP Pro)
Det er en ekstern strømtilførsel, at du så kan fodre den med fødeledningen
til floppy-drevet er noget andet. Den får ikke foderet via AGP-sokklen..
Mange mobo fabrikanter har skippet AGP-Pro, hvilket nok er grunden....
Jeg kunne godt lide monster Voodoo-kortet, med 4 processorer og en fysisk
ekstern strømforsyning.
>>>og nej til strøm slugning.. men med dobbelt så mange transistorer som
>>>en Hammer + de 128MB 700Mhz DDR RAM, skal der jo noget strøm til.. nu
>>>kan jeg ikke lave en samlet sammenligning for jeg ved ikke hvor mange
>>>transistorer der er i 128MB RAM.. men det er jo ikke få..
>>
>> Hammer hører ej heller til i Superligaen....det gør dne
>> latterlige PIV ej heller....
>
>kan vi ikke nøjes med de tekniske udtryk.. jeg er ikke den store fodbold
>fan..
>
>dne PIV ej heller? hvad betyder det? (jeg var da rar at udelade
>latterlige! :) )
latterlige måtte du ellers godt have taget med...
Hammer, Athlon (x86-32) og PIV er alle nogle latterlige små pjevsede gnomer,
hvis man sammenligner med for eksempel PA-RISC, der for år siden rundede de
120mio transistorer (16Mb cache hjælper en del på dette
>>>>Vel nu yder et R8500 jo ej heller så meget at det kræver den
>>>>store køling...
>>>
>>>det sagde jeg tidligere om et Matrox kort og blev verbalt angrebet.
>>
>> Vel - du foretog en tilsvining af alle Matrox-ejere...
>
>kunne du så ikke quote min tilsvining? så vidt jeg kan se skriver jeg
>bare de simple facts..
>
>jeg skrev at med de få features et Matrox kort havde, kunne der knapt
>være brug for køling..
>
>ingen features = få transistorer..
Ikke nødvendigvis....en del kan fuskes med software (ex via mikrokoder)
>få transistorer = lille chip..
Nok ikke helt ved siden af...
>lille chip der kører ved lav frekvens skal ikke bruge aktiv køling...
>alt dette skrev jeg ikke, fordi jeg var overbevist om at når man
>supporter et produkt er man også klar til at indse dets mangler..
>
>men den måde man bliver buet ud på her i gruppen for at nævne at Matrox
>ikke har nogle 3D features.. eller at det er logisk at det ikke kræver
>aktiv køling.. det er da fanatisme..
Om den kræver heftig køling er også afhængig af fremstillingsprocessen.....og
G400 har rent faktisk en del 3D features, der i et stykke tid noget nær
dannede skole - ydelsen var bare den sædvanlige halve generation bagefter og
de ser ud til at lave lidt det samme nummer med P.
G400 og P var/er ganske rigt 3D feature udstyret.....det er dog klar at hvis
du holder et 5 år gammelt G400 kort op ved siden af et GF4 er der en kæmpe
forskel, da udviklingen ikke har stået stille.
>>>det er det næst hurtigste på markedet.. den kan vel ikke være helt
>>>skidt.. chippen kører 275Mhz..
>>>
>>>der kommer vist også en revideret udgave der kan køre med passiv
>>>køling.. jeg så gerne nVidia følge trop, men nVidia-ATI er lidt
>>>ligesom AMD-Intel..
>>
>> Du mener at nVidia i øjeblikket er ved at forsøge at true
>> kortfabrikanterne til at droppe tanken om ATi drevne kort ??
>
>øøh nej.. jeg tænkte på deres strøm forbrug.. Intel brænder meget få
>watt af sammenlignet med AMD..
Øhhhh nej, med XP'en blev det faktisk vendt...PIV'en et marginalt højere
forbrug (2Ghz PIV=74W, XP2000+=40W), den store forskel er PIV'ens
heatspreader - det er denne der fuldstændig tager røven på folk og det er
noget af det jeg glæder mig mest til med Hammer.
>jeg skal ikke kunne kommentere på det du hentyder til.. der var nogle
>rygter og nogle powerpoint slides om hvor lamme konkurrentens produkter
>er osv. men så vidt jeg har forstået er det ganske alm. business
>practise. nVidia's blev bare leaket.. :)
Det jeg rent faktisk hentyder til er Intel's regulære skræmmekampagne,
couldn't resist ....derudover har nVidia's forsøg på FUD krige, været
barnligt amartøragtige, de burde ansætte nogle af de gamle Redmond gutter -
se de vidste hvorledes man skræmte bukserne og vred armene om på de største i
brancen.....
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
Dou you mind if I don't smoke? - (G. Marx)
| |
Dennis Jakobsen (12-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 12-07-02 13:16 |
|
Peter Jespersen wrote:
>>>Og alligevel ser du ikke noget galt i en ekstern strømtilførsel.
>>
>>den er for det første ikke ekstern.. og nej, jeg ser ikke noget galt i
>>at shippe et produkt der omgår design fejl i den bus/socket den skal
>>sidde i.. og jeg fattede heller ikke da Nvidia hovederne gjorde grin
>>med Voodoo5 kortene.. AGP var ikke designet til at klare det strøm
>>forbrug.. (bl.a. derfor shipper Asus deres bundkort med AGP Pro)
>
> Det er en ekstern strømtilførsel, at du så kan fodre den med fødeledningen
> til floppy-drevet er noget andet. Den får ikke foderet via AGP-sokklen.
> Mange mobo fabrikanter har skippet AGP-Pro, hvilket nok er grunden....
> Jeg kunne godt lide monster Voodoo-kortet, med 4 processorer og en fysisk
> ekstern strømforsyning.
når du siger ekstern hvad mener du så? at der sidder et stik på den
metal plade hvor monitoren også bliver forbundet ikke?
alle stik på selve printet (inde i kabinettet) er internt, enig?
der var kun 2 gpu'er på.. og et internt stik.. min kammerat har stadig
sit kort, som jeg i øvrigt proppede 2 blue orbs på.. :)
det kort du snakker om blev aldrig lanceret..
>>kan vi ikke nøjes med de tekniske udtryk.. jeg er ikke den store fodbold
>>fan..
>>
>>dne PIV ej heller? hvad betyder det? (jeg var da rar at udelade
>>latterlige! :) )
>
> latterlige måtte du ellers godt have taget med...
>
> Hammer, Athlon (x86-32) og PIV er alle nogle latterlige små pjevsede gnomer,
> hvis man sammenligner med for eksempel PA-RISC, der for år siden rundede de
> 120mio transistorer (16Mb cache hjælper en del på dette
ja, og det er jo også den rigtige retning.. hvis man kan lave en ligeså
hurtig chip med den halve mængde transistorer og 1/8 cache.. så har du
en chip der koster 1/20 at producere og du kan ramme alle markeder med
næsten hvilken som helst pris.. derfor bliver hammer også god til
notebooks.. den kræver ikke en northbrigde og den har kun ~50 millioner
transistorer.. det bliver den perfekte notebook processor.. :)
og ja.. størrelses mæssigt er de nogle pjevsede gnomer.. men i
processor verdenen er det faktisk en rigtig god ting!
>>>Vel - du foretog en tilsvining af alle Matrox-ejere...
>>
>>kunne du så ikke quote min tilsvining? så vidt jeg kan se skriver jeg
>>bare de simple facts..
>>
>>jeg skrev at med de få features et Matrox kort havde, kunne der knapt
>>være brug for køling..
>>
>>ingen features = få transistorer..
>
> Ikke nødvendigvis....en del kan fuskes med software (ex via mikrokoder)
ja, men det bliver chippen jo endnu mindre af, så hvor er dit argument?
>>få transistorer = lille chip..
>
> Nok ikke helt ved siden af...
det afhænger jo også af hvad process den bliver lavet på og hvad man
betragter som lille.. :)
>>lille chip der kører ved lav frekvens skal ikke bruge aktiv køling..
>>alt dette skrev jeg ikke, fordi jeg var overbevist om at når man
>>supporter et produkt er man også klar til at indse dets mangler..
>>
>>men den måde man bliver buet ud på her i gruppen for at nævne at Matrox
>>ikke har nogle 3D features.. eller at det er logisk at det ikke kræver
>>aktiv køling.. det er da fanatisme..
>
> Om den kræver heftig køling er også afhængig af fremstillingsprocessen.....og
> G400 har rent faktisk en del 3D features, der i et stykke tid noget nær
> dannede skole - ydelsen var bare den sædvanlige halve generation bagefter og
> de ser ud til at lave lidt det samme nummer med P.
ja, det er lidt sørgeligt..
> G400 og P var/er ganske rigt 3D feature udstyret.....det er dog klar at hvis
> du holder et 5 år gammelt G400 kort op ved siden af et GF4 er der en kæmpe
> forskel, da udviklingen ikke har stået stille.
ja, men sådan sammenligner jeg ikke.. jeg sammenligner med de kort som
G400 skulle konkurrere med da det blev lanceret.. (gf1 og voodoo3?) og
det kunne jo slet ikke følge med.. og ogl driveren blev vist aldrig til
noget.. det trak i hvert fald ud i laaaaaaang tid..
>>øøh nej.. jeg tænkte på deres strøm forbrug.. Intel brænder meget få
>>watt af sammenlignet med AMD..
>
> Øhhhh nej, med XP'en blev det faktisk vendt...PIV'en et marginalt højere
> forbrug (2Ghz PIV=74W, XP2000+=40W), den store forskel er PIV'ens
> heatspreader - det er denne der fuldstændig tager røven på folk og det er
> noget af det jeg glæder mig mest til med Hammer.
wow.. var ikke klar over at PIV'en slugte så meget.. det er vel derfor
den skal have den extra PowerConnector og ny strømforsyning.. ;)
(som jeg nævnte andetsteds har Asus sat samme metoder på deres bundkort
som ATI har gjort med deres grafikkort (eller vice versa), for at folk
ikke skal rende ud og opgradere hele systemet for at kunne køre et
enkelt nyt komponent!)
>>jeg skal ikke kunne kommentere på det du hentyder til.. der var nogle
>>rygter og nogle powerpoint slides om hvor lamme konkurrentens produkter
>>er osv. men så vidt jeg har forstået er det ganske alm. business
>>practise. nVidia's blev bare leaket.. :)
>
> Det jeg rent faktisk hentyder til er Intel's regulære skræmmekampagne,
> couldn't resist ....derudover har nVidia's forsøg på FUD krige, været
> barnligt amartøragtige, de burde ansætte nogle af de gamle Redmond gutter -
> se de vidste hvorledes man skræmte bukserne og vred armene om på de største i
> brancen.....
ja, og det eneste der kan overbevise mig om at det ikke foregår mere er
at nogle OEM's lancerer win/linux/beos/whatever dualboot fra fabrikken..
| |
Peter Jespersen (13-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 13-07-02 00:30 |
|
On Fri, 12 Jul 2002 15:15:51 +0300, Dennis Jakobsen wrote:
<snip>
>når du siger ekstern hvad mener du så? at der sidder et stik på den
>metal plade hvor monitoren også bliver forbundet ikke?
>
>alle stik på selve printet (inde i kabinettet) er internt, enig?
Ikke nødvendigvis......mener at have læst st sted at ATi rent faktisk skriver
at det kan bruges med strømlinien til floppy-drevet.....det er absolut
semantik..... ganske afgjort foranlediget af LeInq's overskrift da nyheden om
kortet blev lanceret.
>der var kun 2 gpu'er på.. og et internt stik.. min kammerat har stadig
>sit kort, som jeg i øvrigt proppede 2 blue orbs på.. :)
>
>
>det kort du snakker om blev aldrig lanceret..
Det blev produceret i et begrænset antal, mener at det var 28 styk (Vel
prototyper)...der var for nyligt et til aution på eBay...
>>>kan vi ikke nøjes med de tekniske udtryk.. jeg er ikke den store fodbold
>>>fan..
>>>
>>>dne PIV ej heller? hvad betyder det? (jeg var da rar at udelade
>>>latterlige! :) )
>>
>> latterlige måtte du ellers godt have taget med...
>>
>> Hammer, Athlon (x86-32) og PIV er alle nogle latterlige små pjevsede gnomer,
>> hvis man sammenligner med for eksempel PA-RISC, der for år siden rundede de
>> 120mio transistorer (16Mb cache hjælper en del på dette
>
>ja, og det er jo også den rigtige retning.. hvis man kan lave en ligeså
>hurtig chip med den halve mængde transistorer og 1/8 cache.. så har du
>en chip der koster 1/20 at producere og du kan ramme alle markeder med
>næsten hvilken som helst pris.. derfor bliver hammer også god til
>notebooks.. den kræver ikke en northbrigde og den har kun ~50 millioner
>transistorer.. det bliver den perfekte notebook processor.. :)
Og Itanium har taget livet af to og forkrøblet en tredje konkurrent, så der
er plads til Hammer....
PA-RISC er jo den ene der er blevet aflivet så vi har lige mistet den
hurtigste processor....Hammer kommer ikke rigtigt i nærheden....ligesom
Itanium (IA64) ej heller gør...
>og ja.. størrelses mæssigt er de nogle pjevsede gnomer.. men i
>processor verdenen er det faktisk en rigtig god ting!
Det kommer an på...hvis du førte det helt ud ville du sidde med en VIA C3...
>>>>Vel - du foretog en tilsvining af alle Matrox-ejere...
>>>
>>>kunne du så ikke quote min tilsvining? så vidt jeg kan se skriver jeg
>>>bare de simple facts..
>>>
>>>jeg skrev at med de få features et Matrox kort havde, kunne der knapt
>>>være brug for køling..
>>>
>>>ingen features = få transistorer..
>>
>> Ikke nødvendigvis....en del kan fuskes med software (ex via mikrokoder)
>
>ja, men det bliver chippen jo endnu mindre af, så hvor er dit argument?
du sagde reelt "få features"="lille chip", med dagens GPU/VPU'er kan man lave
en del sjov med mikrokoder, dvs at dette udsagn lidt falder til jorden.
>>>få transistorer = lille chip..
>>
>> Nok ikke helt ved siden af...
>
>det afhænger jo også af hvad process den bliver lavet på og hvad man
>betragter som lille.. :)
Husk det er ikke størrelsen....hmmmm
>> Om den kræver heftig køling er også afhængig af fremstillingsprocessen.....og
>> G400 har rent faktisk en del 3D features, der i et stykke tid noget nær
>> dannede skole - ydelsen var bare den sædvanlige halve generation bagefter og
>> de ser ud til at lave lidt det samme nummer med P.
>
>ja, det er lidt sørgeligt..
>
>> G400 og P var/er ganske rigt 3D feature udstyret.....det er dog klar at hvis
>> du holder et 5 år gammelt G400 kort op ved siden af et GF4 er der en kæmpe
>> forskel, da udviklingen ikke har stået stille.
>
>ja, men sådan sammenligner jeg ikke.. jeg sammenligner med de kort som
>G400 skulle konkurrere med da det blev lanceret.. (gf1 og voodoo3?) og
>det kunne jo slet ikke følge med.. og ogl driveren blev vist aldrig til
>noget.. det trak i hvert fald ud i laaaaaaang tid..
Nej OpenGL driveren blev aldrig til noget.....og nej AFAIR var det TNT2 fra
nVidia som ver hovedkonkurrenten.
>>>øøh nej.. jeg tænkte på deres strøm forbrug.. Intel brænder meget få
>>>watt af sammenlignet med AMD..
>>
>> Øhhhh nej, med XP'en blev det faktisk vendt...PIV'en et marginalt højere
>> forbrug (2Ghz PIV=74W, XP2000+=40W), den store forskel er PIV'ens
>> heatspreader - det er denne der fuldstændig tager røven på folk og det er
>> noget af det jeg glæder mig mest til med Hammer.
>
>wow.. var ikke klar over at PIV'en slugte så meget.. det er vel derfor
>den skal have den extra PowerConnector og ny strømforsyning.. ;)
Æv, gjorde det igen (2Ghz PIV=74W, XP2000+=70W) - med den nye TB er
strømforbruget så endnu endgang sænket....
>(som jeg nævnte andetsteds har Asus sat samme metoder på deres bundkort
>som ATI har gjort med deres grafikkort (eller vice versa), for at folk
>ikke skal rende ud og opgradere hele systemet for at kunne køre et
>enkelt nyt komponent!)
>>>jeg skal ikke kunne kommentere på det du hentyder til.. der var nogle
>>>rygter og nogle powerpoint slides om hvor lamme konkurrentens produkter
>>>er osv. men så vidt jeg har forstået er det ganske alm. business
>>>practise. nVidia's blev bare leaket.. :)
>>
>> Det jeg rent faktisk hentyder til er Intel's regulære skræmmekampagne,
>> couldn't resist ....derudover har nVidia's forsøg på FUD krige, været
>> barnligt amartøragtige, de burde ansætte nogle af de gamle Redmond gutter -
>> se de vidste hvorledes man skræmte bukserne og vred armene om på de største i
>> brancen.....
>
>ja, og det eneste der kan overbevise mig om at det ikke foregår mere er
>at nogle OEM's lancerer win/linux/beos/whatever dualboot fra fabrikken...
Wallmart er begyndt at sælge styresystemløse PC'ere, man kan så købe et OS
ved siden af...det er lidt dyere hvis man i forvejen ville vælge det samme
system som Redmond forsøger at tvinge ned i halsen på dig (Det er AFAIK en
regulær licens ikke en OEM licens, ergo er der ikke rabatter på), men for
alle andre er det billigere.
Den Windows skat er virkelig noget der for det til at olme i mig.....
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
Who needs sex, I have adult access.
| |
H3nrik V! [2670] (14-07-2002)
| Kommentar Fra : H3nrik V! [2670] |
Dato : 14-07-02 12:08 |
|
"Peter Jespersen" <flywheel@illogical.dk> wrote in message
news:syljurryvyybtvpnyqx.gz64dt0.pminews@news.tele.dk...
>>ja, men sådan sammenligner jeg ikke.. jeg sammenligner med de kort som
>>G400 skulle konkurrere med da det blev lanceret.. (gf1 og voodoo3?) og
>>det kunne jo slet ikke følge med.. og ogl driveren blev vist aldrig til
><noget.. det trak i hvert fald ud i laaaaaaang tid..
>Nej OpenGL driveren blev aldrig til noget.....og nej AFAIR var det TNT2 fra
>nVidia som ver hovedkonkurrenten.
Lige præcis sådan jeg også husker det...!
/H3nrik!
| |
Dennis Jakobsen (14-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 14-07-02 13:45 |
|
H3nrik V! [2670] wrote:
> "Peter Jespersen" <flywheel@illogical.dk> wrote in message
> news:syljurryvyybtvpnyqx.gz64dt0.pminews@news.tele.dk...
>
>
>>>ja, men sådan sammenligner jeg ikke.. jeg sammenligner med de kort som
>>>G400 skulle konkurrere med da det blev lanceret.. (gf1 og voodoo3?) og
>>>det kunne jo slet ikke følge med.. og ogl driveren blev vist aldrig til
>>
>><noget.. det trak i hvert fald ud i laaaaaaang tid..
>
>
>>Nej OpenGL driveren blev aldrig til noget.....og nej AFAIR var det TNT2 fra
>>nVidia som ver hovedkonkurrenten.
>
>
> Lige præcis sådan jeg også husker det...!
ok, så det var G400, TNT2 og Voodoo3 på det tidspunkt.. så må TNT2'en
have haft noget 32bit 3d stuff, for jeg kan i hvert fald huske den store
16bit mod 32bit kamp.. :)
| |
Dennis Jakobsen (14-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 14-07-02 13:43 |
|
Peter Jespersen wrote:
> On Fri, 12 Jul 2002 15:15:51 +0300, Dennis Jakobsen wrote:
>
> <snip>
>
>>når du siger ekstern hvad mener du så? at der sidder et stik på den
>>metal plade hvor monitoren også bliver forbundet ikke?
>>
>>alle stik på selve printet (inde i kabinettet) er internt, enig?
>
>
> Ikke nødvendigvis......mener at have læst st sted at ATi rent faktisk skriver
> at det kan bruges med strømlinien til floppy-drevet.....det er absolut
> semantik..... ganske afgjort foranlediget af LeInq's overskrift da nyheden om
> kortet blev lanceret.
men det afhænger vel også af hvordan du kigger på det.. det at
strømmen kommer fra en anden kilde end AGP slottet kunne jo også
betragtes som externt..
men i mit hoved er en extern strøm forsyning en ledning med en extra psu
tilsluttet!
>>der var kun 2 gpu'er på.. og et internt stik.. min kammerat har stadig
>>sit kort, som jeg i øvrigt proppede 2 blue orbs på.. :)
>>
>>
>>det kort du snakker om blev aldrig lanceret..
>
> Det blev produceret i et begrænset antal, mener at det var 28 styk (Vel
> prototyper)...der var for nyligt et til aution på eBay...
tjaa ok.. der var nogle prototyper som folk rippede da de skred fra
3dfx.. det er vel næppe et lanceret/kommercielt ledit produkt!
>>>Hammer, Athlon (x86-32) og PIV er alle nogle latterlige små pjevsede gnomer,
>>>hvis man sammenligner med for eksempel PA-RISC, der for år siden rundede de
>>>120mio transistorer (16Mb cache hjælper en del på dette
>>
>>ja, og det er jo også den rigtige retning.. hvis man kan lave en ligeså
>>hurtig chip med den halve mængde transistorer og 1/8 cache.. så har du
>>en chip der koster 1/20 at producere og du kan ramme alle markeder med
>>næsten hvilken som helst pris.. derfor bliver hammer også god til
>>notebooks.. den kræver ikke en northbrigde og den har kun ~50 millioner
>>transistorer.. det bliver den perfekte notebook processor.. :)
>
> Og Itanium har taget livet af to og forkrøblet en tredje konkurrent, så der
> er plads til Hammer....
> PA-RISC er jo den ene der er blevet aflivet så vi har lige mistet den
> hurtigste processor....Hammer kommer ikke rigtigt i nærheden....ligesom
> Itanium (IA64) ej heller gør...
så sandt.. det er jo også en mainstream processor.. men vendt nu til
du ser SledgeHammer før du kaster dig ud i konklusioner..
>>og ja.. størrelses mæssigt er de nogle pjevsede gnomer.. men i
>>processor verdenen er det faktisk en rigtig god ting!
>
> Det kommer an på...hvis du førte det helt ud ville du sidde med en VIA C3...
eller en Transmeta.. men nu snakker du vist strømforbrug og ikke
størrelse i kombination med ydelse.. for C3'en har kun 1 af de sidste..
>>ja, men det bliver chippen jo endnu mindre af, så hvor er dit argument?
>
> du sagde reelt "få features"="lille chip", med dagens GPU/VPU'er kan man lave
> en del sjov med mikrokoder, dvs at dette udsagn lidt falder til jorden.
mener du at du kan opnå flere features og stadig vedligeholde en lille chip?
>>det afhænger jo også af hvad process den bliver lavet på og hvad man
>>betragter som lille.. :)
>
> Husk det er ikke størrelsen....hmmmm
nemlig!
>>ja, men sådan sammenligner jeg ikke.. jeg sammenligner med de kort som
>>G400 skulle konkurrere med da det blev lanceret.. (gf1 og voodoo3?) og
>>det kunne jo slet ikke følge med.. og ogl driveren blev vist aldrig til
>>noget.. det trak i hvert fald ud i laaaaaaang tid..
>
> Nej OpenGL driveren blev aldrig til noget.....og nej AFAIR var det TNT2 fra
> nVidia som ver hovedkonkurrenten.
ok..
>>>Øhhhh nej, med XP'en blev det faktisk vendt...PIV'en et marginalt højere
>>>forbrug (2Ghz PIV=74W, XP2000+=40W), den store forskel er PIV'ens
>>>heatspreader - det er denne der fuldstændig tager røven på folk og det er
>>>noget af det jeg glæder mig mest til med Hammer.
>>
>>wow.. var ikke klar over at PIV'en slugte så meget.. det er vel derfor
>>den skal have den extra PowerConnector og ny strømforsyning.. ;)
>
> Æv, gjorde det igen (2Ghz PIV=74W, XP2000+=70W) - med den nye TB er
> strømforbruget så endnu endgang sænket....
hvorfor gik XP2000 fra 40W >70W ?
og i samme sætning siger du den er sænket?
>>ja, og det eneste der kan overbevise mig om at det ikke foregår mere er
>>at nogle OEM's lancerer win/linux/beos/whatever dualboot fra fabrikken..
>
> Wallmart er begyndt at sælge styresystemløse PC'ere, man kan så købe et OS
> ved siden af...det er lidt dyere hvis man i forvejen ville vælge det samme
> system som Redmond forsøger at tvinge ned i halsen på dig (Det er AFAIK en
> regulær licens ikke en OEM licens, ergo er der ikke rabatter på), men for
> alle andre er det billigere.
ja, men hvis du IKKE har en aftale med microsoft er der jo ingen der
stopper dig fra at sælge en pc med linux eller uden... eller en dual
boot kombo med linux/beos.. det er hvis du har et MS OS i en dual boot
konfig, at MS kommer efter dig og river dine bonusser væk..
> Den Windows skat er virkelig noget der for det til at olme i mig.....
også her.. det at kunne vælge dit eget OS er en frihed vi alle burde
have.. men når man nu har så dårlige produkter som microsoft er de jo
nødt til at tvinge det ned i halsen på folk for at tjene penge..
og sætte monopol/diktator agtige klausuler på plads for at vedligeholde
det..
| |
Peter Jespersen (14-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 14-07-02 16:15 |
|
Dennis Jakobsen wrote:
<snip>
>> Og Itanium har taget livet af to og forkrøblet en tredje konkurrent, så
>> der er plads til Hammer....
>> PA-RISC er jo den ene der er blevet aflivet så vi har lige mistet den
>> hurtigste processor....Hammer kommer ikke rigtigt i nærheden....ligesom
>> Itanium (IA64) ej heller gør...
>
> så sandt.. det er jo også en mainstream processor.. men vendt nu til
> du ser SledgeHammer før du kaster dig ud i konklusioner..
Via de prototyper vi har set har vi fået løfter om en fremragende ydelse,
meget lavt strømforbrug.....men der er også mange usikre punkter og
potentielle problemer, hvor jeg lidt har en fornemmelse af at de her i
løbet af foråret har måtte kæmpe for i det hele at holde Opteron projektet
i live.
Men de har på det sidste fået stillet et par stærke alliancer op...nu
mangler vi så bare tyren selv.
>>>og ja.. størrelses mæssigt er de nogle pjevsede gnomer.. men i
>>>processor verdenen er det faktisk en rigtig god ting!
>>
>> Det kommer an på...hvis du førte det helt ud ville du sidde med en VIA
>> C3...
>
> eller en Transmeta.. men nu snakker du vist strømforbrug og ikke
> størrelse i kombination med ydelse.. for C3'en har kun 1 af de sidste..
12Watt wed 1Ghz, full load er ikke at kimse af
Men ja, small die og alt det der, ville bare føre det over i den anden
grøft for effektens skyld.
>>>ja, men det bliver chippen jo endnu mindre af, så hvor er dit argument?
>>
>> du sagde reelt "få features"="lille chip", med dagens GPU/VPU'er kan man
>> lave en del sjov med mikrokoder, dvs at dette udsagn lidt falder til
>> jorden.
>
> mener du at du kan opnå flere features og stadig vedligeholde en lille
> chip?
Ja....men det går så også udover ydelsen, som al emulering gør.
>>>det afhænger jo også af hvad process den bliver lavet på og hvad man
>>>betragter som lille.. :)
>>
>> Husk det er ikke størrelsen....hmmmm
>
> nemlig!
>
>>>ja, men sådan sammenligner jeg ikke.. jeg sammenligner med de kort som
>>>G400 skulle konkurrere med da det blev lanceret.. (gf1 og voodoo3?) og
>>>det kunne jo slet ikke følge med.. og ogl driveren blev vist aldrig til
>>>noget.. det trak i hvert fald ud i laaaaaaang tid..
>>
>> Nej OpenGL driveren blev aldrig til noget.....og nej AFAIR var det TNT2
>> fra nVidia som ver hovedkonkurrenten.
>
> ok..
>
>>>>Øhhhh nej, med XP'en blev det faktisk vendt...PIV'en et marginalt højere
>>>>forbrug (2Ghz PIV=74W, XP2000+=40W), den store forskel er PIV'ens
>>>>heatspreader - det er denne der fuldstændig tager røven på folk og det
>>>>er noget af det jeg glæder mig mest til med Hammer.
>>>
>>>wow.. var ikke klar over at PIV'en slugte så meget.. det er vel derfor
>>>den skal have den extra PowerConnector og ny strømforsyning.. ;)
>>
>> Æv, gjorde det igen (2Ghz PIV=74W, XP2000+=70W) - med den nye TB er
>> strømforbruget så endnu endgang sænket....
>
> hvorfor gik XP2000 fra 40W >70W ?
>
> og i samme sætning siger du den er sænket?
Det var en trykfejl, der skulle have stået 70Watt fra begyndelsen ... det
var for lige at hamre en pæl igennem den opfattelse som mange har nemlig at
Intel processorer bruger meget mindre strøm end AMD processorer.
Det passer rent faktisk ikke mere, det er en frontlinie der flytter sig
generation for generation. Og nyheden i ThouroughBread er strømbesparende i
forhold til XP'en.
Så er det strømforbruget man tænker på er en XP/TB vejen frem
>>>ja, og det eneste der kan overbevise mig om at det ikke foregår mere er
>>>at nogle OEM's lancerer win/linux/beos/whatever dualboot fra fabrikken..
>>
>> Wallmart er begyndt at sælge styresystemløse PC'ere, man kan så købe et
>> OS ved siden af...det er lidt dyere hvis man i forvejen ville vælge det
>> samme system som Redmond forsøger at tvinge ned i halsen på dig (Det er
>> AFAIK en regulær licens ikke en OEM licens, ergo er der ikke rabatter
>> på), men for alle andre er det billigere.
>
> ja, men hvis du IKKE har en aftale med microsoft er der jo ingen der
> stopper dig fra at sælge en pc med linux eller uden... eller en dual
> boot kombo med linux/beos.. det er hvis du har et MS OS i en dual boot
> konfig, at MS kommer efter dig og river dine bonusser væk..
De herlig Loyalitetsrabatter....
> > Den Windows skat er virkelig noget der for det til at olme i mig.....
>
> også her.. det at kunne vælge dit eget OS er en frihed vi alle burde
> have.. men når man nu har så dårlige produkter som microsoft er de jo
> nødt til at tvinge det ned i halsen på folk for at tjene penge..
>
> og sætte monopol/diktator agtige klausuler på plads for at vedligeholde
> det..
Man får gerne at vide, "jamen så kan du jo bare installere noget andet"
...... feeedt tænker man så, jeg har lige givet 500kr for en Windows jeg
ikke kommer til at bruge og hvis licens jeg ikke må sælge videre (Ved ikke
om man må det idag).
--
Live long and prosper...
____________________________________________________________
Peter Jespersen, Linux User # 148303
flywheel@illogical.dk
http://www.illogical.dk
Where have all the nice taglines gone?
| |
Peter Jespersen (14-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 14-07-02 16:39 |
| | |
Hans (07-07-2002)
| Kommentar Fra : Hans |
Dato : 07-07-02 20:44 |
|
"Michael Lund Sørensen" <hold-diskussionen-i@nyhedsgruppen-tak.dk> skrev i
en meddelelse news:7B%V8.9865$I52.341774@news010.worldonline.dk...
> Iøvrigt findes det faktisk allerede:
>
Jeg har fundet et bedre billede hos producenten:
http://www.zalman.co.kr/english/product/zm50-hp.htm
Elegant løsning forøvrigt med et godt gammelt gennemprøvet princip -
Heat-pipes.
mvh, Hans
| |
Madsen (08-07-2002)
| Kommentar Fra : Madsen |
Dato : 08-07-02 19:46 |
|
Dennis Jakobsen skrev:
> for satan i matrox er 'touchy'.. i ærgrer jer så vildt over de
> usle 3d features.. eller mangel på samme...
Hvem andre end dig snakker om 3D-features?
Helt ærligt Dennis. Hvor gammel er du?
Hver gang et andet grafikkort end Ati's bliver nævnt er du inde og
snakke om dine 3D-features og den kommende R300-chip, eller hvad hulen
den nu hedder. Du er ikke selv bleg for at bruge et ret nedsættende
sprog mod dem som ikke lige vægter 3D-ydelse højest, eller ikke har den
samme mening som dig, men hvis der så endelig er en der svarer igen, så
går du straks i forsvarsposition med ovenstående ævl, som minder lidt
om en 5-årigs opførsel når han føler sig uretfærdigt behandlet.
Det er da for latterligt.
Der er lidt for meget troll i dig til at jeg gider at spilde harddisk-
plads på dine indlæg, så plonk herfra. Velkommen i mit killfilter. :)
(Min smiley er misvisende, men det plejer dine jo også at være).
--
Med venlig hilsen
Madsen.
| |
Hans (08-07-2002)
| Kommentar Fra : Hans |
Dato : 08-07-02 21:02 |
|
"Madsen" <nospam@madsen.tdcadsl.dk> skrev i en meddelelse
news:Xns9245D347D8BA9copy.if.you.wish@madsen.tdcadsl.dk...
> Der er lidt for meget troll i dig til at jeg gider at spilde harddisk-
> plads på dine indlæg, så plonk herfra. Velkommen i mit killfilter. :)
Det vil da (næsten) være synd - Jeg synes han er mægtig fornøjelig, nærmest
pudsig.
mvh, Hans
| |
Dennis Jakobsen (08-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 08-07-02 21:25 |
|
Hans wrote:
> "Madsen" <nospam@madsen.tdcadsl.dk> skrev i en meddelelse
> news:Xns9245D347D8BA9copy.if.you.wish@madsen.tdcadsl.dk...
>
>
>>Der er lidt for meget troll i dig til at jeg gider at spilde harddisk-
>>plads på dine indlæg, så plonk herfra. Velkommen i mit killfilter. :)
>
>
> Det vil da (næsten) være synd - Jeg synes han er mægtig fornøjelig, nærmest
> pudsig.
jubiii.. nogen der kan nyde en god (måske på forhånd 'biased') diskussion!
jeg ryger ikke i dit killfilter for at have et ATI kort vel Hans? :)
| |
Hans (08-07-2002)
| Kommentar Fra : Hans |
Dato : 08-07-02 21:48 |
|
"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
news:agcsea$204$2@phys-news1.kolumbus.fi...
> jeg ryger ikke i dit killfilter for at have et ATI kort vel Hans? :)
Jeg har ingen i filteret, da det standser al kommunikation, brugbar eller
ej.
Hvis du er tilfreds med dit ATI, og det dækker dit behov vil jeg da ikke
overtale dig til at investere i nyt.
Jeg ser på: Egnethed, kvalitet, ydeevne, omkostniger og er omhyggelig med at
kombinere de enkelte enheder for at opnå et helstøbt system, men det betyder
absolut ikke at jeg vælger den nyeste generation af hardware. Jeg har intet
imod at vente på ændringer i hardwarerevisioner som fjerner børnesygdomme.
Hardware for mig er udvalgte redskaber til at udføre opgaver - Ikke hvad der
står på æsken, eller hvor revolutionerende det er. Om der står AMD eller
Intel på mine maskiner er irrelevant, bare de udfører de opgaver som de er
egnet bedst til. Af samme grund sidder der Intel i min server og AMD i min
arbejdsstation.
mvh, Hans
| |
Dennis Jakobsen (08-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 08-07-02 23:36 |
|
Hans wrote:
> "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
> news:agcsea$204$2@phys-news1.kolumbus.fi...
>
>
>>jeg ryger ikke i dit killfilter for at have et ATI kort vel Hans? :)
>
>
> Jeg har ingen i filteret, da det standser al kommunikation, brugbar eller
> ej.
>
> Hvis du er tilfreds med dit ATI, og det dækker dit behov vil jeg da ikke
> overtale dig til at investere i nyt.
>
> Jeg ser på: Egnethed, kvalitet, ydeevne, omkostniger og er omhyggelig med at
> kombinere de enkelte enheder for at opnå et helstøbt system, men det betyder
> absolut ikke at jeg vælger den nyeste generation af hardware. Jeg har intet
> imod at vente på ændringer i hardwarerevisioner som fjerner børnesygdomme.
jeg kigger på 3D features, 3D kvalitet og 3D ydelse.. hvad angår 2D
kvalitet, er det nok for mig at vide der sidder 2x400Mhz RAMDAC's til at
styre selv de største svine dyre skærme og DVI output til et evt.
flatpanel hvis jeg skulle vinde i lotto.. jeg mener 2D kvaliteten er
mere overladt til den skærm du vælger..
> Hardware for mig er udvalgte redskaber til at udføre opgaver - Ikke hvad der
> står på æsken, eller hvor revolutionerende det er. Om der står AMD eller
> Intel på mine maskiner er irrelevant, bare de udfører de opgaver som de er
> egnet bedst til. Af samme grund sidder der Intel i min server og AMD i min
> arbejdsstation.
jeg er også fuldstændig ligeglad hvad produktet hedder.. jeg har nemlig
samme setup.. dual intel til linux/bsd/beos (hobby os) og AMD til min
AMDTel (ikke Wintel) spillekonsol!
grunden til jeg valgte ATI var at det havde flere features og suveræn
overlegen hardware DVD dekodning og god TV-Out i 1024x768.. og så var
det langt billigere end tilsvarende geforce kort på det tidspunkt.. du
kan få mere rå ydelse med et geforce (hvis du slår kvaliteten fra) men
det koster også dyrt..
| |
H3nrik V! [2670] (09-07-2002)
| Kommentar Fra : H3nrik V! [2670] |
Dato : 09-07-02 17:53 |
|
"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
news:agd43c$ih1$1@phys-news1.kolumbus.fi...
> jeg kigger på 3D features, 3D kvalitet og 3D ydelse.. hvad angår 2D
> kvalitet, er det nok for mig at vide der sidder 2x400Mhz RAMDAC's til at
> styre selv de største svine dyre skærme og DVI output til et evt.
> flatpanel hvis jeg skulle vinde i lotto.. jeg mener 2D kvaliteten er
> mere overladt til den skærm du vælger..
Jeg er altså ked af at skuffe dig, men billedkvalitet fra kortets side er
andet og meget mere end hastigheden på RAMDAC. Så længe dine øjne er analoge
(og det er de nok længe endnu) er de et af de bedste måleinstrumenter, der
findes, og "fejl" eller ringe kvalitet på et analogt filter på udgangen af
grafikkortet afsløres ubarmhjertigt af dine øjne...!
Min spillemaskine hængr stadig på et GF2MX kort, hvor min WorkStation kører
med et G400 - og når jeg opgraderer spillemaskinen (med et Parhelia) ryger
GF2MX kortet ikke i den anden... For h** der er forskel på hovedpinen efter
8 timer foran skærmen om der står Matrox eller nVidia på chippen---!
/H3nrik!
| |
Dennis Jakobsen (08-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 08-07-02 21:22 |
|
Madsen wrote:
> Dennis Jakobsen skrev:
>
>
>>for satan i matrox er 'touchy'.. i ærgrer jer så vildt over de
>>usle 3d features.. eller mangel på samme...
>
> Hvem andre end dig snakker om 3D-features?
det ved jeg ikke.. jeg har ikke checket.. men det er jo en generel
grafik korts tråd.. jeg skal vel ikke ind i d.e.h.g.3d vel?
> Helt ærligt Dennis. Hvor gammel er du?
ældre end dig hvis du rent faktisk smed mig i dit killfilter fordi du
ikke kun forsvare dig, med andet end: "drop det pis!"
> Hver gang et andet grafikkort end Ati's bliver nævnt er du inde og
> snakke om dine 3D-features og den kommende R300-chip, eller hvad hulen
> den nu hedder. Du er ikke selv bleg for at bruge et ret nedsættende
> sprog mod dem som ikke lige vægter 3D-ydelse højest, eller ikke har den
> samme mening som dig, men hvis der så endelig er en der svarer igen, så
> går du straks i forsvarsposition med ovenstående ævl, som minder lidt
> om en 5-årigs opførsel når han føler sig uretfærdigt behandlet.
> Det er da for latterligt.
giv mig lige et godt eksempel.. bare et der gør mig til ligeså stor
trold som dig med den opførsel du lige har vist!
du fortsatte jo bare dit.. jeg vil ikke høre om 3D for jeg har Matrox
og det har ingen 3D, så jeg er misundelig.. og jeg kan ikke forsvare
det, så jeg siger bare drop det pis og forsvind i mit killfilter!
det er vel et diskussions forum.. hvis der hver gang der var noget jeg
ikke brød mig om smed folk i mit killfilter, så var der jo ingen tilbage
at diskutere med.. og du har vel kun dine matrox venner tilbage som du
glædeligt stadig priser jeres G200 med ..
> Der er lidt for meget troll i dig til at jeg gider at spilde harddisk-
> plads på dine indlæg, så plonk herfra. Velkommen i mit killfilter. :)
tak, så slipper jeg for din barnlige respons..
> (Min smiley er misvisende, men det plejer dine jo også at være).
tak for flere fornærmelser.. du staver rimelig godt for en 5 årig!
| |
H3nrik V! [2670] (09-07-2002)
| Kommentar Fra : H3nrik V! [2670] |
Dato : 09-07-02 17:55 |
|
"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
news:agcs9g$204$1@phys-news1.kolumbus.fi...
> at diskutere med.. og du har vel kun dine matrox venner tilbage som du
> glædeligt stadig priser jeres G200 med ..
Har du nogensinde set G200 PCI kort i markedsgrupperne eller på netauktioner
for den sags skyld? De sælges jo til skyhøje priser... Det må der da være en
grund til - jeg kender grunden - jeg smed gerne et G200 i et af mine
PCI-slots...!
/H3nrik!
| |
Dennis Jakobsen (09-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 09-07-02 19:35 |
|
H3nrik V! [2670] wrote:
> "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
> news:agcs9g$204$1@phys-news1.kolumbus.fi...
>
>
>>at diskutere med.. og du har vel kun dine matrox venner tilbage som du
>>glædeligt stadig priser jeres G200 med ..
>
>
> Har du nogensinde set G200 PCI kort i markedsgrupperne eller på netauktioner
> for den sags skyld? De sælges jo til skyhøje priser... Det må der da være en
> grund til - jeg kender grunden - jeg smed gerne et G200 i et af mine
> PCI-slots...!
måske du skulle have købt et nyt så.. de er i hvert fald billige.. :)
| |
Peter Jespersen (12-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 12-07-02 13:00 |
|
On Tue, 09 Jul 2002 21:34:32 +0300, Dennis Jakobsen wrote:
>H3nrik V! [2670] wrote:
>> "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
>> news:agcs9g$204$1@phys-news1.kolumbus.fi...
>>
>>
>>>at diskutere med.. og du har vel kun dine matrox venner tilbage som du
>>>glædeligt stadig priser jeres G200 med ..
>>
>>
>> Har du nogensinde set G200 PCI kort i markedsgrupperne eller på netauktioner
>> for den sags skyld? De sælges jo til skyhøje priser... Det må der da være en
>> grund til - jeg kender grunden - jeg smed gerne et G200 i et af mine
>> PCI-slots...!
>
>måske du skulle have købt et nyt så.. de er i hvert fald billige... :)
Ikke alle G200 modeller, deres MMS er lidt halvpebret, men mulighed for at
tilslutte 8 DVI skærme er måske ikke aktuelt for alle privatpersoner
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
Remember, the paper is always strongest at the perforations.
| |
Madsen (08-07-2002)
| Kommentar Fra : Madsen |
Dato : 08-07-02 21:12 |
|
Hans skrev:
> Det vil da (næsten) være synd - Jeg synes han er mægtig
> fornøjelig, nærmest pudsig.
Jamen så beholder du ham da bare udenfor dit killfilter. :)
--
Med venlig hilsen
Madsen.
| |
Jens Christensen (07-07-2002)
| Kommentar Fra : Jens Christensen |
Dato : 07-07-02 08:51 |
|
Hvis du bare har den mindste smule luftgennemstrømning i dit kabinet tvivler
jeg på at der er nogen praktisk forskel på om kortet sidder 'på hovedet'
eller ej.
JC
"Hans" <fast@2night.d.k> wrote in message
news:3d2716c2$0$16805$edfadb0f@dspool01.news.tele.dk...
> Jeg har prøvet at rette henvendelse til et par af de store producenter af
> grafikkort med en idé jeg garanteret ikke er ene om, men har ingen respons
> fået overhovedet, så derfor kunne jeg godt tænke mig at få nogle
> tilkendegivelser fra jer brugere af dagens grafikkort.
>
> Efter min mening er producenterne med til at fastholde os alle med
> problematikken omkring effektiv køling af de hurtige grafikkort, da de
> vedbliver med at montere GSP'en på den "forkerte" side af printet.
>
> Komponenterne på et AGP-kort vender som bekendt nedaf i et mini- midi
eller
> maxi towerkabinet, og derved bliver varmen fra GSP'en hængende under
kortet,
> hvilket stiller yderligere krav til køling af chippen. Ydermere er der
meget
> lidt plads mellem AGP og PCI-slot 1, hvis dette skal bruges, så problemet
er
> reelt nok.
>
> Kigger vi ind i vores maskine må vi konstatere at der er masser af
ubenyttet
> plads på oversiden af AGP-kortet, da der er langt over til cpu-køleren.
> Flyttes GSP'en om på oversiden af grafikkortet får vi langt mere plads til
> en effektiv, ikke støjende køling, men fordelen er også at varmen vil
blive
> bortledt i en naturlig opadgående retning. Bortledning af denne varme er
> ikke noget problem i et moderne kabinet, da der er mulighed for at montere
> en kabinetblæser eller flere under strømforsyningen.
>
> Er det bare mig som undres over denne indlysende fejlplacering, eller er
vi
> mange?
>
> mvh, Hans
>
>
>
>
>
| |
Thomas Pedersen (07-07-2002)
| Kommentar Fra : Thomas Pedersen |
Dato : 07-07-02 10:26 |
|
Jeg tror sku at det er grundt rent økonomiske årsager. Mange benytter idag
EDBpriser for at finde det biligste af det billigste. Ved printomontage på 2
sider vil prisen sikkert stige og antallet af sogle kort vil da falde.
Som nævnt før, så tror jeg at en let gennemstrømning af luft i ens kabinet,
kan virke lige så godt.
Mvh
Thomas Pedersen
| |
Dennis Jakobsen (07-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 07-07-02 16:28 |
|
Hans wrote:
> Jeg har prøvet at rette henvendelse til et par af de store producenter af
> grafikkort med en idé jeg garanteret ikke er ene om, men har ingen respons
> fået overhovedet, så derfor kunne jeg godt tænke mig at få nogle
> tilkendegivelser fra jer brugere af dagens grafikkort.
>
> Efter min mening er producenterne med til at fastholde os alle med
> problematikken omkring effektiv køling af de hurtige grafikkort, da de
> vedbliver med at montere GSP'en på den "forkerte" side af printet.
>
> Komponenterne på et AGP-kort vender som bekendt nedaf i et mini- midi eller
> maxi towerkabinet, og derved bliver varmen fra GSP'en hængende under kortet,
> hvilket stiller yderligere krav til køling af chippen. Ydermere er der meget
> lidt plads mellem AGP og PCI-slot 1, hvis dette skal bruges, så problemet er
> reelt nok.
ja, men problemet bliver større for mit vedkommende hvis du putter
chippen på den anden side..
> Kigger vi ind i vores maskine må vi konstatere at der er masser af ubenyttet
> plads på oversiden af AGP-kortet, da der er langt over til cpu-køleren.
nej, der er faktisk endnu mindre plads.. ikke engang nok til en passiv
køler..
> Flyttes GSP'en om på oversiden af grafikkortet får vi langt mere plads til
> en effektiv, ikke støjende køling, men fordelen er også at varmen vil blive
> bortledt i en naturlig opadgående retning. Bortledning af denne varme er
naturlig opadgående? det kommer vel an på hvordan dit kabinet vender?
> ikke noget problem i et moderne kabinet, da der er mulighed for at montere
> en kabinetblæser eller flere under strømforsyningen.
moderne? du tænker på de der pis billige skod pc kabinetter?
> Er det bare mig som undres over denne indlysende fejlplacering, eller er vi
> mange?
for mit vedkommende står du helt alene..
få dig en af de der kølere der hiver luften ud af de åbne slots.. men
det løser stadig ikke dit problem hvis du SKAL have et PCI kort der. :(
Dennis
| |
Hans (07-07-2002)
| Kommentar Fra : Hans |
Dato : 07-07-02 19:52 |
|
"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
news:ag9mm0$c28$1@phys-news1.kolumbus.fi...
> ja, men problemet bliver større for mit vedkommende hvis du putter
> chippen på den anden side..
Jeg kan se i dit tidligere indlæg i denne tråd at du kører med et Asus P2B i
Dual Slot-1, og dette kort kan vel næppe kaldes for dagens standard, og er
ikke den første indlysende kombination af velegnede bundkort til et moderne
grafikkort.
Det første ord jeg kommer til at tænke på når vi taler om Dual Slot-1 er
server, så det må siges at være skudt helt forbi.
> naturlig opadgående? det kommer vel an på hvordan dit kabinet vender?
Jeg kan garantere dig for at på 99.999% af markedets towerkabineter vender
AGP-kortets blæser ned mod bunden af kabinettet. Igen - Vi snakker ikke om
specielle serverkabinetter der ikke hører hjemme i denne sammenhæng.
Jeg tænker udelukkende på tidssvarende maskiner i S-A og S-478 som stort set
er ene på markedet i dag, og som kan yde de hurtige skærmkort retfærdighed.
> moderne? du tænker på de der pis billige skod pc kabinetter?
Ja - Ja, de der billige Chieftec kabinetter. :o\
Gider du godt og kravle ned til os andre, eller bidrage med med noget
konstruktivt, for du lyder faktisk som et rigtigt surt opstød i denne
sammenhæng.
> for mit vedkommende står du helt alene..
Nope, men du kan meget vel komme til det hvis du fastholder dine holdninger.
mvh, Hans
| |
Dennis Jakobsen (07-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 07-07-02 21:18 |
|
Hans wrote:
> Jeg kan se i dit tidligere indlæg i denne tråd at du kører med et Asus P2B i
> Dual Slot-1, og dette kort kan vel næppe kaldes for dagens standard, og er
tjoo.. det følger da den samme ATX standard som dit board.. du er ikke
flyttet til WTX endnu vel? for så er du lidt foran..
> ikke den første indlysende kombination af velegnede bundkort til et moderne
> grafikkort.
nå, undskyld jeg ikke valgte det samme som dig.. nu har jeg interesse
i alternative os'er der kan finde ud af at bruge 2 processorer, så det
var et yderst indlysende valg for mig..
men da jeg 'kun' har AGP2x er jeg jo nok gammeldags.. ikke at jeg kender
et eneste spil der bruger det til noget.. eller kunne bruge det til
noget fornuftigt så langsomt som AGP4x er..
> Det første ord jeg kommer til at tænke på når vi taler om Dual Slot-1 er
> server, så det må siges at være skudt helt forbi.
det første jeg tænker på når jeg kører Quake3 i Windows er Spille Maskine!
har ikke brug for mere end en 100mhz pentium1 med linux/bsd på hvis jeg
skal bruge en server til privat brug..
>>naturlig opadgående? det kommer vel an på hvordan dit kabinet vender?
>
> Jeg kan garantere dig for at på 99.999% af markedets towerkabineter vender
> AGP-kortets blæser ned mod bunden af kabinettet. Igen - Vi snakker ikke om
> specielle serverkabinetter der ikke hører hjemme i denne sammenhæng.
hmm.. towerkabinetter ja.. der er det nok 100%.. men det er også
ligemeget..
> Jeg tænker udelukkende på tidssvarende maskiner i S-A og S-478 som stort set
> er ene på markedet i dag, og som kan yde de hurtige skærmkort retfærdighed.
hmmm.. så 2x1.4Ghz Pentium3 chips som tører røv med p4'eren er ikke
hurtig nok?
>>moderne? du tænker på de der pis billige skod pc kabinetter?
>
> Ja - Ja, de der billige Chieftec kabinetter. :o\
jep, jeg har et.. måtte dog slippe en halv tusse for en ordentlig PSU
> Gider du godt og kravle ned til os andre, eller bidrage med med noget
> konstruktivt, for du lyder faktisk som et rigtigt surt opstød i denne
> sammenhæng.
jeg tror faktisk jeg skulle kravle op ad.. jeg ligger ret langt nede..
og undskyld jeg ikke kommer med skulderklap til jeres revolutionære
forslag.. *sigh*
>>for mit vedkommende står du helt alene..
>
> Nope, men du kan meget vel komme til det hvis du fastholder dine holdninger.
måske det er mig der står helt alene?
det er fint nok du vil have ny smart overclocking tech. men det er ikke
ligefrem det der driver industrien.. og at flytte chippen om på den
anden side bliver vel bare værrer for din processor.. og for
forbrugerne at skulle vælge det rigtige kort.. :)
og undskyld jeg virker som et surt opstød og prikkede hul i din bobbel,
jeg prøver bare at være realistisk..
Dennis
| |
Hans (07-07-2002)
| Kommentar Fra : Hans |
Dato : 07-07-02 22:45 |
|
"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
news:aga7lg$p6e$1@phys-news1.kolumbus.fi...
> og undskyld jeg virker som et surt opstød og prikkede hul i din bobbel,
> jeg prøver bare at være realistisk..
Realistisk? Jeg vil nærmere kalde det konservativt og meget lidt udviklende,
men hvis du har det fint med forgårs teknologi, så fred være med det. Der
skal noget mere til at prikke hul i min ganske transparante bobbel.
Vi andre har ikke noget imod at tænke i anderledes termer, og skulle
forbrugerne få endnu et valg og nye overvejelser ved køb af fremtidens
hardware, så er det nok ikke første gang det sker. Prøv dog at fokuser på
fordele og muligheder frem for spørgsmålstegn og tvivl som din første
indskydelse.
Iøvrigt er det den private forbruger som investerer i de hurtige grafikkort,
nærmere betegnet alle dem som holder af at spille, og dem er der rigtig
mange af skal jeg lige hilse og sige.
Bortset fra det, så har det været interessant at få tilkendegivelser omkring
denne tråd, både de positive, negative og "janteindlæggene". Der er
alligevel håb for at vi kan se frem til nogle endnu mere spændende produkter
i fremtiden, selv om der er en del som vedbliver med at trække den anden
vej.
EOD
mvh, Hans
| |
Dennis Jakobsen (08-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 08-07-02 12:03 |
|
Hans wrote:
> "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
> news:aga7lg$p6e$1@phys-news1.kolumbus.fi...
>
>
>>og undskyld jeg virker som et surt opstød og prikkede hul i din bobbel,
>>jeg prøver bare at være realistisk..
>
>
> Realistisk? Jeg vil nærmere kalde det konservativt og meget lidt udviklende,
> men hvis du har det fint med forgårs teknologi, så fred være med det. Der
> skal noget mere til at prikke hul i min ganske transparante bobbel.
tjaa.. nogen gange må du træde et skridt tilbage i udviklingen hvis du
skal være realistisk.. og af samme grund får du ikke et AGP kort med
GPU'en på bagsiden af kortet.. endnu..
> Vi andre har ikke noget imod at tænke i anderledes termer, og skulle
> forbrugerne få endnu et valg og nye overvejelser ved køb af fremtidens
> hardware, så er det nok ikke første gang det sker. Prøv dog at fokuser på
> fordele og muligheder frem for spørgsmålstegn og tvivl som din første
> indskydelse.
ja, det vil jeg da også gerne, men når det ender med at være fysisk
umuligt for folk at sætte kortet i, bliver det altså aldrig til noget!!
måske med kølere hvor man sigter efter et hardcore oc marked.. men med
grafikkort.. nej.. du kunne jo også sætte en køleprofil på bagsiden
af kortet! du har jo så meget plads der.. :)
> Iøvrigt er det den private forbruger som investerer i de hurtige grafikkort,
> nærmere betegnet alle dem som holder af at spille, og dem er der rigtig
> mange af skal jeg lige hilse og sige.
aha.. og Dell, IBM, Fujitsu osv. laver ikke highend maskiner med
GeForce og ATI kort i ? nej, det kan vist kun være ca. 100 maskiner
solgt samlet om året.. minimalt marked..
det kan virke overvældende for dig at der måske er 100 mennesker i den
her newsgroup.. men jeg kan garantere dig at 'enthusiast' markedet er i
den mindste ende af skalaen.. jeg vil dog tro vandkøling, flydende
kvælstof og andre former for overclocking kan samles til en gruppe og så
stadig være mindre..
> Bortset fra det, så har det været interessant at få tilkendegivelser omkring
> denne tråd, både de positive, negative og "janteindlæggene". Der er
> alligevel håb for at vi kan se frem til nogle endnu mere spændende produkter
> i fremtiden, selv om der er en del som vedbliver med at trække den anden
> vej.
tak for de næsten usynlige hentydninger.. :)
jeg skal jo lige indrømme at jeg sagtens kan se hvilken gavn det giver
dig.. og hvilken gavn det ville gøre mig i en fremtidig maskine med et
Socket baseret bundkort og et vertikalt tower kabinet.
men lige nu finder jeg det bare ikke realistisk for nogen som helst
grafikkort fabrikant at efterfølge sådan et produkt.
jeg så hellere ATI/Nvidia fixede deres varme problemer, så de kunne
sælge kølige grafikkort, måske enddda uden passiv køle profil..
var det den udvikling du mente var at trække baglæns?
og du vil flytte chips rundt og putte heatpipes og endnu større kølere
på, fordi chipsene bliver varmere og varmere?
det er vist dig der trækker i den forkerte retning..
Dennis
| |
Thomas Worm Madsen (08-07-2002)
| Kommentar Fra : Thomas Worm Madsen |
Dato : 08-07-02 12:18 |
|
> det er vist dig der trækker i den forkerte retning..
Ja det må man sige med alt den støtte du får til dine synspunkter!
Hvis du vil af med dit varmeproblem, så må du nok skifte til nogle ældre
GFX, for det bliver da ikke mindre og det bliver da næppe uden køleprofil.
Idag er det jo sådan et for at GFX'ene skal kunne følge med, så skal de have
flere transistorer osv. Dette vil unægteligt medfølge at der vil udvikles
mere varme og dermed skal der større profiler på.
Måden at undgå dette er at bruge mindre baner i GPU'en hvilket kunne ses
hjalp da man sprang fra T-bird til XP.
At du sidder med et bundkort fra før årtusindskiftet (endda godt før) det er
jo så dit problem og du må så lade være med at hoppe med på vognen, men
blive med at sidde og mæske dig med nostalgiteknologi. Jeg bruger selv
nostalgiteknologi, men jeg begræder f.eks. ikke at mit BP6 ikke kan udnytte
et GF4 fuldt ud. Det giver jeg derimod et 1 mb PCI grafikkort som det kun
skal have, for ellers vil den ikke starte (hint: den er server, ligesom det
blev foreslået at du skulle lave din til)
Og så tror jeg egentlig nok et Hans har skrevet et EOD til dig, men da du
ikke reagerede på det kan jeg lige oversætte:
EOD = End Of Discussion!
/Thomas
| |
Dennis Jakobsen (08-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 08-07-02 18:07 |
|
Thomas Worm Madsen wrote:
>>det er vist dig der trækker i den forkerte retning..
>
>
> Ja det må man sige med alt den støtte du får til dine synspunkter!
yeah, og som flertallet har ret.. hmm.. lad os se.. så må Windows jo
være den perfekte platform og Islam den bedste religion.. og nVidia
laver de bedste grafikkort.. hahah.. yeah right..
> Hvis du vil af med dit varmeproblem, så må du nok skifte til nogle ældre
> GFX, for det bliver da ikke mindre og det bliver da næppe uden køleprofil.
tjoo.. at gå fra et R200 til R250 kort skaffer jeg mig af med min blæser..
men i fatter stadig ikke at det er den rigtige retning.. jo større
blæser jo bedre teknologi.. tsk tsk..
> Idag er det jo sådan et for at GFX'ene skal kunne følge med, så skal de have
> flere transistorer osv. Dette vil unægteligt medfølge at der vil udvikles
> mere varme og dermed skal der større profiler på.
typisk flere transistorer ja, men ikke nødvendigvis..
> Måden at undgå dette er at bruge mindre baner i GPU'en hvilket kunne ses
> hjalp da man sprang fra T-bird til XP.
> At du sidder med et bundkort fra før årtusindskiftet (endda godt før) det er
> jo så dit problem og du må så lade være med at hoppe med på vognen, men
> blive med at sidde og mæske dig med nostalgiteknologi. Jeg bruger selv
aahh.. nostalgi.. nej, det ville være at købe en 64'er.. hvis jeg
putter et par hurtige p3'er i mit bundkort tørrer jeg jo røv med din
maskine.. så hvad gør det så din teknologi til?
> nostalgiteknologi, men jeg begræder f.eks. ikke at mit BP6 ikke kan udnytte
> et GF4 fuldt ud. Det giver jeg derimod et 1 mb PCI grafikkort som det kun
> skal have, for ellers vil den ikke starte (hint: den er server, ligesom det
> blev foreslået at du skulle lave din til)
så kunne du jo have valgt et mere stabilt bundkort der ikke bukker under
for lidt pres.. og hvis du tror at AGP4x bliver brugt til en flyvende
skid for at vise det grafik du sidder og ser på, tager du grueligt fejl.
> Og så tror jeg egentlig nok et Hans har skrevet et EOD til dig, men da du
> ikke reagerede på det kan jeg lige oversætte:
så det betyder jeg ikke må svare på hans fornærmelser eller?!?
så kan jeg jo passende kalde dig tech idiot wanna-be og skrive EOD,
fordi så må du ikke svare.. nej, hvor smart.. hvis man er et 5 årigt barn..
> EOD = End Of Discussion!
det var vist ikke en oversættelse var?
men EOD så! narrøv.. :)
| |
H3nrik V! [2670] (09-07-2002)
| Kommentar Fra : H3nrik V! [2670] |
Dato : 09-07-02 18:39 |
|
"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
news:agbrfp$m1s$1@phys-news1.kolumbus.fi...
> ja, det vil jeg da også gerne, men når det ender med at være fysisk
> umuligt for folk at sætte kortet i, bliver det altså aldrig til noget!!
Hmmm... Det er også fysisk umuligt at ploppe en P4 i et S370 kort - folk
opgraderer - sådan er det bare - vil man ha' den nyeste må man betale... Og
så kan du smide nok så hurtige P!!!'ere i dit dualboard, så kan de vente
endnu længere på data fra din PC133 (eller er det PC100) RAM...!
Så skru ned for det "fysisk umulige" etc. Folk der gider gi' 4000 kr for et
grafikkort køber også gerne et nyt bundkort for at passe det sammen...!
/H3nrik - der skal ud og købe nyt MoBo for at kunne bruge nyere
Detonator's...!
| |
Dennis Jakobsen (09-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 09-07-02 19:43 |
|
H3nrik V! [2670] wrote:
> "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
> news:agbrfp$m1s$1@phys-news1.kolumbus.fi...
>
>
>>ja, det vil jeg da også gerne, men når det ender med at være fysisk
>>umuligt for folk at sætte kortet i, bliver det altså aldrig til noget!!
>
>
> Hmmm... Det er også fysisk umuligt at ploppe en P4 i et S370 kort - folk
> opgraderer - sådan er det bare - vil man ha' den nyeste må man betale... Og
ja, så kunne du jo have valgt en smartere platform.. at Intel skifter
socket næsten for hver ny processor revision er jo også fuldstændig
vanvittigt..
> så kan du smide nok så hurtige P!!!'ere i dit dualboard, så kan de vente
> endnu længere på data fra din PC133 (eller er det PC100) RAM...!
tjaa.. det skal jo ikke vente så længe som en Rambus controller..
hvilket er grunden til dual p3 tørrer røv med dual p4 xeon..
> Så skru ned for det "fysisk umulige" etc. Folk der gider gi' 4000 kr for et
> grafikkort køber også gerne et nyt bundkort for at passe det sammen...!
jamen jeg kan da ikke skrue ned for det fysisk umulige... skal jeg gå
ud og erstatte alle folks slot 1/A bundkort ?
når det eneste de får er en hurtige AGP der stadig ikke bliver brugt til
noget i spil og en P4 der er halvt så hurtig ved samme frekvens? jeg
ser ikke formålet udover at smide penge ud af vinduet..
når Hammer kommer og bitchslapper p4'eren, opgraderer jeg gerne.. fordi
jeg ved med AMD, kan jeg opgradere min CPU mange år frem i tiden..
hvis man køber Intel skal du skifte bundkort, ram og PSU hver gang du
vil oppe den 500mhz.. sørgeligt..
> /H3nrik - der skal ud og købe nyt MoBo for at kunne bruge nyere
> Detonator's...!
| |
H3nrik V! [2670] (09-07-2002)
| Kommentar Fra : H3nrik V! [2670] |
Dato : 09-07-02 21:36 |
|
"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
news:agfaqp$9m4$1@phys-news1.kolumbus.fi...
> ja, så kunne du jo have valgt en smartere platform.. at Intel skifter
> socket næsten for hver ny processor revision er jo også fuldstændig
> vanvittigt..
Ja, for AMD skiftede nemlig ikke Super socket 7 -> Slot A -> Socket A...!
Jeg kan godt se hvor platformstabiliteten ligger...!
> > så kan du smide nok så hurtige P!!!'ere i dit dualboard, så kan de vente
> > endnu længere på data fra din PC133 (eller er det PC100) RAM...!
>
> tjaa.. det skal jo ikke vente så længe som en Rambus controller..
> hvilket er grunden til dual p3 tørrer røv med dual p4 xeon..
Lad den da vente den smule længere på 3.2GB/s frem for 1GB/s og mon dog
2xP!!! 1400 kører rundt i manegen med 2XPIV Xeon 2.2?
> jamen jeg kan da ikke skrue ned for det fysisk umulige... skal jeg gå
> ud og erstatte alle folks slot 1/A bundkort ?
Nej... Dem har folk såmænd selv skiftet... Og jeg er sikker på mange ville
opgradere deres bundkort for at få plads til noget hurtigere...!
> når det eneste de får er en hurtige AGP der stadig ikke bliver brugt til
Nej - jeg tænker ikke AGPx4 (eller 8) men plads til hurtigere GFX kort...!
> noget i spil og en P4 der er halvt så hurtig ved samme frekvens? jeg
Effektiviteten pr clockcycle i PIV er en anden diskussion - men personligt
køber jeg gerne noget, der laver det halve pr. clock, hvis det så kører 3
gange så stærkt. Det er så bundlinjen, der skal læses, og hvis den gi'r + er
jeg på...!
> når Hammer kommer og bitchslapper p4'eren, opgraderer jeg gerne.. fordi
> jeg ved med AMD, kan jeg opgradere min CPU mange år frem i tiden..
Hmm... Bli'r Hammer ikke lanceret med forskellige sockets afhængig af
sledge- claw- osv.?
> hvis man køber Intel skal du skifte bundkort, ram og PSU hver gang du
> vil oppe den 500mhz.. sørgeligt..
Jeg tænker igen Slot/Socket A... Slot One kunne dog bruges med S370
adapters...! Mit gamle BH6 fik da 4 forskellige CPU'er... Havde den gået med
et Slot A MoBo?
/H3nrik...!
| |
Dennis Jakobsen (10-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 10-07-02 14:22 |
|
H3nrik V! [2670] wrote:
> "Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
> news:agfaqp$9m4$1@phys-news1.kolumbus.fi...
>
>
>>ja, så kunne du jo have valgt en smartere platform.. at Intel skifter
>>socket næsten for hver ny processor revision er jo også fuldstændig
>>vanvittigt..
>
>
> Ja, for AMD skiftede nemlig ikke Super socket 7 -> Slot A -> Socket A...!
> Jeg kan godt se hvor platformstabiliteten ligger...!
ja, det var fjollet at følge Intel der.. de skulle have startet med
SocketA med det samme.. men nu går de jo forhåbentlig egne veje i
fremtiden med Hammer.. (SocketB ? ;)
>>>så kan du smide nok så hurtige P!!!'ere i dit dualboard, så kan de vente
>>>endnu længere på data fra din PC133 (eller er det PC100) RAM...!
>>
>>tjaa.. det skal jo ikke vente så længe som en Rambus controller..
>>hvilket er grunden til dual p3 tørrer røv med dual p4 xeon..
>
> Lad den da vente den smule længere på 3.2GB/s frem for 1GB/s og mon dog
tjaa, den har større båndbredde, men det hjælper åbenbart ikke noget når
den skal vente næsten 50ns på det..
> 2xP!!! 1400 kører rundt i manegen med 2XPIV Xeon 2.2?
måske du skulle checke nogle benchmarks..
ok, vi snakker ikke 3 dobbelt performance.. men den er hurtigere!!
>>jamen jeg kan da ikke skrue ned for det fysisk umulige... skal jeg gå
>>ud og erstatte alle folks slot 1/A bundkort ?
>
> Nej... Dem har folk såmænd selv skiftet... Og jeg er sikker på mange ville
> opgradere deres bundkort for at få plads til noget hurtigere...!
jaja, men nu er vi jo tilbage ved minoritet's grupperne igen.. givet
at de fleste efterhånden har købt ny computer og de er socket baseret,
men der er stadig en stor gruppe mennesker tilbage med slot baserede
bundkort der ikke føler sig nødsaget til en bundkort+ram+psu+cpu for at
opgradere sit grafik kort..
>>når det eneste de får er en hurtige AGP der stadig ikke bliver brugt til
>
> Nej - jeg tænker ikke AGPx4 (eller 8) men plads til hurtigere GFX kort...!
øhh.. plads?
>> noget i spil og en P4 der er halvt så hurtig ved samme frekvens? jeg
>
> Effektiviteten pr clockcycle i PIV er en anden diskussion - men personligt
> køber jeg gerne noget, der laver det halve pr. clock, hvis det så kører 3
> gange så stærkt. Det er så bundlinjen, der skal læses, og hvis den gi'r + er
> jeg på...!
ja.. og bundlinjen siger at en P4 har den dobbelte frekvens, men giver
ca. den samme ydelse..
>>når Hammer kommer og bitchslapper p4'eren, opgraderer jeg gerne.. fordi
>>jeg ved med AMD, kan jeg opgradere min CPU mange år frem i tiden..
>
> Hmm... Bli'r Hammer ikke lanceret med forskellige sockets afhængig af
> sledge- claw- osv.?
jo, fordi SledgeHammer er en server chip med en anden onboard memory
controller.. dual 64bit DDR kontra single channel DDR mem controller på
Claw Hammeren.. der skal pins til en 64bit DDR mem controller.. og
dobbelt så mange til en 2x64bit DDR mem controller..
>>hvis man køber Intel skal du skifte bundkort, ram og PSU hver gang du
>>vil oppe den 500mhz.. sørgeligt..
>
> Jeg tænker igen Slot/Socket A... Slot One kunne dog bruges med S370
> adapters...! Mit gamle BH6 fik da 4 forskellige CPU'er... Havde den gået med
> et Slot A MoBo?
korrekt.. gudskelov.. og jeg savnede også en Slocket til mit gamle
K7M.. men Athlon markedet var ikke særlig stort på det tidspunkt og det
blev vist kun til snak hos div. fabrikanter..
som jeg sagde tidligere.. det var fjollet af AMD at følge Intel i Slot
arkitekturen..
| |
Peter Jespersen (11-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 11-07-02 19:24 |
|
On Wed, 10 Jul 2002 16:21:58 +0300, Dennis Jakobsen wrote:
>> Ja, for AMD skiftede nemlig ikke Super socket 7 -> Slot A -> Socket A....!
>> Jeg kan godt se hvor platformstabiliteten ligger...!
>
>ja, det var fjollet at følge Intel der.. de skulle have startet med
>SocketA med det samme.. men nu går de jo forhåbentlig egne veje i
>fremtiden med Hammer.. (SocketB ? ;)
Hvis de havde startet med sokkelA havde der været problemer med
at få plads til cachen ... og de har ikke helt fulgt intel i
nyere tid, der indtil videre har taget denne rute (Xeon ikke
taget med)
Sokkel5->Sokkel7->Super
sokkel7->Sokkel8(PPro)->Slot1->Sokkel370->Sokkel423->Sokkel478
Allerede på forhånd blev det annonceret at Sokkel423 var
midlertidigt....
(Hvis jeg har glemt nogle så lad mig det vide....mener at der
var en ekstra i forlængelse ag sokkel370).
>>>>så kan du smide nok så hurtige P!!!'ere i dit dualboard, så kan de vente
>>>>endnu længere på data fra din PC133 (eller er det PC100) RAM...!
>>>
>>>tjaa.. det skal jo ikke vente så længe som en Rambus controller..
>>>hvilket er grunden til dual p3 tørrer røv med dual p4 xeon..
>>
>> Lad den da vente den smule længere på 3.2GB/s frem for 1GB/s og mon dog
>
>tjaa, den har større båndbredde, men det hjælper åbenbart ikke noget når
>den skal vente næsten 50ns på det..
>
>> 2xP!!! 1400 kører rundt i manegen med 2XPIV Xeon 2.2?
>
>måske du skulle checke nogle benchmarks..
>
>ok, vi snakker ikke 3 dobbelt performance.. men den er hurtigere!!
>
>>>jamen jeg kan da ikke skrue ned for det fysisk umulige... skal jeg gå
>>>ud og erstatte alle folks slot 1/A bundkort ?
>>
>> Nej... Dem har folk såmænd selv skiftet... Og jeg er sikker på mange ville
>> opgradere deres bundkort for at få plads til noget hurtigere...!
>
>jaja, men nu er vi jo tilbage ved minoritet's grupperne igen.. givet
>at de fleste efterhånden har købt ny computer og de er socket baseret,
>men der er stadig en stor gruppe mennesker tilbage med slot baserede
>bundkort der ikke føler sig nødsaget til en bundkort+ram+psu+cpu for at
>opgradere sit grafik kort..
Ved det....det er fx Pentium og Pentium-klasse processorer der
er mest anvendt af OS/2 brugerne, for omkring to år siden var
det i486'ere, har stadig både en IBM 6x86MX-300 og en K6-2
450Mhz i aktion. Men det betyder ikke at fabrikanterne skal
smide alt de har i hænderne og fremstille enhder der er
problematiske når de bliver sat i en "moderne" maskine.
Nogle af de nye grafikkort kræver i forvejen direkte en BIOS
opdatering....hvilket med en del af de gamle bundkort
efterhånden kan blive et problem.
>>>når det eneste de får er en hurtige AGP der stadig ikke bliver brugt til
>>
>> Nej - jeg tænker ikke AGPx4 (eller 8) men plads til hurtigere GFX kort...!
>
>øhh.. plads?
Ja plads...jeg roder rundt med et ECS K7S6A og et Matrox G400,
der er passivt kølet, det er lige med nød og næppe at det første
PCI slot kan bruges, havde et stykke tid en Blue Orb på hvilket
direkte afskar mig fra at bruge PCI-slottet.
Og det er en udbredt tendens på markedet.....
>> Hmm... Bli'r Hammer ikke lanceret med forskellige sockets afhængig af
>> sledge- claw- osv.?
>
>jo, fordi SledgeHammer er en server chip med en anden onboard memory
>controller.. dual 64bit DDR kontra single channel DDR mem controller på
>Claw Hammeren.. der skal pins til en 64bit DDR mem controller.. og
>dobbelt så mange til en 2x64bit DDR mem controller..
Absolut....Intel har gjort nogenlunde det samme med Xeon....
>korrekt.. gudskelov.. og jeg savnede også en Slocket til mit gamle
>K7M.. men Athlon markedet var ikke særlig stort på det tidspunkt og det
>blev vist kun til snak hos div. fabrikanter..
>
>som jeg sagde tidligere.. det var fjollet af AMD at følge Intel i Slot
>arkitekturen..
Yep dumt, men det var en nem løsning på cache problemet og
backside cache var meget udbredt på det tidspunkt.
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
The only difference between a rut and a grave is the depth.
| |
Dennis Jakobsen (12-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 12-07-02 01:42 |
|
Peter Jespersen wrote:
> On Wed, 10 Jul 2002 16:21:58 +0300, Dennis Jakobsen wrote:
>>ja, det var fjollet at følge Intel der.. de skulle have startet med
>>SocketA med det samme.. men nu går de jo forhåbentlig egne veje i
>>fremtiden med Hammer.. (SocketB ? ;)
>
> Hvis de havde startet med sokkelA havde der været problemer med
> at få plads til cachen ... og de har ikke helt fulgt intel i
det har ikke været et problem førhen at placere den på bundkortet..
endda i nogle tilfælde i sokler, så du kunne opgradere din cache.. den
trend så jeg gerne udnyttet igen.. så du kan opgradere til 2mb 2ns
cache, hvis du havde råd!! :) MMMMmmmmmm...
> nyere tid, der indtil videre har taget denne rute (Xeon ikke
> taget med)
nej, gudskelov skifter de ikke antal pin numre for t-bird - palo - t-bred..
> Sokkel5->Sokkel7->Super
> sokkel7->Sokkel8(PPro)->Slot1->Sokkel370->Sokkel423->Sokkel478
noget i den stil..
> Allerede på forhånd blev det annonceret at Sokkel423 var
> midlertidigt....
ja, det var vel nok sødt af dem.. står det på skiltene i den lokale PC
butik?
> (Hvis jeg har glemt nogle så lad mig det vide....mener at der
> var en ekstra i forlængelse ag sokkel370).
jeg ville ikke være overrasket..
>>jaja, men nu er vi jo tilbage ved minoritet's grupperne igen.. givet
>>at de fleste efterhånden har købt ny computer og de er socket baseret,
>>men der er stadig en stor gruppe mennesker tilbage med slot baserede
>>bundkort der ikke føler sig nødsaget til en bundkort+ram+psu+cpu for at
>>opgradere sit grafik kort..
>
> Ved det....det er fx Pentium og Pentium-klasse processorer der
> er mest anvendt af OS/2 brugerne, for omkring to år siden var
> det i486'ere, har stadig både en IBM 6x86MX-300 og en K6-2
> 450Mhz i aktion. Men det betyder ikke at fabrikanterne skal
> smide alt de har i hænderne og fremstille enhder der er
> problematiske når de bliver sat i en "moderne" maskine.
> Nogle af de nye grafikkort kræver i forvejen direkte en BIOS
> opdatering....hvilket med en del af de gamle bundkort
> efterhånden kan blive et problem.
hmm.. jeg har ikke hørt om grafikkort der kræver en BIOS update.. men
nye cpu revisioner har jeg..
>>>>når det eneste de får er en hurtige AGP der stadig ikke bliver brugt til
>>>
>>>Nej - jeg tænker ikke AGPx4 (eller 8) men plads til hurtigere GFX kort...!
>>
>>øhh.. plads?
>
> Ja plads...jeg roder rundt med et ECS K7S6A og et Matrox G400,
> der er passivt kølet, det er lige med nød og næppe at det første
> PCI slot kan bruges, havde et stykke tid en Blue Orb på hvilket
> direkte afskar mig fra at bruge PCI-slottet.
> Og det er en udbredt tendens på markedet.....
ja, men der er plads? der er også trængt mellem mit TVkort og det ved
siden af.. fordi den store fede Tuner sidder derpå.. hvornår laver de
en digital tuner i en lille chip istedet for den store metal box?
>>>Hmm... Bli'r Hammer ikke lanceret med forskellige sockets afhængig af
>>>sledge- claw- osv.?
>>
>>jo, fordi SledgeHammer er en server chip med en anden onboard memory
>>controller.. dual 64bit DDR kontra single channel DDR mem controller på
>>Claw Hammeren.. der skal pins til en 64bit DDR mem controller.. og
>>dobbelt så mange til en 2x64bit DDR mem controller..
>
> Absolut....Intel har gjort nogenlunde det samme med Xeon....
næh.. de har deres mem controller i deres northbridge.. de har stadig
deres GTL+ bus fra det forrige århundrede.. sjovt de skifter sockets
hele tiden.. men den bus kan de sku ikke finde ud af at forbedre..
ok ok.. de har oppet den til 133Mhz QuadPumped.. det er jo givetvis et
firdobbelt spring.. men det er stadig et usselt design der skal deles
mellem alle processore forbundet til den northbridge..
>>korrekt.. gudskelov.. og jeg savnede også en Slocket til mit gamle
>>K7M.. men Athlon markedet var ikke særlig stort på det tidspunkt og det
>>blev vist kun til snak hos div. fabrikanter..
>>
>>som jeg sagde tidligere.. det var fjollet af AMD at følge Intel i Slot
>>arkitekturen..
>
> Yep dumt, men det var en nem løsning på cache problemet og
> backside cache var meget udbredt på det tidspunkt.
jep.. det havde også nogle andre bagdele med Dual bundkort.. at have en
processor til at stå lodret foran den anden, skaber et kæmpe varme
problem.. jeg havde på det tidspunkt 2x366mhz celeron's der hver kunne
køre 550mhz for sig selv.. køleren var knap lunken.. men når jeg satte
den anden i foran, så blev den bagerste brændvarm med det samme og crash
før jeg kunne starte windows..
der har socket arkitekturen frihed!! :)
men jeg tvivler på du begynder at se PCI slots vendt 90 grader!! ;)
| |
H3nrik V! [2670] (12-07-2002)
| Kommentar Fra : H3nrik V! [2670] |
Dato : 12-07-02 09:47 |
|
"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> wrote in message
news:agl8kj$f4j$1@phys-news1.kolumbus.fi...
> Peter Jespersen wrote:
> > Hvis de havde startet med sokkelA havde der været problemer med
> > at få plads til cachen ... og de har ikke helt fulgt intel i
>
> det har ikke været et problem førhen at placere den på bundkortet..
> endda i nogle tilfælde i sokler, så du kunne opgradere din cache.. den
> trend så jeg gerne udnyttet igen.. så du kan opgradere til 2mb 2ns
> cache, hvis du havde råd!! :) MMMMmmmmmm...
Hmm... Har cachen på MoBo nogensinde kørt hurtigere end FSB? Don't think
so... Og det var bl.a. derfor at Intel (og AMD) gik over til slot designet -
der kunne cachen monteres og køre ½ hastighed af processoren i stedet for 66
el. 100 MHz. Og så kan cahcen være 2 eller for den sags skyld 1ns. Sålænge
der kun overføres data til og fra den ved hjælp af FSB, såeh... Men dengang
var det jo 70ns RAM, så de 66MHz var knald-hamrende hurtigt...!
PPro var den første med hurtigere cache...!
> >>jaja, men nu er vi jo tilbage ved minoritet's grupperne igen.. givet
> >>at de fleste efterhånden har købt ny computer og de er socket baseret,
> >>men der er stadig en stor gruppe mennesker tilbage med slot baserede
> >>bundkort der ikke føler sig nødsaget til en bundkort+ram+psu+cpu for at
> >>opgradere sit grafik kort..
> >>>Nej - jeg tænker ikke AGPx4 (eller 8) men plads til hurtigere GFX
kort...!
> >>
> >>øhh.. plads?
> >
> > Ja plads...jeg roder rundt med et ECS K7S6A og et Matrox G400,
> > der er passivt kølet, det er lige med nød og næppe at det første
> > PCI slot kan bruges, havde et stykke tid en Blue Orb på hvilket
> > direkte afskar mig fra at bruge PCI-slottet.
> > Og det er en udbredt tendens på markedet.....
>
> ja, men der er plads? der er også trængt mellem mit TVkort og det ved
> siden af.. fordi den store fede Tuner sidder derpå.. hvornår laver de
> en digital tuner i en lille chip istedet for den store metal box?
Ligeså snart folk får leveret deres TV-signal digitalt... :)
Hvis du tænker på metalboksen, er den nok dikteret af telestyrelsen, P&T,
AT&T, you name it... En TV-tuner vil ALTID udsende og være modtagelig for
højfrekvent støj. Prøv at skille dit TV ad (på eget ansvar) og se dér... Der
sidder tuneren skam også i en metalboks... Kodeordet er EMI
(ElectroMotoricInterference)
> næh.. de har deres mem controller i deres northbridge.. de har stadig
> deres GTL+ bus fra det forrige århundrede.. sjovt de skifter sockets
> hele tiden.. men den bus kan de sku ikke finde ud af at forbedre..
Hmmm... Uden at skal spille alt for klog, så er der da ændret i bussen (i
hvert fald ht. spænding) i springet fra CuMine til Tualatin. Desuden er
AMD's EV6 bus da også fra forrige århundrede..!
> ok ok.. de har oppet den til 133Mhz QuadPumped.. det er jo givetvis et
> firdobbelt spring.. men det er stadig et usselt design der skal deles
> mellem alle processore forbundet til den northbridge..
Tror IKKE at den quadpumpede bus kører på GTL+ standarden. Der er trods alt
en helt anden form for timingproblemer...!
/H3nrik - som mener vi måske skulle ta' diskussionen i en anden gruppe?
| |
Peter Jespersen (13-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 13-07-02 01:05 |
|
On Fri, 12 Jul 2002 03:42:10 +0300, Dennis Jakobsen wrote:
>Peter Jespersen wrote:
>> On Wed, 10 Jul 2002 16:21:58 +0300, Dennis Jakobsen wrote:
>>>ja, det var fjollet at følge Intel der.. de skulle have startet med
>>>SocketA med det samme.. men nu går de jo forhåbentlig egne veje i
>>>fremtiden med Hammer.. (SocketB ? ;)
>>
>> Hvis de havde startet med sokkelA havde der været problemer med
>> at få plads til cachen ... og de har ikke helt fulgt intel i
>
>det har ikke været et problem førhen at placere den på bundkortet...
>endda i nogle tilfælde i sokler, så du kunne opgradere din cache.. den
>trend så jeg gerne udnyttet igen.. så du kan opgradere til 2mb 2ns
>cache, hvis du havde råd!! :) MMMMmmmmmm...
Fordelen ved onchip cache er at den kører med samme frekvens som processorens
kerne.
Ffordelen ved backside cache er at den oftest kører enten 1/2 eller 1/3 af
processorkernens frekvens og der er nærmest ubegrænset plads et udemærket
kompromis.
On mobo cache (Aner ikke hvad det hedder) fordelen er at det er billigt,
ydelsen er elendig.
>> nyere tid, der indtil videre har taget denne rute (Xeon ikke
>> taget med)
>
>nej, gudskelov skifter de ikke antal pin numre for t-bird - palo - t-bred..
>
>> Sokkel5->Sokkel7->Super
>> sokkel7->Sokkel8(PPro)->Slot1->Sokkel370->Sokkel423->Sokkel478
>
>noget i den stil..
>
>> Allerede på forhånd blev det annonceret at Sokkel423 var
>> midlertidigt....
>
>ja, det var vel nok sødt af dem.. står det på skiltene i den lokale PC
>butik?
Hmmm sarkasme...neeh-nej det har vi ikke brugt her siden 1982...
Pointen var at de allerede på forhånd havde annonceret at de bundkort som
folk købte ikke ville kunne bruges med næste generation af
processoren.....det er ganske uhørt.....
<snip>
>hmm.. jeg har ikke hørt om grafikkort der kræver en BIOS update.. men
>nye cpu revisioner har jeg..
GF4 er vist en af dem......
>>>>>når det eneste de får er en hurtige AGP der stadig ikke bliver brugt til
>>>>
>>>>Nej - jeg tænker ikke AGPx4 (eller 8) men plads til hurtigere GFX kort...!
>>>
>>>øhh.. plads?
>>
>> Ja plads...jeg roder rundt med et ECS K7S6A og et Matrox G400,
>> der er passivt kølet, det er lige med nød og næppe at det første
>> PCI slot kan bruges, havde et stykke tid en Blue Orb på hvilket
>> direkte afskar mig fra at bruge PCI-slottet.
>> Og det er en udbredt tendens på markedet.....
>
>ja, men der er plads? der er også trængt mellem mit TVkort og det ved
>siden af.. fordi den store fede Tuner sidder derpå.. hvornår laver de
>en digital tuner i en lille chip istedet for den store metal box?
Ja, der er lige plads, når jeg benytter mit G400 med passiv køling.....hvis
jeg smed et G400MAX i, der har aktiv køling ville jeg ikke kunne bruge
soklen.
Støj vs metalæske er vist taget op andetsteds i tråden...
<snip>
>> Absolut....Intel har gjort nogenlunde det samme med Xeon....
>
>næh.. de har deres mem controller i deres northbridge.. de har stadig
>deres GTL+ bus fra det forrige århundrede.. sjovt de skifter sockets
>hele tiden.. men den bus kan de sku ikke finde ud af at forbedre..
>
>ok ok.. de har oppet den til 133Mhz QuadPumped.. det er jo givetvis et
>firdobbelt spring.. men det er stadig et usselt design der skal deles
>mellem alle processore forbundet til den northbridge..
AFAIR lagde de ud med Slot2 til Xeon og derefter var Sokkel423, som PIV'en
brugte ikke fin nok......det var den del jeg mente....server processoren
benytter egen sokkel, grunden til at den benytter soklen blev ikke
nævnt....eller skulle ikke være nævnt.
<snip>
>jep.. det havde også nogle andre bagdele med Dual bundkort.. at have en
>processor til at stå lodret foran den anden, skaber et kæmpe varme
>problem.. jeg havde på det tidspunkt 2x366mhz celeron's der hver kunne
>køre 550mhz for sig selv.. køleren var knap lunken.. men når jeg satte
>den anden i foran, så blev den bagerste brændvarm med det samme og crash
>før jeg kunne starte windows..
>
>der har socket arkitekturen frihed!! :)
Vel SUN benytter også slot-princippet i nogle af deres maskiner, AFAIR
placeres begge processorer på det samme print....
>men jeg tvivler på du begynder at se PCI slots vendt 90 grader!! ;)
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
Programming is like sex: one mistake and you support it for life.
| |
H3nrik V! [2670] (14-07-2002)
| Kommentar Fra : H3nrik V! [2670] |
Dato : 14-07-02 12:18 |
|
"Peter Jespersen" <flywheel@illogical.dk> wrote in message
news:syljurryvyybtvpnyqx.gz66123.pminews@news.tele.dk...
>>det har ikke været et problem førhen at placere den på bundkortet..
>>endda i nogle tilfælde i sokler, så du kunne opgradere din cache.. den
>>trend så jeg gerne udnyttet igen.. så du kan opgradere til 2mb 2ns
>>cache, hvis du havde råd!! :) MMMMmmmmmm...
>Fordelen ved onchip cache er at den kører med samme frekvens som
processorens
>kerne.
>Ffordelen ved backside cache er at den oftest kører enten 1/2 eller 1/3 af
>processorkernens frekvens og der er nærmest ubegrænset plads et udemærket
>kompromis.
Ja - hvis de laver større cache når den bliver langsommere... Jeg husker jo
SlotA Athlon'erne... Mener at det var ved 800 MHz at L2 cache multiplieren
skiftede fra 1/2 til 2/5, så en 800 faktsik performede ringere end en
750'er...
>On mobo cache (Aner ikke hvad det hedder) fordelen er at det er billigt,
>ydelsen er elendig.
Hedder vel frontside cache - kører på frontside bussen, men er egentlig ikke
interessant i dag---!
/H3nrik!
| |
Lars B. Jensen (08-07-2002)
| Kommentar Fra : Lars B. Jensen |
Dato : 08-07-02 13:42 |
|
"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
news:ag9mm0$c28$1@phys-news1.kolumbus.fi...
> Hans wrote:
> > Flyttes GSP'en om på oversiden af grafikkortet får vi langt mere plads
til
> > en effektiv, ikke støjende køling, men fordelen er også at varmen vil
blive
> > bortledt i en naturlig opadgående retning. Bortledning af denne varme er
>
> naturlig opadgående? det kommer vel an på hvordan dit kabinet vender?
> Dennis
Ja, varm luft stiger til vejrs... og så kan du vende dit kabinet som du
vil...
--
Mvh
Lars B. Jensen
http://www.zulfo.dk http://www.sheewaklub.dk
| |
Dennis Jakobsen (08-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 08-07-02 18:09 |
|
Lars B. Jensen wrote:
>>>bortledt i en naturlig opadgående retning. Bortledning af denne varme er
>>
>>naturlig opadgående? det kommer vel an på hvordan dit kabinet vender?
>
>
> Ja, varm luft stiger til vejrs... og så kan du vende dit kabinet som du
> vil...
lol.. sorry.. det var en forkert beskrivelse af problemet.. det jeg
mente var at hvis du har et horizontalt kabinet (et der ligger ned) så
nytter det jo ikke meget at putte chippen på den anden side.. :)
men du vidste jo godt hvad jeg mente!! :)
| |
Lars B. Jensen (09-07-2002)
| Kommentar Fra : Lars B. Jensen |
Dato : 09-07-02 11:57 |
|
"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
news:agcguf$375$2@phys-news1.kolumbus.fi...
> Lars B. Jensen wrote:
> >>>bortledt i en naturlig opadgående retning. Bortledning af denne varme
er
> >>
> >>naturlig opadgående? det kommer vel an på hvordan dit kabinet vender?
> >
> > Ja, varm luft stiger til vejrs... og så kan du vende dit kabinet som du
> > vil...
>
> lol.. sorry.. det var en forkert beskrivelse af problemet.. det jeg
> mente var at hvis du har et horizontalt kabinet (et der ligger ned) så
> nytter det jo ikke meget at putte chippen på den anden side.. :)
>
> men du vidste jo godt hvad jeg mente!! :)
Jada, men det er nemmere at forstå folk når de skriver hvad de mener :)
--
Mvh
Lars B. Jensen
http://www.zulfo.dk http://www.sheewaklub.dk
| |
Peter Jespersen (11-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 11-07-02 19:24 |
|
On Tue, 9 Jul 2002 12:57:08 +0200, Lars B. Jensen wrote:
>"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
>news:agcguf$375$2@phys-news1.kolumbus.fi...
>> Lars B. Jensen wrote:
>> >>>bortledt i en naturlig opadgående retning. Bortledning af denne varme
>er
>> >>
>> >>naturlig opadgående? det kommer vel an på hvordan dit kabinet vender?
>> >
>> > Ja, varm luft stiger til vejrs... og så kan du vende dit kabinet som du
>> > vil...
>>
>> lol.. sorry.. det var en forkert beskrivelse af problemet.. det jeg
>> mente var at hvis du har et horizontalt kabinet (et der ligger ned) så
>> nytter det jo ikke meget at putte chippen på den anden side.. :)
>>
>> men du vidste jo godt hvad jeg mente!! :)
>
>Jada, men det er nemmere at forstå folk når de skriver hvad de mener :)
Er der ikke stadig nogle harddiske der har problem med at stå op
??
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
(A)bort, (R)etry, (P)retend this never happened.
| |
Dennis Jakobsen (12-07-2002)
| Kommentar Fra : Dennis Jakobsen |
Dato : 12-07-02 01:43 |
|
Peter Jespersen wrote:
> On Tue, 9 Jul 2002 12:57:08 +0200, Lars B. Jensen wrote:
>
>
>>"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
>>news:agcguf$375$2@phys-news1.kolumbus.fi...
>>
>>>Lars B. Jensen wrote:
>>>
>>>>>>bortledt i en naturlig opadgående retning. Bortledning af denne varme
>>>>>
>>er
>>
>>>>>naturlig opadgående? det kommer vel an på hvordan dit kabinet vender?
>>>>
>>>>Ja, varm luft stiger til vejrs... og så kan du vende dit kabinet som du
>>>>vil...
>>>
>>>lol.. sorry.. det var en forkert beskrivelse af problemet.. det jeg
>>>mente var at hvis du har et horizontalt kabinet (et der ligger ned) så
>>>nytter det jo ikke meget at putte chippen på den anden side.. :)
>>>
>>>men du vidste jo godt hvad jeg mente!! :)
>>
>>Jada, men det er nemmere at forstå folk når de skriver hvad de mener :)
>
> Er der ikke stadig nogle harddiske der har problem med at stå op
> ??
ved ikke, men vi har 3-4 diskussioner kørende i den samme tråd.. :)
| |
Peter Jespersen (13-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 13-07-02 00:51 |
|
On Fri, 12 Jul 2002 03:43:00 +0300, Dennis Jakobsen wrote:
>Peter Jespersen wrote:
>> On Tue, 9 Jul 2002 12:57:08 +0200, Lars B. Jensen wrote:
>>
>>
>>>"Dennis Jakobsen" <brunis@[REM-SPAM]kolumbus.fi> skrev i en meddelelse
>>>news:agcguf$375$2@phys-news1.kolumbus.fi...
>>>
>>>>Lars B. Jensen wrote:
>>>>
>>>>>>>bortledt i en naturlig opadgående retning. Bortledning af denne varme
>>>>>>
>>>er
>>>
>>>>>>naturlig opadgående? det kommer vel an på hvordan dit kabinet vender?
>>>>>
>>>>>Ja, varm luft stiger til vejrs... og så kan du vende dit kabinet som du
>>>>>vil...
>>>>
>>>>lol.. sorry.. det var en forkert beskrivelse af problemet.. det jeg
>>>>mente var at hvis du har et horizontalt kabinet (et der ligger ned) så
>>>>nytter det jo ikke meget at putte chippen på den anden side.. :)
>>>>
>>>>men du vidste jo godt hvad jeg mente!! :)
>>>
>>>Jada, men det er nemmere at forstå folk når de skriver hvad de mener :)
>>
>> Er der ikke stadig nogle harddiske der har problem med at stå op
>> ??
>
>ved ikke, men vi har 3-4 diskussioner kørende i den samme tråd.. :)
Ja ret godt
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
Bang on the LEFT side of your computer to restart Windows.
| |
Peter Jespersen (07-07-2002)
| Kommentar Fra : Peter Jespersen |
Dato : 07-07-02 20:28 |
|
On Sat, 6 Jul 2002 18:11:46 +0200, Hans wrote:
<snip>
>Er det bare mig som undres over denne indlysende fejlplacering, eller er vi
>mange?
Nej, det er ikke bare dig - især nu hvor det efterhånden er
ganske almindeligt at montere hukommelseskreds på bagsiden af
printet, på de dyre kort.
Live long and prosper...
_________________________________________________________________
Peter Jespersen, Member of Team OS/2 Denmark, Linux User #221493
flywheel@illogical.dk
http://www.illogical.dk
Actually, it is my ovn hair. - (G. Jones)
| |
123qwe (11-07-2002)
| Kommentar Fra : 123qwe |
Dato : 11-07-02 20:33 |
|
HØRT MANDEN HAR SQ RET :)
"Hans" <fast@2night.d.k> wrote in message
news:3d2716c2$0$16805$edfadb0f@dspool01.news.tele.dk...
> Jeg har prøvet at rette henvendelse til et par af de store producenter af
> grafikkort med en idé jeg garanteret ikke er ene om, men har ingen respons
> fået overhovedet, så derfor kunne jeg godt tænke mig at få nogle
> tilkendegivelser fra jer brugere af dagens grafikkort.
>
> Efter min mening er producenterne med til at fastholde os alle med
> problematikken omkring effektiv køling af de hurtige grafikkort, da de
> vedbliver med at montere GSP'en på den "forkerte" side af printet.
>
> Komponenterne på et AGP-kort vender som bekendt nedaf i et mini- midi
eller
> maxi towerkabinet, og derved bliver varmen fra GSP'en hængende under
kortet,
> hvilket stiller yderligere krav til køling af chippen. Ydermere er der
meget
> lidt plads mellem AGP og PCI-slot 1, hvis dette skal bruges, så problemet
er
> reelt nok.
>
> Kigger vi ind i vores maskine må vi konstatere at der er masser af
ubenyttet
> plads på oversiden af AGP-kortet, da der er langt over til cpu-køleren.
> Flyttes GSP'en om på oversiden af grafikkortet får vi langt mere plads til
> en effektiv, ikke støjende køling, men fordelen er også at varmen vil
blive
> bortledt i en naturlig opadgående retning. Bortledning af denne varme er
> ikke noget problem i et moderne kabinet, da der er mulighed for at montere
> en kabinetblæser eller flere under strømforsyningen.
>
> Er det bare mig som undres over denne indlysende fejlplacering, eller er
vi
> mange?
>
> mvh, Hans
>
>
>
>
>
| |
|
|