A che risoluzione e con che filtri?Cmq Call of Juarez è un gioco pesantissimo di suo, ben più pesante di Oblivion, e questo la dice lunga...cioè, già il motore era poco ottimizzato, se ci aggiungiamo magari anche le DX10...io l'ho rigiocato un mese fa con la 8800GTS occata a manetta (che equivale a una GTX a default come pretazioni) e avevo cmq dei cali a 25 FPS, meno pesanti che con la X1900 ma cmq c'erano, mentre di media andavo non oltre i 40.
http://www.vr-zone.com/?i=4983
ma lol!
Ridicolo.
A questo punto nvidia potrebbe benissimo inviare una email a tutti gli sviluppatori scrivendo:
"I test effettuati nella giornata di ieri, 14 maggio 2007, con il benchmark call of juarez dx10 specificatamente sviluppato per trarre il meglio dai prodotti AMD, malgrado abbiano dimostrato che le nostre schede dx10 fanno morire di iNVIDIA le attuali amd hd2900xt, non sono da ritenersi validi perchè i driver non sono ancora ottimizzati per il suddetto prodotto software. Attendete la prossima release di driver per verificare che possiamo spaccargli definitivamente il C..o."
AMD fa ridere, soprattutto in considerazione del fatto che si sta comportando allo stesso modo nei confronti dei processori intel. E mi spiace, perchè si rendono bambocci davanti al pubblico più attento. Spero ritornino i bei tempi in cui intel e amd si superavano a vicenda e nvidia e ati se la giocavano a suon di frames al secondo.
Ultima modifica di Harry_Lime; 15-05-07 alle 18:41:13
Parole sante! Condivido in pienoAMD fa ridere, soprattutto in considerazione del fatto che si sta comportando allo stesso modo nei confronti dei processori intel. E mi spiace, perchè si rendono bambocci davanti al pubblico più attento. Spero ritornino i bei tempi in cui intel e ati si superavano a vicenda e nvidia e amd se la giocavano a suon di frames al secondo.
Praticamente si è già capito come andrà lost planet
Stavolta amd è decisamente indietro su tutta la linea
Adesso cresce la paura che anche i K10 non siano all'altezza della situazione...
Io son fiducioso. E' normalissimo che con nuove tecnologie ogni tanto capiti qualche intoppo. L'importante è capire dov'è l'errore e riprendere la corsa, cercando di non commetterlo più. Non credo che AMD ora faccia solo cavolate. Un po' di fiducia ci vuole
Ricordiamo la serie fx nvidia
Mi spiegate l'ultima? Che roba è?
Le mie stesse schede!!!!
Scuasate uan cosa, ma la demo di Call of Juarez in dx10 nn è stata sviluppata con amd???
Se si, renderebbe ancora più pietose le dichiarazioni che hanno rilasciato....
Io ho visto su www.theinquirer.net dei test in cui la R600 rimaneva stabile nei framerate anche a risoluzioni allucinanti (2500x1600), mentre la g80 calava (ma non troppo) tuttavia ad altissime risoluzioni i giochi con piu' shader premiavano la ati. Contando che si stanno usando driver 8.37 non ottimizzati (gli 8.38 ce li hanno alcuni smanettoni su internet e dicono prestazioni 10/30% migliori) e che stranamente piu' shader si usano e meglio vanno, non vorrei che davvero sia un problema solo driver, e che con una smussatina le HD2900XT diventino schede ottime anche con i futuri giochi DX10, e comunque i DX9 con tanti shader.
C'e' da pensare che forse a forza bruta vince la nvidia, ma a shader vince la ati.
Guardate i test sui vertex shader poi...
Una specie di 1800xt versione 2 con iniziali problemi per poi diventare una scheda ottima e tuttora capace di fare call of juharez a 1600x1200 con tutto a palla e 30/40 frame al secondo di media.
Secondo me e' tutta questione di driver troppo immaturi per fare paragoni. Cioe' la 600 mena a 2500x1600 ma si fa' battere a 1600x1200. Se questo non e' male ottimizzazione driver...(guardate Splinter cell double agent a quella risoluzione)
Ultima modifica di King_Of_Pilots; 15-05-07 alle 21:59:02
si ma cio' non scusa l'eccessiva rumorosità ed i consumi da space shuttle di questa scheda..Io ho visto su www.theinquirer.net dei test in cui la R600 rimaneva stabile nei framerate anche a risoluzioni allucinanti (2500x1600), mentre la g80 calava (ma non troppo) tuttavia ad altissime risoluzioni i giochi con piu' shader premiavano la ati. Contando che si stanno usando driver 8.37 non ottimizzati (gli 8.38 ce li hanno alcuni smanettoni su internet e dicono prestazioni 10/30% migliori) e che stranamente piu' shader si usano e meglio vanno, non vorrei che davvero sia un problema solo driver, e che con una smussatina le HD2900XT diventino schede ottime anche con i futuri giochi DX10, e comunque i DX9 con tanti shader.
C'e' da pensare che forse a forza bruta vince la nvidia, ma a shader vince la ati.
Guardate i test sui vertex shader poi...
Una specie di 1800xt versione 2 con iniziali problemi per poi diventare una scheda ottima e tuttora capace di fare call of juharez a 1600x1200 con tutto a palla e 30/40 frame al secondo di media.
Secondo me e' tutta questione di driver troppo immaturi per fare paragoni. Cioe' la 600 mena a 2500x1600 ma si fa' battere a 1600x1200. Se questo non e' male ottimizzazione driver...(guardate Splinter cell double agent a quella risoluzione)
Secondo me è solo questione di essere fanboy oppure no.Io ho visto su www.theinquirer.net dei test in cui la R600 rimaneva stabile nei framerate anche a risoluzioni allucinanti (2500x1600), mentre la g80 calava (ma non troppo) tuttavia ad altissime risoluzioni i giochi con piu' shader premiavano la ati. Contando che si stanno usando driver 8.37 non ottimizzati (gli 8.38 ce li hanno alcuni smanettoni su internet e dicono prestazioni 10/30% migliori) e che stranamente piu' shader si usano e meglio vanno, non vorrei che davvero sia un problema solo driver, e che con una smussatina le HD2900XT diventino schede ottime anche con i futuri giochi DX10, e comunque i DX9 con tanti shader.
C'e' da pensare che forse a forza bruta vince la nvidia, ma a shader vince la ati.
Guardate i test sui vertex shader poi...
Una specie di 1800xt versione 2 con iniziali problemi per poi diventare una scheda ottima e tuttora capace di fare call of juharez a 1600x1200 con tutto a palla e 30/40 frame al secondo di media.
Secondo me e' tutta questione di driver troppo immaturi per fare paragoni. Cioe' la 600 mena a 2500x1600 ma si fa' battere a 1600x1200. Se questo non e' male ottimizzazione driver...(guardate Splinter cell double agent a quella risoluzione)
Consumi esagerati malgrado il processo produttivo è a 80nm contro i 90 di nvidia, bus a 512bir contro i 384 di nvidia e non ce la fa lo stesso.
I test parlano chiaro. Driver beta o no, anche nvidia ha i suoi driver da ottimizzare.
La ATI non mi sta piacendo nemmeno con i driver. Da quando è uscito Vista Nvidia ne fa uscire uno a settimana mentre la ATI a dir tanto uno al mese. Ma entrambi non hanno comunque ancora risolto il problema del vsync.
Io me lo sentivo già da un pezzo che le prime VGA DX10 sarebbero state "sufficienti" solo per i primi giochi DX10 , anzi quelle di medio livello se la vedono brutta anche in DX9
Urge nuova potenza, senza scaldare e consumare all'inverosimile però
bah, e pensare che UT3 in DX9 mi sembra meglio di CoJ in DX10
Articolo di Tom's Hardware Italia con prova in CrossFire vs SLI
http://www.tomshw.it/graphic.php?guide=20070516