Capisco che il mio PC scaccola ed anche parecchio...ma arrivare ad ottenere una WU da 159:30:38 con una deadline da 1 mese mi pare un po' esagerato...
In compenso credo però che riuscirò ad ottenere un punteggio micidiale!
Visualizzazione Stampabile
Capisco che il mio PC scaccola ed anche parecchio...ma arrivare ad ottenere una WU da 159:30:38 con una deadline da 1 mese mi pare un po' esagerato...
In compenso credo però che riuscirò ad ottenere un punteggio micidiale!
Anche se non compaiono nella mia firma, ho finalmente ottenuto i primi punti per Gpugrid. Ho risolto infatti il problema di alimentazione della 9800 GTX.
Completate 2 Wu, di cui una compute error (figurati...).
Ottimo! :ok: qual'era il problema poi? beh ora che va tutto possiamo procedere ad alzare un po' le frequenze! :D
@Firestorm: dove hai presto questi dati? a me risulta cmq che al folding@home le nvidia rullano molto di più delle ati. per dire la mia ex 9800gtx fa il doppio dei crediti della HD4850 di sticky..
non fare così dai..:consola:
no cmq, credo che i PPD erano in quell'ordine. quasi 6000 per la gtx e sui 3x00 per la HD4850.
la gtx 260 costa tanto come un'HD4870 ma va meglio..
gabi lo sappiamo che sei un fanboy ati..:bua: :rotolul:
dalle recensioni di tomshw di solito sono molto precisi...
In ogni caso la potenza di calcolo pura è una cosa il modo in cui viene usata è tutt'altro discorso tra driver grezzi linguaggio di programmazione molto più complesso del CUDA che per quel che ho visto è molto simile al C++ (infatti priam si chiamava C++ for graphics) e cose che chairamente non pubblicizzano rispetto alla sola potenza bruta il vantaggio te lo puoi giocare facile...
in più se non sbgalio folding ha comincaito con Nvidia quindi l'ottimizzazione potrebbe essere maggiore oppure usare la singola precisione
Sbagli e tanto :sisi:
Folding ha iniziato con le ATI serie 1xxx con un client DirectX... si, directx, non chiedetemi come avessero convinto le directx a produrre dati scientifici ma ce l'avevan fatta :asd: Pare che abbian programmato tutto in fortran per mesi e mesi... più o meno funzionava
E questo era il client GPU1
Poi han fatto il nuovo client per le ATI serie 2xxx e 3xxx (successivamente, quando sono uscite, anche le 4xxx ovviamente) che usano il CAL e, dopo parecchi mesi, il client Nvidia con CUDA per tutte le nvidia dalla serie 8 in poi :sisi:
allora per la parte dell'ottimizzazione sbaglio ma il CUDA è mille volte avanti rispetto al brook delle ATI...
Eh e ripetilo pure :bua:
Cmq coi driver 9.3 e i nuovi core vedrai che la situazione si ribalterà!
i cataclysm 9.3 sono già usciti
per fare paragoni cmq, bisogna che un progetto assegni la stessa wu ad entrambe le schede. questo succede già in qlc ambito?
Si ma non sono ancora usciti i core nuovi (eh ma tanto siamo messi male lo stesso)
Io dico solo che il linguaggio di rogrammazione per le Nvidia è molto superiore non che le schede lo siano, ci mancherebbe altro la priam versioen del C++ for graphics è del 2003 la prima di Ati stream o come si chiamava è del 2007 hanno 4 anni di esperienza in più ci mancherebbe...in più ATI usa un linguaggio confezionato dall'università di stanford il brook appunto mentre Nvidia lo ha sviluppato apposta percui a livello di ottimizzazione è per forza superiore per il resto...
O Crysis :asd:
pure con crysis si piantano i driver? :rotfl:
ma c'è qualcosa con cui le ati vadano senza crashare?
No asp a me non si piantano MAI eh (ok forse quella volta con milkyway, ma col sistema che risponde dopo un secondo causa client in alpha acerba, era il problema minore)
Non so cosa facciate voi alle vostre schede
Ma con Crysis, manco skynet farà più di 20fps con settaggi very high
eccolo!
IL MILIONE!! :evvai::evvai::evvai::evvai:
:rullezza:
e tra 10gg facciamo 10 milioni!