mi chiedevo ma dovessi mettere un nvidia e invece che farci lavorare boinc mettere il F@H posso farlo? cioè boinc gli si può dire non usarla?
mi chiedevo ma dovessi mettere un nvidia e invece che farci lavorare boinc mettere il F@H posso farlo? cioè boinc gli si può dire non usarla?
m'ha scaricato una WU, c'ha scaccolato 2 giorni sballandomi il GPU time... in pratica incrementava i secondi ogni 2-3 secondi effettivi, quindi non so dire con precisione quanto sia durata (credo dipenda dai drivers nvidia per linux)...
crediti ne ho fatti 3700 , di sicuro più di quanti ne faccio in 3 giorni col quad... ora però non mi scarica più WU's, non capisco il perchè
per quanto riguarda la fluidità, GPUGRID su linux pesa parecchio... i fattori in gioco sono tanti, il mio kernel, le impostazioni etc... quindi non faccio molto testo...
@blue_tech: basta non aggiungere progetti che facciano uso specifico della GPU, in seguito poi usciranno le impostazioni dettagliate per le GPUs...
BOINC indica il CPU Time (GPU Time davvero?) che è diverso dal tempo che elabora la scheda video quindi il numero conta poco
Per l'uso della scheda video, nelle preferenze sul sito puoi decidere se sfruttarla o meno per quel progetto
E non ti scarica più WU perchè ne hai già altre di altri progetti...è vero che quella verrebbe elaborata dalla GPU ma per BOINC sono tutte uguali le WU
Io ho scaccolato due WU da 2500 crediti, il cpu time è stato 1440 sec circa mentre per vedere il tempo reale di elaborazione bisogna andare nei dettagli del Task ID, che traducendo in ore era di circa 8 ore.
Pare pesare cmq più del Folding@Home infatti mi faceva scattare i video con Windows Media Player..mentre mi guardavo lost l'ho dovuto spegnere e ho fatto andare il F@H.
Non ho provato l'interazione F@H/GPUGRID, proverò.
Non ho provato a giocare, in questo weekend lo farò.
A riaggiornarci..
-Incoming ATI-
Presto, su questi schermi!!!
oh yeah ho una 4850 da mettere sotto...
ATI
Il progetto Mylkyway@Home ha ora un client per sfruttare le ATI, non tutte eh, le 3xxx e 4xxx ma non tutte (la 4670 no al momento per esempio), insomma, quelle col chip R670 in su (più o meno appunto)
E' richiesto windows a 64bit (il che mi esclude direttamente...), driver aggiornati e BOINC aggiornato.
Ecco il thread ufficiale sul forum
http://milkyway.cs.rpi.edu/milkyway/...ead.php?id=589
Il client non è stato fatto dai tipi di milkyway ma dai tipi di Planet3d Now, che son dei tedeschi (quindi se cercate maggiori info sul loro forum... studiate il tedesco)
In sostanza si tratta di fare come per le applicazioni ottimizzate di SETI, scarica il pacco e mettilo al posto giusto (ovvero nella cartella di milkyway, dove ci sono i suoi exe), poi avviate BOINC e MAGIA, le WU verranno elaborate dalla scheda
Velocità? Allora, pare ci vogliano 9sec con una 4870 e 20sec con una 3870 per finire una WU
E i crediti? A parte che milkyway e i crediti sono una storia a se, comunque, per causa del loro strano sistema di crediti....beh, non si faranno più punti -.-' Cioè, essendo la WU fatta in meno tempo, dà meno crediti Non chiedetemi perchè, secondo me un flame sul loro forum aiuterebbe a sistemare il problema, ma tant'è...
MOLTO interessante in quel topic il post dello sviluppatore dove a un certo punto dice che in sostanza le ATI sono meglio delle NVIDIA, alla faccia di Folding@Home
No, the general programming principle is quite similar for ATI and nvidia. There are of course some differences how to obtain maximum performance, but luckily some of them apply only to single precision (ATI cards like vectorization, which is not required for nvidia).Is the code very different from the CUDA equivalent? And would a CUDA conversion be worth it? (I heard the GTX280 is much better at double precision operations than earlier cards, but it sounds like even it is outmatched by current offerings by AMD)
I really think a CUDA app would be easier to implement (their software developement kit is simply better), but with a GTX280 not able to reach the performance of a HD3850 in double precision, I don't know if it is really worth the effort. The current generation ATI hardware (RV770) has a factor 3 performance advantage over the GT200 GPUs from nvidia.
nvidia made a lot of fuss about the double precision units in the GT200 (GTX2xx cards), but frankly they are quite a design flaw from the performance point of view (at least when doing pure double precision calculations). They have 240 high clocked single precision units, but only 30 double precision units (which can do even less per clock than the single units). The result is that the performance with doubles is only 1/12 of the performance with singles.
On the other hand ATI has incorporated 160 5-issue VLIW units (doing up to five operations on singles). If you want to calculate with doubles, either two or four of the five 32bit subunits are combined. That means such a VLIW unit is able to produces one or two double results per clock (the 5th subunit can still be used for other things).
So effectively a RV770 is able to churn out between 160 and 320 double results per clock cycle (dividing the single throughput by 5, for adds actually only by 2.5), nvidia is only able to do 30. The higher clock of the nvidia shaders won't help with the massive advantage ATI has on the number of double capable units as they use the same ones for singles and doubles.
The GPU part of the MW code does close to 150 GFlop per second on a HD4870. Averaged over the whole runtime (a little bit is still calculated on the CPU and you have some overhead, like transfering data to the GPU and so on) it is more than 130 GFlop/s. The theoretical peak performance of a GTX280 is only 78 GFlop/s with doubles. I wouldn't expect more than 50 GFlop/s from a GTX280 on the MW code. So maybe a triple SLI system is as fast as a single HD4870. And a high clocked Core i7 also does already about 35 GFlop/s (~61 GFlop/s Peak at 3.8GHz).
Ecco il link all'ultima applicazione
http://www.file-upload.net/download-...3_x64.zip.html
Il tutto ve lo dico è ancora in alpha inoltrata, nemmeno beta, nè tantomeno release candidate, però boh, pare funzioni...
Cmq, GPUGRID mi fa scattare perfino l'interfaccia aero di vista, oltre ai filmati e ovviamente anche i giochi (ho provato con dead space). Sotto questo punto di vista F@H è molto meno invasivo.
Bene, chiudi AERO, tanto è inutile
Folding è più avanti questo è indubbio... ma non ci possiam far niente
più che chiudere aero mi sa che chiuderò con gpugrid..non posso sospendere ogni qual volta lancio un video!
adesso lo tengo un po' in prova, poi torno sul folding@home.
Te che puoi (vero che hai winzozz 64bit?), prova
Domani la metto alla frusta
magari prima monto il wb
copio-incollo il robo delle ATI nella guida
Dovrei chiedere se hanno in progetto un client 32bit o se proprio non è possibile...
E te com'è che hai la scheda senza wb montato? Fino ad oggi andava no? Al lavoro!
Cmq quoto dtpancio, Folding sia per nvidia che ATI è assai più sviluppato
certo che 10mila crediti con 4 WUs
E un pc da 40.000RAC....
Provato, una tristezza rispetto al gpu@home.
10 secondi in media per wu, ma solo un (1) credito... in più viene sospesa l'elaborazione cpu e il sistema rallenta pesantemente.
Si, le WU cortissime si sapeva, è il sistema di crediti che fa TOTALMENTE schifo
Non solo milkyway dà molti più crediti rispetto agli altri progetti......... no, adotta pure un sistema che dà punti in base a boh, non si sa cosa... meglio che vado a flammare un pò sul loro forum, tanto, peggio di così...
Sospende l'elaborazione CPU degli altri progetti? Uhm...
Cmq ripeto
1)Il client NON è ufficiale ma è stato sviluppato allegramente dai tipi di planet3d (però funziona quindi...)
2)E' in alpha inoltrata-->magari il prox anno si potrà discuterne degnamente
1 credito per WU invece no non va bene Se la elaboravi con la CPU ci mettevi di più ma pagava di più, il semplice concetto di "tot crediti per WU" non gli entra in testa eh? Asp che vado a ficcarglielo io
Non sarebbe neanche tanto male, il problema è che il pc si comporta come un sistema di 5-6 fa anni sotto prime95.
Probabilmente la cosa è dovuta al fatto che la scheda elabora 8-10 wu in parallelo con una priorità molto alta.
Lol ne fa così tante in contemporanea? Ho visto il video però...vederlo dal vero dev'essere una cosa bellissima! Ehm ok WU da 10sec sono ridicole però lol... si cmq mi sa che è per quello ciclandole velocemente ti ammazza le prestazioni
Presto BOINC supporterà anche le GPU Ati
Era ora :V
Ho "scoperto" di avere una scheda video che dovrebbe supportare il GPUGRID (GeForce 8500 GT - 256M - 16 shader units - comprata di quella fascia apposta per tenere basso il prezzo totale del quad ). Mi sono unito al TGM Team, ovviamente, ma le wu che scarico finiscono tutte dopo 3 secondi in "Computation error". Il problema, guardando nel log dei messaggi, è:
3/2/2009 1:23:31 PM|GPUGRID|Output file R21837-SH2_US_2-25-40-SH2_US_2250000_1_1 for task R21837-SH2_US_2-25-40-SH2_US_2250000_1 absent
Perché? La scheda in teoria supporta il progetto ma in pratica non ce la fa?
Nel task, visto nel sito, c'è scritto:
<core_client_version>6.4.5</core_client_version>
<![CDATA[
<message>
Funzione non corretta. (0x1) - exit code 1 (0x1)
</message>
<stderr_txt>
Failed to set low-cpu sync mode
# Using CUDA device 0
# Device 0: "GeForce 8500 GT"
# Clock rate: 918000 kilohertz
# Total amount of global memory: 268107776 bytes
# Number of multiprocessors: 16
# Number of cores: 128
Cuda error in file '..\force/vdw_texture.cu' in line 186 : feature is not yet implemented.
</stderr_txt>
]]>
Aggiunta: "sfortunatamente" i driver sono aggiornati, quindi non può essere quello il problema.
Ultima modifica di showa; 02-03-09 alle 14:10:56
eh ti stavo per dire i drivers..ma se li hai aggiornati..se vuoi provare a dare il contributo (in alternativa a prendere la mia bella e performante scheda..) prova con il Folding@Home..
No no, alla tua scheda ci mirerei... boh, forse proverò col Folding@Home.
Hai idea di cosa potrebbe essere?