Klávesové zkratky na tomto webu - základní
Přeskočit hlavičku portálu

Diskuse k článku

Larrabee prý pětkrát výkonnější než GeForce GTX 280

Dvě miliardy tranzistorů, čtyřiašedesát jader, to je chystaný zázrak na grafiku, procesor Larrabee od Intelu.

Upozornění

Litujeme, ale tato diskuse byla uzavřena a již do ní nelze vkládat nové příspěvky.
Děkujeme za pochopení.

Zobrazit příspěvky: Všechny podle vláken Všechny podle času

Pavel

Re:

Nesmysl. 64 (jednoduchých s grafickými funkcemi) x86 jader na 2GHz nemůže mít vyšší výkon než ~250+ (specializovaných grafických) jader na 1 GHz. Nevím odkud ty informace Techradar sehnal (nic podobného netvrdí mimochodem ani Intel sám, ti spíš mluví o 10x zvýšení výkonu oproti jejich současným jádrům, což je stále méně, než kde je dnes nVidia a AMD).

Intel bude moc rád, když bude mít v první generaci rozumný produkt pro integrované sady a AMD/nVidia ho neztrapní svými mid-range chipy. Pokud tedy budou mít drivery na to, aby se dala většina současných aplikací vůbec spustit.

Na druhou stranu, i to stačí, aby se Intel na trhu grafických karet aspoň trochu etabloval a mohl navázat budoucími lepšími produkty. A možná přesvědčit vývojáře i o tom real-time ray-tracingu.

Larabee je dlouhodobý projekt.

0/0
6.10.2008 0:31

Re: Re:

Tím bych si nebyl jist. 32 jádrové Larrabee na 2GHz má mít teoretický výkon 2TFlops (32 jader * 2GHz * 16 složkové vektory * 2 instrukce za takt). GeForce GTX 280 má necelý 1TFLOPs a Radeon HD 4870 tuším 1,2TFLOPs.

Je třeba si taky uvědomit, že ta jednoduchá x86 jádra jsou sice oproti klasickým procesorům primitivní, ale pořád jsou výrazně komplexnější než shadery v dnešních GPU.

Ve skutečnosti je to trochu složitější, protože Larrabee používá zcela jinou techniku renderingu scény, než dnešní GPU (více méně DirectX emuluje). Nesmí se taky zapomínat na fakt, že Larrabee bude optoti současným GPU plnohodnotným general purpose procesorem. Jinak řečeno je schopen počítat naprosto cokoli (bude se hodit na GPGPU), kdežto dnešní GPU jsou stále omezeny na úzký okruh aplikací, a ještě to chce použité algoritmy složitě měnit (to je případ i CUDA).

0/0
6.10.2008 11:36

Dhatz

rozdíly budou jinde

pokud se nepletu tak larrabee umožní provádět jakékoli operace jakoby byl čip pro ně stvořený,což nelze považovat za slabou výhodu

0/0
3.10.2008 20:30

omonator

Nic moc?

No záleží na tom kolik bude stát jestli bude stejne drahá jako higend od nvidie tak to je pořád 2x levnější protože by ste museli koupit 2 grafické karty ze jo no a eště vám to 2x papá elektřinu tak se mi zdá že to nebude pro larrabee prohra jak se tu někdo směje

0/0
3.10.2008 15:21

Martin

Nic moc !!!

Jestli je to Larrabee, je jen 4 krát rychlejší než jedna 4870 tak to je nic moc, protože, když si to tak vezmu tak by stačilo dát dvě grafiky - ATI HD 4870 X2 do Crossfire a výkon by byl stejný ;-D, takže žádnej moc velkej pokrok, a to ještě neni všechno protože v polovině příštího roku vydá AMD/ATI serii grafických karet HD 5000 které budou alespon o 30 procent výkonnější než ty ze sírie HD, takže to bude pro čip Larrabee znamat prohru ! ;-)

0/0
3.10.2008 15:09

Martin

Re: Nic moc !!!

a to ještě neni všechno protože v polovině příštího roku vydá AMD/ATI

serii grafických karet HD 5000 které budou alespon o 30 procent

výkonnější než ty ze sírie HD 4000, takže to bude pro čip Larrabee znamenat

prohru ! ;-)

0/0
3.10.2008 15:12

Thorus

Re: Nic moc !!!

hehe, ty dokazes rozesmat. To si opravdu myslis ze ATI HD 4870 X2 je 2x rychlejší nez 4870? ;-D

0/0
3.10.2008 16:10

uzivatel

Re: Nic moc !!!

to je prohra, ze bude jejich jednocipove reseni srovnatelne s dvema dvoucipovymi od konkurence?

0/0
3.10.2008 16:12

Girm

Re: Nic moc !!!

Delas hodne predcasne zavery, nemyslis?

0/0
3.10.2008 19:23

delosombres

Re: Nic moc !!!

Nejde o výkon. Je úplně jedno, jestli bude Larrabbe výkonější než dvě 4870 X2 nebo nastejno. Největší problém totiž bude, že až na této nafouklé bublině aplikuješ na "herní grafiku dnešní doby" ten jejich slavný ray-tracing (což je úsměvné, jen když to vidím takto napsané), tak půjde výkon kam? Do řitky a to maximálně.

0/0
3.10.2008 22:23

uzivatel

Re: Re: Nic moc !!!

no i kdyby tak to porad bude stale velmi vykonne jako konvencni graficky cip :-)

0/0
4.10.2008 15:20

delosombres

Re: Re: Re: Nic moc !!!

To je sice hezké, nicméně to neřeší bublinu jménem ray-tracing, která je v souvislosti s Larrabee propagovaná a která tak velmi pravděpodobně splaskne.

0/0
4.10.2008 22:16

Fib

Re: Re: Re: Re: Nic moc !!!

Intel sám tvrdí, že jádro bude renderovat i klasickou metodou a tam se pak ten výkon bude hodit. než se vůbec vytvoří SW, který bude raytracing podporovat / vyžadovat, tak se asi přijde s vylepšeným modelem a výkon už bude "odpovídající". vždyť tu máme nová GPU každých pár měsíců :)

0/0
5.10.2008 0:28

delosombres

Re: Re: Re: Re: Re: Nic moc !!!

"Než se vůbec vytvoří SW, který bude raytracing podporovat / vyžadovat, tak se asi přijde s vylepšeným modelem a výkon už bude "odpovídající."

Veliký omyl příteli. Žádný SW s podporou (tady hlavně nejde jen o nějakou podporu ale přímo o specializaci pro tu kartu) se jen tak vytvářet nebude, vzhledem k tomu, že na trhu dominuje NVIDIA a ATI. Dělat hru s ray-tracing technologií, když bude mít Larrabee "pár" lidí? Těžko. Dokud nebude ray-trace v ATI a NVIDIA kartách, tak na takové hry zapomeň. Jak říkám, ray-trace je sice jezký, ale pokud na to tak karta nebude mít výkon a nebude to (i kdyby to výkon mělo) zajímavé pro výrobce her, tak je to celkem o ničem.

0/0
6.10.2008 4:33

Fib

Re: Re: Re: Re: Re: Re: Nic moc !!!

přesně o tom jsem mluvil. výkon se využije již dnes....a až se začne experimentovat s raytracingem, tak k tomu bude odpovídající výkon. i u ati a nvidie.

0/0
6.10.2008 10:33

Re: Re: Re: Re: Re: Re: Nic moc !!!

Budoucnost bude asi trochu někde jinde. SW renderování je nejspíš asi opravdu budoucnost. Nedávno jsem četl nějaký rozhovor s Tim Sweeney (hlavní programátor Unreal enginů) a podle jeho slov bude budoucnost vypadat tak, že se engin napsaný v C++ zkompiluje různými kompilátory pro jednotlivý HW. S Larrabee to není problém, ten spočítá vše a dnešní shadery v GPU jsou také schopny provádět general purpose kód (viz CUDA), byť většinou ne tak efektivně, jako klasická CPU. Hra tak poběží vlastně softwarově. Podobný názor má i Carmack, jehož id tech 6 (nástupce Rage enginu) má používat nějakou formu voxelů (SW rendering).

zdroj ( http://arstechnica.com/articles/paedia/gpu-sweeney-interview.ars )

0/0
6.10.2008 11:51

PedroCZ

Re: Re: Re: Re: Nic moc !!!

Ty tomu asi hodně rozumíš? :-)

0/0
5.10.2008 7:30

delosombres

Re: Re: Re: Re: Re: Nic moc !!!

Pokud to mám chápat pejorativně, tak můžeš začít vysvětlovat, rád se poučím..

0/0
6.10.2008 4:24

TINYSOFT

ah BW

neni co dodat

2 miriad (!!!) :D v case vydania budu mat grafiky aj od Nvidie tiez dve miliady tranzistoru ak spoja viac jadier

uz teraz maju cez miliardu tak ja by som stoho taku kovbojku nerobil , karta sa zatial extremne hreje a je jemne pokrocilom stadiu vyvoja

uvidime co stoho budew:)

0/0
3.10.2008 8:29







Najdete na iDNES.cz