Möchtest du diese Seite als Startseite festlegen?
als Startseite festgelegt.
    Möchtest du diese Seite als Startseite festlegen?
    als Startseite festgelegt.
      • Von Superwip Lötkolbengott/-göttin
        Zitat
        Ich finde meine Idee richtig gut wäre dann halt min. 3er Slot XD Das würde einfach nur so abartig Böse ausschaun
        Sowohl bei der MARS als auch bei der ARES (1) hat Asus mit enormem Aufwand versucht sich auf zwei Slots zu beschrenken; würde micht sehr wundern, wenn es diesmal anders wäre
      • Von Sahit Komplett-PC-Käufer(in)
        ^^ Zwecks kühlung ^^ (http://extreme.pcgameshar...)
        Zitat von Sahit
        Also für die Kühlung baut man einfach eine GPU unten und einen oben auf die Karte dann kloppt man 2x Alpenföhn Peter drauf und belüftet sie mit 4x Scythe Gentle Typhoon Lüfter 5400 rpm @ 50db (120mm) fertig. Das sollte die Karte dann in nem angenhmen bereich halten . Edit: Naja bei der Kühlung wäre man so bei 180€ ist doch nicht viel XD
        Ich finde meine Idee richtig gut wäre dann halt min. 3er Slot XD Das würde einfach nur so abartig Böse ausschaun
      • Von XE85 Moderator
        Zitat von Skysnake
        Nein, gibt es so wie du meinst nicht. Die Karten setzen auf das gleiche PCI-E Interface. Da hast du zu 100% die gleiche Situation wie bei den Consumer-Karten.
        Das weis ich - Es ging mir um die GPU/Platine - bei den Tesla Karten hat jede Karte(GPU) ihr PCIe interface. Wenn man mehr als eine GPU braucht nimmt man mehrere Karten. Im Gamerbereich gibts eben die zwischenlösung mit 2 GPUs auf einer Platine, ein Konfig die offenbar für den HPC bereich nicht optimal ist. Im Gamerbereich stört das 16x interface über den nF200 jedenfalls nicht.
        Zitat von Skysnake
        Jetzt erzählst du aber Stuss XE85......
        Achso? Na dann schau dir mal an wie SLI und Crossfire aktuell skalieren. 80% mehr Leistung gegenüber einer GPU sind aktuell das maximal mögliche. Wenn du pech hast sind es gar 0%. Und das gleiche gilt natürlich auch für eine Dual GPU Karte. Und genau darum gehts mir, man hat bei einer Dual GPU Karte Nachteile beim Takt (von extremen Ausnahmen mal anbgesehn), eine schlechte Skalierung und die sonst üblichen Dual GPU Nachteile (MR, IL,...) - wer da über die 0-4% durch das interface meckert dem ist nicht mehr zu helfen. mfg
      • Von Superwip Lötkolbengott/-göttin
        Zitat
        Nein leider nicht. Der Desktop Bereich treibt zwar viele Entwicklungen im HPC Bereich an, weil durch diesen die Sachen erst finanzierbar werden, aber ist halt auch oft ein Klotz am Bein wie hier. Die Chips sind ja für die Profi-Karten und die normalen Consumer-Karten die gleichen. Ergo hast du auch nur einen 16x PCI-E Controller etc.
        Es geht hier um dual-GPU Karten, diese haben 2x PCIe x16...
        Zitat
        Z.B. arbeiten die 64Bit Prozessoren physikalisch noch immer "nur" mit 48-Bit Adressen
        Ja, die lausigen x86-64Bit CPUs; wozu gibt es auch entsprechende Mainframe CPUs wie etwa POWER 7, ITANIUM/Tukwila oder SPARC T3 Will man aus Kosten oder sonstigen Gründen auf mehr oder weniger herkömmliche PC CPUs setzen sollte man sich nicht wundern, wenn man auf Probleme trifft
        Zitat
        Zitat von
        Dual GPU Karten sind mit herkömmlichen GPUs, die nicht dafür gebaut wurden (was ja bei allen Dual GPU Karten in jüngerer Vergangenheit der Fall war) so oder so prinzipiell eine Pfuschlösung...
        Naja, wirklich Pfusch nicht, aber man hat halt 2 Einschränkungen normal mehr, als man eh schon hat (und man hat eigentlich schon mit einer GPU zu viele...). PCI-E muss geteilt werden, was je nach Aufgabe halt in 1-50% weniger Leistung enden kann, und dann noch das Problem, das die normalen Dual-GPUs niedriger getaktet sind. Wenn man die zweite also nicht vernünftig verwenden kann, hat man auch noch ne langsamere Karte, als wenn man nur eine GPU hat....
        Die wichtigsten Einschränkungen sehen ganz anders aus... Die wichtigste ist definitiv die nur sehr begrenzte Kommunikation zwischen den GPUs; da diese so nur suboptimal ist führt das am Ende zum AFR Verfahren, bei dem man die GPUs relativ unabhängig voneinander abwechselnd Bilder berechnen lässt- mit bekannten (enormen) Problemen... Auch die (damit durchaus zusammenhängende) Tatsache, dass de-facto der VRAM zwei mal mit den selben Daten belegt ist und so extrem ineffizient genutzt wird ist sehr unschön Wären GPUs von Grundauf für Multi-GPU Systeme/Karten gebaut, mit einem Hochgeschwindigkeitsbus zur Anbindung an andere GPUs, besserer Speicheraufteilung, und der Fähigkeit effektiver Aufgaben bei der 3D und 2D Berechnung eines Bildes auf die einzelnen GPUs zu verteilen könnten Multi GPU Systeme einerseits sehr viel besser skalieren und hätten andererseits die bekannten, gravierenden Probleme großteils nicht Die von dir genannten Probleme sind dagegen eher gering (du hast wohl Probleme im Vergleich zu zwei einzelnen GPUs gemeint); die Taktraten sind sowieso "nur" eine Frage der Kühlung, der PCIe Bus ist zwar ein gewisses Hinderniss aber bei weitem nicht das größte Problem- und dieses Problem sollte mit PCIe 3.0 in absehbarer Zukunft mittelfristig aus der Welt geschafft werden...
        Zitat
        Das ist nicht zum zocken gedacht
        Wenn nicht dafür, wofür braucht man denn sonst so viel GPU Leistung... in einem PC...
      • Von Skysnake Lötkolbengott/-göttin
        Zitat von XE85
        Naja, dafür sind Grafikkarten aber primär gedacht. Und da stellt die aktuelle Lösung kein wirkliches Problem dar. Für den HPC bereich gibts seperate Karten mit entsprechendem Interface. Und der HPC Bereich ist auch nicht wirklich Thema dieses Forums.
        Nein, gibt es so wie du meinst nicht. Die Karten setzen auf das gleiche PCI-E Interface. Da hast du zu 100% die gleiche Situation wie bei den Consumer-Karten. Bei den Teslas kommt nur ECC, mehr RAM, keine beschnittene DP-Leistung und andere Treiber dazu. Das wars dann aber auch. Von der Hardware Seite her unterscheidet sich ne Tesla von ner normalen Consumer Karte sogar nur durch die Platine, die halt mehr RAM und ECC unterstützt. Das wars dann aber auch. Der eigentliche Chip sowie das PCI-E Interface sind die gleichen. Und mehr gibts da halt nicht, weil die normalen Verbraucher das halt nicht brauchen/bezahlen würden, und einfach dazu packen kannste auch nicht. Das würde sich einfach nicht lohnen rein wirtschaftlich gesehen. Du müsstest ja dann extra eigene Chips machen für den HPC Bereich (wobei dann andere Bereiche beschnitten sein müssten, nVidia ist mit dem GF100/110 ja an der Grenze der Produktionsgröße für einen DIE), oder aber ALUs von der ConsumerKarte wegen dem Problem in der Klammer runter schmeisen.
        Zitat
        Eine Dual GPU Karte verliert schonmal mindestens 20% nur allein desshalb weil 2 GPUs nicht mit 100% skalieren und dann nochmal 20% durch den niedrigen Takt. Wer da über die im schnitt 1% aufgrund der Anbindung mekkert dem ist ohnehin nicht mehr zu helfen. mfg
        Jetzt erzählst du aber Stuss XE85...... Das durch niedrigeren Takt die Rechenleistung mehr oder weniger linear abfällt ist klar. Aber nur dadurch das es 2 GPUs sind, skalieren Sie nicht schon mal um mindestens 20% schlechter... Sorry das ist bullshit.... Der Speedup errechnet sich nach Amdahl´s law Also Speedup=1/((1-Paralleler_Programmanteil)+Paralleler_Programmanteil/#Prozessoren) Ob die Rechenwerke nu in einer GPU oder in zwei sitzen spielt dabei überhaupt keine Rolle. Wie gut/schlecht die Skalierung ist, hängt ganz davon ab, wie viele Rechenwerke ich habe und wie groß der sequenzielle Programmanteil ist (Cachingeffekte etc mal außen vor). Man kann also gar nicht sagen, ne Dual-GPU skaliert so und so viel schlechter. Unter 90% Parallelität lohnt es sich eh kaum was Multicore zu machen, und für ne GPU schon gleich 10 mal nicht. Da hat man nur einen Beschleunigungsfaktor von rund 10-15 das lohnt nicht, da man ja die Daten auch erst mal rüber scheffeln muss etcpp (PS: man geht ja immer von einem einzelnen Kern aus, und die Leistung eines GPU-Kerns ist misserabel) Man wird also einen Wert haben, wo man ca. 99,99-99,999% Parallelität hat. Das hört sich verdammt viel an, aber wenn man an die typischen Probleme denkt, schafft man da auch noch weit aus höhere Werte ohne Probleme. Man kann also auch mit 2 GPUs locker besser skalieren als mit dem 20% Verlust den du angesprochen hast. (Zumal man das ja wie gesagt eh überhaupt nicht so allgemein sagen kann) Davon das man sogar Superskalarität erreichen kann unter Umständen mal ganz zu schweigen.
  • Print / Abo
    Apps
    PC Games Hardware 01/2015 PC Games 12/2014 PC Games MMore 03/2014 play³ 12/2014 Games Aktuell 12/2014 buffed 04/2014 XBG Games 12/2014
    PCGH Magazin 01/2015 PC Games 12/2014 PC Games MMORE Computec Kiosk On the Run! Birdies Run

    Unser Netzwerk

    PC GAMES 4PLAYERS VIDEOGAMES ZONE GAMES AKTUELL BUFFED GAMEZONE
article
824775
Grafikkarten
Taktraten über dem Niveau einer GTX 580
Asus hatte letztes Jahr mit einer Ares-Variante der Radeon HD 5970 für Aufsehen gesorgt. Jetzt kündigt Asus für die Messe Computex 2011 eine GTX 595 Ares an. Diese soll, wie die GTX 590 zwei GF110-GPU haben, aber mit stark erhöhten Taktraten, sogar über den Spezifikationen der GTX 580, glänzen.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Taktraten-ueber-dem-Niveau-einer-GTX-580-824775/
15.05.2011
http://www.pcgameshardware.de/screenshots/medium/2010/08/ASUS_Ares_4.jpg
nvidia,grafikkarte,geforce
news