Online-Abo
  • Login
  • Registrieren
Games World
  • [Alle wichtigen Bilder] GTC 2014: Pascal-GPU als Volta-Ersatz, Nvlink, Stacked-DRAM, "irre" GTX Titan Z und Iray VCA vorgestellt

    Und los geht es mit Livestream und Liveblog. Was zeigt Nvidia auf der hauseigenen GPU Technology Conference (GTC) um 17:00 Uhr deutscher Zeit wirklich? Wird es eine Vorschau ("Preview") auf die Maxwell-Ableger in 20 Nanometer geben und neue Infos zu DirectX 12? Wir sind für Sie dabei.

    Liveblog:

    18:50 Uhr: Mit einem Resümee der Veranstaltung neigt sich diese nun dem Ende zu. Abgeschlossen wird die Keynote mit der Ankündigung, dass Valves Portal auch für die Nvidia Shield erscheinen wird - "just for fun". Offensichtlich konnte man die Handheld-Konsolen nicht ausreichend vertreiben: Für alle physisch anwesenden Zuhörer gibt's nun eine umsonst. Ich verabschiede mich an dieser Stelle und wünsche Ihnen noch einen erholsamen (Feier-)Abend.

    18:45 Uhr: Soeben kam ein Audi ohne Fahrer auf die Bühne, der nur von einem Tegra K1 betrieben werde. Vor wenigen Monaten sei noch ein platzraubendes System nötig gewesen.

    18:40 Uhr: Mit dem Tegra-K1-Nachfolger Erista soll der Markenname Tegra entgültig aufgegeben werden. Als Neuerung wird aktuell "nur" die GPU angegeben, die bei Erista auf Maxwell basieren soll. Die auf der CES 2014 bekannt gegebene Partnerschaft mit Audi wird nochmals bekräftigt, indem aktuell komplett eigenständige "Autopilot"-Systeme mit dem Tegra K1 entwickelt werden.

    18.36 Uhr: Nach Grid folgt eine erneute Vorstellung von Tegra K1. Auf einem SoC werden vier ARM-Prozessorkerne mit einem Kepler-Shader-Multiprocessor (192 Shadereinheiten) kombiniert. Als neues Einsatzfeld sehe man Roboter, die mit der Mini-Plattform "Jen-Hsun TK1" betrieben werden sollen. In Kohärenz mit der GPU soll diese für 192 US-Dollar angeboten werden.

    18:30 Uhr: Status-Update: Grid soll im kommenden Jahr marktreif werden, aktuell habe man Prototypen fertiggestellt.

    18:24 Uhr: Es folgt eine erneute Vorstellung von "Grid" - Grafikberechnungen via Cloud-Systeme.

    18:13 Uhr: Die Iray VCA stelle ein komplett neues System dar, das sich besonders für fotorealistisches GPU-Rendering eigne. Die Hardware sei besonders für das leistungshungrige Raytracing ausgelegt, das hier mit Global Illumination kombiniert wird. Iray VCA soll sich darüber hinaus einfach "stapeln" lassen, sodass die Techdemo von 90 zusammengefügten Systemen berechnet wird. Nichtsdestotrotz: Ein leichtes schwarzes "Grieseln" ist bei Bewegungen immer noch zu sehen.

    18:07 Uhr: Die aktuelle Techdemo setzt auf die Unreal Engine 4, in der die Physx-Module erstmals auf Engine-Ebene implementiert worden seien, und wird laut Nvidia von der GTX Titan Z in Echtzeit berechnet.

    18:04 Uhr: Randinformationen: Um die Leistungsaufnahme und damit einhergehend die Wärmeabfuhr in Grenzen zu halten, scheint Nvidia den GPU-Takt im Vergleich zur GTX 780 Ti und GTX Titan Black heruntergeschraubt zu haben. Angegeben werden 8 TFLOPS SP-Leistung, die zwei GK110-GPUs rechnerisch bei 694 MHz erreichen. Die Grafikkarte ist also vor allem für platzkritische Server respektive Supercomputer interessant. Kollege Raffael rechnet vor: 8 TFLOPS = 2x 4 TFLOPS von 2x GK110 (voll) @ ~694 MHz. Derart untertaktet könnte das Ding aber (relativ) leise sein ... wie die GTX 690 auch.

    18:01 Uhr: Es folgen Techdemos zu Physx-Berechnungen mit der Geforce GTX Titan Z, darunter Flex.

    17:55 Uhr: "Inspired by alien technology": Die Geforce GTX Titan Z für 2.999 US-Dollar. 5.760 Shadereinheiten werden mit 12 GiByte GDDR5-VRAM kombiniert. Dabei dürfte es sich um zwei vollwertige GK110-GPUs handeln, die mit je 2.880 ALUs daherkommen.

    17:52 Uhr: Nun geht es endlich wieder zurück zu Desktop-Grafikkarten.

    17:50 Uhr: Das sogenannte "Machine Learning" soll über Cuda vereinfacht werden. Nvidia hat sich bereits zahlreiche Größen ins Boot geholt, mit denen die Bilder ausgewertet werden sollen.

    17:48 Uhr: In den vergangenen Tagen hat Nvidia nach Bildern mit Hunden gefragt, die mit dem Hashtag #nvdogs auf Twitter gepostet werden sollten. Die Daten dienten als Grundlage für ein solches Nerven-Netzwerk, das ebenfalls mit einem Supercomputer betrieben wird. Das Netzwerk gibt bei einem Bild nun eine prozentuale Wahrscheinlichkeit an, um welche Hunderasse es sich handelt. Mindestens 50 Prozent werden als höchste Wahrscheinlichkeit angegeben.

    17:42 Uhr: Es folgen nun Beispiele der "Nerven-Netzwerke": Das Testnetzwerk soll anhand von eingefütterten Bildern lernen, Zusammenhänge zu erkennen. Als Beispiel dienen aktuell rote Ferraris, die wiedererkannt werden sollen.

    17:37 Uhr: Das "Google Brain" stellt eine Server-Farm mit 30 ExaFLOPS Rohleistung dar, mit der Computern das menschliche Denken beigebracht werden soll. Ein menschliches Gehirn kommt hingegen auf die 40.000-fache Menge mit 150 YottaFLOPS.

    17:30 Uhr: Es folgt ein Ausflug in die Neurowissenschaften, die als Inspiration für "Deep Neural"-Netzwerke dienen.

    17:28 Uhr: Nicht nur der 3D-DRAM, sondern die "Next-Generation"-GPU nach Maxwell soll Pascal heißen. Jen-Hsun Huang stellt bereits einen Prototyp vor, der in allen denkbaren Bereichen Einsatz finden soll.

    17:24 Uhr: Weiter gehts mit 3D- beziehungsweise Stacked-DRAM, also gestapelter Videospeicher. Die Kapazität soll um den Faktor 2,5 steigen und die Effizienz um den Faktor 4. Die Bandbreite wird aktuell noch getestet, soll aber deutlich ansteigen. Der "neue" Speicher von Nvidia wird nach dem Wissenschalter Blaise Pascal benannt.

    17:18 Uhr: Mit "Nvlink" sollen aktuelle Speicher-Flaschenhälse behoben werden. Die Geschwindigkeit soll via PCI-Express um den Faktor 5 bis 12 steigen, indem eine Chip-zu-Chip-Verbindung genutzt wird. Dazu gehört auch die Technologie Unified Virtual Memory, mit der sämtliche GPUs sowie die CPU-Kerne auf denselben Speicher zugreifen können und ein Kopieren umgangen wird.

    17:15 Uhr: Den Anfang macht ein Rückblick in die letzten Jahre, in denen Supercomputing und Energieeffzienz eine immer größere Rolle spielten. Highlights dieses Nachmittags werden GPU-Architektur in Zusammenhang mit CPUs sowie Cuda darstellen.

    17:10 Uhr: Nvidia-CEO Jen-Hsun Huang hat soeben die Bühne betreten. Möge die Keynote beginnen.

    17:05 Uhr: Nvidia hat soeben den Beginn in wenigen Minuten angekündigt. Währendessen darf man noch der Country-Musik lauschen.

    16:59 Uhr: Der Livestream ist vor wenigen Minuten live gegangen. Derzeitig wird noch ein Platzhalter samt Hintergrundmusik wiedergegeben.

    Livestream von Nvidia:


    Seit dem gestrigen Abend laufen die Vorbereitungen für Nvidias GTC 2014 auf Hochtouren, erste Bilder hat der Chiphersteller bereits über seinen Facebook-Account veröffentlicht. In knapp sechs Stunden wird Nvidia CEO Jen-Hsun Huang persönlich wie jedes Jahr den Startschuss mit einer knapp zweistündigen Opening Day Keynote geben. Erfahrungsgemäß lässt der Nvidia-Chef dort die eine oder andere Bombe in Form von Produktneuvorstellungen platzen, was auch für dieses Jahr wieder gemutmaßt wird.

    Ein Moderator des Pro-clockers.com-Forums hat die mutmaßlichen Inhalte der Keynote veröffentlicht, die allerdings mit Vorsicht zu genießen sind. Auf keiner offiziellen Nvidia-Webseite werden diese bestätigt – auf dem offiziellen GTC-Terminplan werden zum Beispiel lediglich Zeit und Ort angegeben. Immerhin plant Nvidia, die Präsentation in einem Livestream via Twitch.tv zugänglich zu machen, sodass auch für "Normalsterbliche" mehr oder minder interessante Details enthalten sein sollten.

    Das Highlight soll ein Preview auf die ersten High-End-Maxwell-GPUs darstellen, die künftig in 20 Nanometer gefertigt werden. Die Rede ist explizit von "GM10x/Geforce 8xx" samt Unified Virtual Memory – eine Technologie mittels derer CPU und GPU (via Cuda 6.0) auf denselben Speicher zugreifen können. Darüber hinaus seien weitere Informationen zu DirectX 12, den jüngsten OpenGL-Neuerungen (Stichwort: Overhead-Reduktion auf High-Level-Ebene) sowie dem kommenden "Geforce-Wundertreiber" zu erwarten. Letzterer soll den Overhead in DirectX 11 deutlich reduzieren, was auf Treiberebene allerdings eher unrealistisch scheint.

    Davon abgesehen ist natürlich das Gameworks-Programm mit von der Partie und damit einhergehend neue Techdemos. Wie eingangs angesprochen, wird Nvidia die Keynote um 17:00 Uhr deutscher Zeit beginnen, den Livestream haben wir vorab schon unterhalb des Artikels eingebettet. Wir sind gespannt, was uns Nvidia heute Nachmittag präsentieren wird.

    Werbefrei auf PCGH.de und im Forum surfen - jetzt informieren.
    04:48
    Geforce GTX Titan Black im Extremtest mit Skyrim (150 Mods): Was bringen 6 GiByte Speicher?
  • Stellenmarkt

    Es gibt 159 Kommentare zum Artikel
    Von Rollora
    Ja, NVLink wäre überaus interessant, nicht nur SLI wegen. Aber,da es ein proprietärer Standard ist, wirds entweder…
    Von Skysnake
    Über stacked DRAM würde ich mir nicht so viele Gedanken machen. Das ist nur ne Frage, wer anfängt und das "Lehrgeld"…
    Von Rollora
    wobei es ja auch bei anderen Magazinen (Anandtech, PCPerspective, 3dcenter) funktioniert Ingenieure als Redakteure…
    Von matty2580
    Ich halte die Titan Z für keine sinnvolle Karte, sondern hatte sie als "Machbarkeitsstudie" beschrieben, so wie auch…
    Von Skysnake
    Und da sieht man mal wieder, wie super das nVidia Marketing funktioniert....Da wird mit Semi-"Professionell" um sich…
      • Von Rollora Lötkolbengott/-göttin
        Zitat von Skysnake

        nVLink ist da eine GANZ andere Geschichte. Da sind die Frequenzen an sich das Problem, die die Sache teuer machen. stacked DRAM wird unterm Strich sogar wohl billiger sein, also weniger $/GB/s-Bandbreite aufweisen, wenn man denn mal in Massenproduktion ist.
        Ja, NVLink wäre überaus interessant, nicht nur SLI wegen. Aber,da es ein proprietärer Standard ist, wirds entweder nicht im Desktop kommen, oder nur bei ausgesuchten Mainboards und dann hat man wieder den Salat mit "SLI Ready" vs "Crossfire Ready" vs gar nix usw.
      • Von Skysnake Lötkolbengott/-göttin
        Über stacked DRAM würde ich mir nicht so viele Gedanken machen. Das ist nur ne Frage, wer anfängt und das "Lehrgeld" übernimmt, bis die Produktion ausgereift ist.

        nVLink ist da eine GANZ andere Geschichte. Da sind die Frequenzen an sich das Problem, die die Sache teuer machen. stacked DRAM wird unterm Strich sogar wohl billiger sein, also weniger $/GB/s-Bandbreite aufweisen, wenn man denn mal in Massenproduktion ist.
      • Von Rollora Lötkolbengott/-göttin
        Zitat von Skysnake

        Den Medien kannste hier aber keinen Vorwurf machen. Da sitzen halt keine Ingenieure usw. Die müssen sich einfach darauf verlassen, was ihnen die Firmen erzählen, nur nutzt nVidia das seit geraumer Zeit schamlos aus...
        wobei es ja auch bei anderen Magazinen (Anandtech, PCPerspective, 3dcenter) funktioniert Ingenieure als Redakteure einzusetzen.
        Zitat von Skysnake

        Ich habe mir gestern noch ein paar Gedanken gemacht, und da ich selbst mit Interconnects auf physikalischer Ebene zu tun habe, kann ich mir schon sehr genau vorstellen, was die da machen wollen, und ich kann dir eins sagen. Das hat mit einem PC, wie du ihn dir vorstellst absollut nichts mehr zu tun...
        das ist eben auch meine Befürchtung - möglich wäre es, aber es wäre vermutlich in anderen Bereichen (Supercomputer oder sehr mobile Geräte) besser eingesetzt und wird demzufolge vielleicht in den ersten Paar Jahren nur da erscheinen, bis Stacked RAM Massenware ist. Oder vielleicht nur mit ganz geringem Takt & RAM im Einsteigersegment oder das Gegenteil, nur die Ultrahighend 1000€ Produkte haben Stacked RAM.
        In jedem Fall wäre es markttechnisch traurig, schließlich würde nur der Einsatz über die gesamte Produktpalette sowohl bei der Performance was bewegen, als auch bei der Spieleentwicklung (Henne-Ei-Problem: ist keine Hardware am Markt verbreitet, lohnt es sich nicht, dafür zu entwickeln).

        Neue Wege bei der RAM Technologie hoffe ich ja schon seit über 15 Jahren im Desktopbereich zu sehen. Damals, als es noch 3dfx gab, sowie Gigapixel und die sogenannten Bitboys (http://de.wikipedia.org/w... ), letztere die gerne mit eDRAM rumgespielt haben. Die waren wohl ein bisschen vor ihrer Zeit
      • Von matty2580 BIOS-Overclocker(in)
        Zitat von Skysnake
        Und da sieht man mal wieder, wie super das nVidia Marketing funktioniert....
        Ich halte die Titan Z für keine sinnvolle Karte, sondern hatte sie als "Machbarkeitsstudie" beschrieben, so wie auch Leo aus dem 3dcenter.
        Für Nvidia ist es wichtig immer die "stärkste" Karte anzubieten.
        Bessere Werbung gibt es nicht für die Karten darunter.
        Mit denen macht man große Stückzahlen und die Masse des Gewinn.
        Das mit dem semiprofessionellen Bereich hatte ich nur geschätzt.
        Da kennst du dich ja besser aus.
      • Von Skysnake Lötkolbengott/-göttin
        Zitat von matty2580
        Die Titan-Z ist wohl eher eine Machbarkeitsstudie, als eine echte Alternative für Gamer.
        Der Kundenkreis dafür kommt eher aus dem semiprofessionellen Bereich.
        Nvidia rechnet bestimmt auch nicht mit einer gewaltigen Nachfrage bei 3000 Dollar.
        Dieses Mal hat er glaube ich auch nicht von der besten Gamingkarte, sondern einfach von der besten Karte gesprochen.

        Der Stream selbst richtete sich auch nicht an Gamer, sondern sollte die große Produktvielfalt darstellen.
        Viel Rechenleistung für alle möglichen Zwecke war die Aussage.
        Und das Nvidia zuversichtlich in die Zukunft blicken kann.
        Autos die sich selbst steuern, neuronale Netzwerke, und viel mehr Leistung gegenüber den alten Produkten klingt ja auch ganz gut.
        Und da sieht man mal wieder, wie super das nVidia Marketing funktioniert....

        Da wird mit Semi-"Professionell" um sich geworfen, und schon soll es ein super Produkt sein

        Ganz im Ernst?

        Das Ding ist fucking uninteressant für den professionellen Bereich. Wenn man wirklich so viel Leistung braucht, das man eben 16 statt "nu" 8 GPUs damit in ein System packen kann, dann reicht ein System normal auch nicht aus, und vor allem werden Bit-Flips im RAM viel zu gefährlich.

        Man hat also weder ECC RAM, noch Tesla-/Quadro-Treiber und GPU-Direct2 ist auch nicht dabei für RDMA. Damit ist das Ding fucking uninteressant. Vor ALLEM! zu dem Preis. Auch im professionellen Umfeld hat keiner etwas zu verschenken... "Consumer-Karten" nutzt man ja wenn dann nur um die Kosten zu senken, und für 3k$ gibt es absolut keinen Grund, zu der GTX Titan Z greifen zu wollen. Da dann doch lieber ne GTX Titan (Black). Das macht viel mehr Sinn.

        Zitat von Rollora
        NVIDIA - GPU Technology Conference 2014 - Jen-Hsun Huang - Twitch ab 15:39 ja Aber die Titan ist ja auch viel schwerer (auch wenn er offensichtlich fit ist)
        Also schätze, dass mans so gut wie überall einsetzen kann - je nach Version.

        Die für mich eher schockierende Sicht der Dinge die ich dank deiner Reflexion/Frage nun habe ist:
        Wer sagt uns, dass Dinge wie Stacked RAM und Nvlink die ersten paar Jahre überhaupt in eine Desktopgrafikkarte kommt? Er spricht natürlich von Next Gen anything, aber erwähnt eigentlich nur am Rande Desktoppcs. Und wie oft hat mans schon gesehen, dass NV Technologien ankündigt die dann aber nie so kommen (jupp, das kam öfter vor).
        Gerüchte über RAM welches direkter mit dem Chip verbunden ist auf NV Karten gehen übrigens bis zum NV30 zurück, also die arbeiten schon lange daran ^^.
        Das ist eine sehr berechtigte Frage.

        Man sollte sich da mal hinsetzen, und ein paar Minuten drüber nachdenken, wie denn das bitte funktionieren soll. Ganz zu schweigen davon, warum eine derartig OMFG!!!!! ist das GEILOMAT Idee bisher noch kein anderer hatte....

        Huang hat mal wieder über die Hälfte weg gelassen und die Medien ziehen sich was aus den Fingern, bzw. interpretieren halt das rein, was nVidia auch beabsichtigt.... Und wie schon bei Kepler hält nVidia schön die Fresse und schaut grinsend dabei zu, wie die Medien "Unwahrheiten" verbreiten.

        Den Medien kannste hier aber keinen Vorwurf machen. Da sitzen halt keine Ingenieure usw. Die müssen sich einfach darauf verlassen, was ihnen die Firmen erzählen, nur nutzt nVidia das seit geraumer Zeit schamlos aus...

        Ich habe mir gestern noch ein paar Gedanken gemacht, und da ich selbst mit Interconnects auf physikalischer Ebene zu tun habe, kann ich mir schon sehr genau vorstellen, was die da machen wollen, und ich kann dir eins sagen. Das hat mit einem PC, wie du ihn dir vorstellst absollut nichts mehr zu tun...
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1114823
GTC
[Alle wichtigen Bilder] GTC 2014: Pascal-GPU als Volta-Ersatz, Nvlink, Stacked-DRAM, "irre" GTX Titan Z und Iray VCA vorgestellt
Und los geht es mit Livestream und Liveblog. Was zeigt Nvidia auf der hauseigenen GPU Technology Conference (GTC) um 17:00 Uhr deutscher Zeit wirklich? Wird es eine Vorschau ("Preview") auf die Maxwell-Ableger in 20 Nanometer geben und neue Infos zu DirectX 12? Wir sind für Sie dabei.
http://www.pcgameshardware.de/GTC-Event-257049/Specials/GTC-2014-Livestream-Nvidia-Maxwell-20-nm-1114823/
25.03.2014
http://www.pcgameshardware.de/screenshots/medium/2014/03/GTC_2014_Nvidia_1-pcgh_b2teaser_169.jpg
nvidia,grafikchip,gpu,maxwell,grafikkarte,geforce
specials