Online-Abo
  • Login
  • Registrieren
Games World
      • Von KeiteH Freizeitschrauber(in)
        Moinsen!
        Was mich bei dem Ganzen eigentlich stört ist die Namensgebung für
        "Highest-End: Hemlock - Dual-RV800-Grafikkarten"
        und
        "High-End: Cypress - Single-RV800-Grafikkarten..."

        Mit welcher Berechtigung wird eine Doppel-GraKa "higher" eingestuft als eine Single GraKa?
        Da werden doch wieder mal Äpfel mit Birnen verglichen, oder ist die "Hemlock" etwa doppelt so schnell wie eine "Cypress" (bzw. 2x"Cypress" so schnelle wie eine "Hemlock") ?
        Allein schon der Glaube daran fehlt mir ...
        Beide gleich zu benennen fänd ich gerechter!
        Die eine ist eben High-End im Single-GPU Design, die andere im Dual-GPU.

        greetz
      • Von Bucklew Gesperrt
        Zitat von jojo0077
        Genaue Zahlen werden wohl nur Nvidia und TSMC wissen aber daran, dass der GT200b deutlich günstiger ist gibt es keine Zweifel.
        Aktuell günstiger? Ja. Deutlich günstiger? Weißt du nicht, wie du selbst zugibst. Zum Zeitpunkt des Produktionsbeginn günstiger? Weißt du ebenfalls nicht. Reineste Spekulation von deiner Seite aus. Daher lass ich das Thema auch, wenn du die wirklichen Zahlen hast kann man ja mal gucken. Die 125US-$ sind schon witz genug

        Zitat von jojo0077
        Nur etwa 40% der Chips waren in Ordnung. Bei 5000 USD pro Wafer kommst du damit auf 125 USD pro Chip.
        Niemand muss bei TSMC kaputte Chips bezahlen.

        Zitat von jojo0077
        Die GTX295 hat per Defalt 1,0625V soweit ich informiert bin. Mit entsprechend höheren Taktraten muss man auch die Spannung erhöhen. Mit 1,1V ist bei der Mars das Minimum erreicht und selbst so verbraucht die Karte noch viel zu viel. Außerdem kann man sie so nicht verkaufen, da die Hersteller immer ein kleines Sicherheitspolster einbauen. 1,12V wären vielleicht denkbar aber das ist leider dann immer noch unkühlbar.
        Wie ich sagte: Mit selektierten Chip ist das alles kein Problem.

        Zitat von jojo0077
        Meinst du übrigens im Ernst, dass Asus die schnellste Graka der Welt vorstellt, ca. 1000€ dafür verlangt und dann keine selektierten Chips verwendet? Da hätt ich gern ne Quelle die das belegt.
        Man könnte für 1000€ auch ein funktionierendes Produkt erwarten. Tut es das? Nein.

        Abgesehen davon kann Asus schlecht selektieren. Das kann Nvidia natürlich deutlich besser, weil sie alle Chips testen und dann eben entsprechend verkaufen. Asus müsste aus den vielen 285er Chips die paar guten raussuchen - fast unmöglich.

        Zitat von jojo0077
        Die X2 verbraucht ein bisschen mehr als die GTX295. Das ist richtig. In der Mehrzahl der Anwendungen ist sie auch schneller aber nicht immer und oft auch nur unwesentlich.
        Dem ist heute nicht mehr so:
        Virtuelle Nvidia Geforce GTX 295 mit 2 x 1,8 GiByte im Test - Geforce GTX 295, 3,6 GiByte, Grafikkarte, Benchmarks, Test

        Zitat von jojo0077
        Dann sollte man auch nicht vergessen, dass die X2 DEUTLICH günstiger in der Herstellung ist und auch länger auf dem Markt ist als die GTX295.
        Das würde ich jetzt wieder als reinste Spekulation abtun und das ist es wohl auch wieder. Von daher äußere ich mich dazu nicht weiter, irgendwelche Spekulationen ohne irgendwelche Zahlen sind mir zu blöd

        Zitat von jojo0077
        Das Problem der GTX295 ist doch einfach, dass man einen teuren Chip einbaut, aber ihn nicht ganz ausfahren kann weil er sonst zu viel verbraucht. Man produziert einen teuren Chip von dem man aber hinterher einen Teil brach liegen lässt. Das ist nicht gerade kosteneffizient.
        Das hat AMD geschickt umgangen indem sie den RV770 so designt haben, dass er auch auf der X2 am Limit laufen kann.
        Dafür haben sie den Nachteil, dass keine ihrer Karten an das entsprechende Pendants von Nvidia herankommt. Daher geben sie einen Großteil ihrer Ersparnisse in der Produktion durch die kleinere Marge wieder her, um genügend verkaufen zu können.

        Zitat von jojo0077
        Das gleiche Problem sehe ich für Nvidia beim GT300. Sie werden auf der Dualkarte den Chip deutlich unter dem Limit laufen lassen müssen weil die Karte sonst zu viel verbraucht.
        Dazu muss man abwarten wie der 40nm Prozeß läuft und dann wird man es sehen. Ne Dualkarte werden wir auf jeden Fall sehen.

        Zitat von jojo0077
        Zitat Wiki: "Da jedoch Elektronik nicht angeschafft wird, um synthetische Testprogramme laufen zu lassen, sondern um Arbeit zu verrichten, orientieren sich manche Hersteller auch an praxisrelevanten Belastungsszenarien."
        Logisch, keiner der Hersteller möchte die maximale Leistungsaufnahme hinschreiben.

        Zitat von jojo0077
        Naja im Endeffekt denke ich, dass wir beide in Teilen recht haben und in Teilen falsch liegen.
        Wir warten einfach ab, die X2 von ATI soll auch erst später kommen, PCGH wird schon Schiedsrichter im ewigen Wettlauf spielen
      • Von jojo0077 Freizeitschrauber(in)
        Zitat von Bucklew
        Wie teuer war denn ein GT200b und wie teuer ein GT200?

        Dafür war die Fertigung in 65nm ausgereift und Nvidia hat bei keinem einzigen GT200-Chip draufgezahlt. Dann hätten sie ganz andere Zahlen, die würden dann ungefähr so aussehen wie von AMD
        Genaue Zahlen werden wohl nur Nvidia und TSMC wissen aber daran, dass der GT200b deutlich günstiger ist gibt es keine Zweifel.
        Ein GT200 hat in etwa 125 USD gekostet.
        Wenn du sagst, dass der 65nm Prozess ausgereift war willst du damit vermutlich andeuten, dass die Yield-Rate beim GT200 wohl recht gut gewesen sein muss. Falls du das wirklich meinst bist du leider falsch informiert.
        Nur etwa 40% der Chips waren in Ordnung. Bei 5000 USD pro Wafer kommst du damit auf 125 USD pro Chip.
        Der 55nm-Prozess war zum damaligen Zeitpunkt außerdem auch schon extrem ausgereift.

        Was die Zahlen von Nvidia und AMD angeht kann man daraus wohl kaum einen Rückschluss auf den Gewinn oder Verlust mit einem einzelnen Chip ziehen. Wenn Nvidia mit anderen Chips Gewinn gemacht hat müssen sie ja irgendwo Verlust gemacht haben, damit sie bei +-0 rauskommen.

        Zitat

        Aber nur durch eine Einmalbelastung. Unterm Strich, also mit Herstellung von Grafikchips und deren Verkauf und dem Rest waren sie unterm Strich bei +/- 0. Und damit (trotz des eigentlich teureren Chips) finanziell deutlich besser als ATI.
        s.o.

        Zitat

        Vom Chip her ja. Der Chip entspricht einer GTX285 (240 Shader), mit SI der GTX260 und leicht reduzierten Taktraten.

        Asus betreibt nämlich die Mars mit 1,15V und nutzt keine selektierten Chips. Selbst mit nur 1,1V ist die Karte bereits stabil. Nur weil Asus zu blöd ist, ist das Nvidia nicht
        Die GTX295 hat per Defalt 1,0625V soweit ich informiert bin. Mit entsprechend höheren Taktraten muss man auch die Spannung erhöhen. Mit 1,1V ist bei der Mars das Minimum erreicht und selbst so verbraucht die Karte noch viel zu viel. Außerdem kann man sie so nicht verkaufen, da die Hersteller immer ein kleines Sicherheitspolster einbauen. 1,12V wären vielleicht denkbar aber das ist leider dann immer noch unkühlbar.

        Meinst du übrigens im Ernst, dass Asus die schnellste Graka der Welt vorstellt, ca. 1000€ dafür verlangt und dann keine selektierten Chips verwendet? Da hätt ich gern ne Quelle die das belegt.

        Zitat

        TDP ist "Thermal Design Power" und bezeichnet nur wieviel Wärme der Kühler im Maximalfall abführen muss. Mit dem Stromverbrauch hat das gar nichts zu tun.
        Hat schon was damit zu tun denn die Energie die die Karte aufnimmt muss nunmal irgendwo hin. Zum aller größten Teil wird sie nun mal einfach nur in Wärme umgewandelt welche der Kühler dann abführen muss. Der Rest ist nur ein kleiner Teil aber an sich hast du nicht unrecht.

        Zitat

        Warum auch nicht? Der aktuelle Weg mit der schnellsten Singlechip GPU und einer dann in einigen Punkten leicht abgespeckten Dualchip-Lösung ist auf jeden Fall besser als die ATI Lösung mit einem langsameren Chip, der dann im Doppelpack für sehr hohe Verbrauchs-, Wärme-, und Lautstärkewerte sorgt. Und vom besseren ATI-Singlechip gibts ja bis heute kein Dualkarte (wirds wohl auch nie geben).
        Die X2 verbraucht ein bisschen mehr als die GTX295. Das ist richtig. In der Mehrzahl der Anwendungen ist sie auch schneller aber nicht immer und oft auch nur unwesentlich.
        Dann sollte man auch nicht vergessen, dass die X2 DEUTLICH günstiger in der Herstellung ist und auch länger auf dem Markt ist als die GTX295.
        Das es vom RV790 keinen Dual-Chip gibt ist richtig und liegt daran, dass sie zu viel verbrauchen würde. Würde man die Karte mit niedrigeren Taktraten versehen wäre man wieder bei der 4870X2.

        Das Problem der GTX295 ist doch einfach, dass man einen teuren Chip einbaut, aber ihn nicht ganz ausfahren kann weil er sonst zu viel verbraucht. Man produziert einen teuren Chip von dem man aber hinterher einen Teil brach liegen lässt. Das ist nicht gerade kosteneffizient.
        Das hat AMD geschickt umgangen indem sie den RV770 so designt haben, dass er auch auf der X2 am Limit laufen kann.

        Das gleiche Problem sehe ich für Nvidia beim GT300. Sie werden auf der Dualkarte den Chip deutlich unter dem Limit laufen lassen müssen weil die Karte sonst zu viel verbraucht.

        Zitat

        GPGPU-Anwendungen erreichen spielend die Auslastungen von Furmark. Und selbst wenn sie es nicht tun würde: Was macht man, wenn zwei Monate nach dem Release der Karte eine Anwendung erscheint, die ähnliche Belastungen erreicht? Ich kann dir garantieren, dass sowohl ATI als auch Nvidia mit dem Tool ihre Karten testen. Wären schön blöd, wenn sie es nicht tun würden.
        Testen sicherlich ja aber das heißt nicht, dass dies auch bei der Angabe der TDP eine Rolle spielt.
        Zitat Wiki: "Da jedoch Elektronik nicht angeschafft wird, um synthetische Testprogramme laufen zu lassen, sondern um Arbeit zu verrichten, orientieren sich manche Hersteller auch an praxisrelevanten Belastungsszenarien."

        Naja im Endeffekt denke ich, dass wir beide in Teilen recht haben und in Teilen falsch liegen.
        Leider habe ich keine Zeit noch weiter so ausführlich daüber zu diskutieren. Desswegen belasse ich es erstmal dabei. Falls du noch Quellen haben willst findet man das meiste recht schnell bei google. falls nich such ichs nochma raus...
        mfg jojo0077
      • Von Bucklew Gesperrt
        Zitat von jojo0077
        1:
        Zu dem Zeitpunkt als Nvidia den GT200b rausgebracht hat war der 55nm-Prozess schon lange auf dem Markt und ausgereift. Viel teurer als der 65nm-Prozess war er also sicher nicht.
        Fakt ist, dass ein GT200b deutlich günstiger ist als ein GT200!
        Wie teuer war denn ein GT200b und wie teuer ein GT200?

        Zitat von jojo0077
        Trotzdem kann man nicht sagen, dass der GT200 keine Rolle gespielt hätte. Entwicklung, Maskenherstellung etc. werden nicht billiger weil man weniger Chips verkauft und wenn man dann mit den wenigen Chips auch noch kaum Geld verdient bzw. vielleicht sogar noch draufzahlen muss geht das ganz schön ins Geld.
        Dafür war die Fertigung in 65nm ausgereift und Nvidia hat bei keinem einzigen GT200-Chip draufgezahlt. Dann hätten sie ganz andere Zahlen, die würden dann ungefähr so aussehen wie von AMD

        Zitat von jojo0077
        2:
        Vom operativen Gewinn hast du nicht gesprochen also liege ich völlig richtig damit wenn ich dich korrigiere und sage, dass Nvidia deutliche Verluste gemacht hat.
        Aber nur durch eine Einmalbelastung. Unterm Strich, also mit Herstellung von Grafikchips und deren Verkauf und dem Rest waren sie unterm Strich bei +/- 0. Und damit (trotz des eigentlich teureren Chips) finanziell deutlich besser als ATI.

        Zitat von jojo0077
        Die GTX295 ist keine doppelte GTX285 falls du das noch nicht weißt Von daher brauchst du mir nicht erzählen ich würde Milchmädchenrechnungen aufstellen.
        Vom Chip her ja. Der Chip entspricht einer GTX285 (240 Shader), mit SI der GTX260 und leicht reduzierten Taktraten.

        Zitat von jojo0077
        Was passiert wenn man eine "GTX285 X2" baut demonstriert die Asus Mars auf sehr eindrucksvolle Weise:
        Stromaufnahme in deinem geliebten und ach so realitätsnahen Furmark:
        472Watt! In Grid sind es immerhin noch genügsame 352Watt.
        Da ich davon ausgehe, dass du offensichtlich den PCGH-Test gelesen hast, hättest du auch den Satz mit der Spannung & Co mal lesen sollen.

        Asus betreibt nämlich die Mars mit 1,15V und nutzt keine selektierten Chips. Selbst mit nur 1,1V ist die Karte bereits stabil. Nur weil Asus zu blöd ist, ist das Nvidia nicht

        Zitat von jojo0077
        Eine GTX295 nimmt 208 bzw. 153 Watt auf. Das ist also sogar deutlich mehr als eine Verdoppelung (was zum Teil auch durch die 2/4GB kommen kann).
        Woran man sieht, dass es eben noch was anderes sein muss.

        Zitat von jojo0077
        Die TDP der GTX285 beträgt übrigens 183Watt soweit ich weiß. Man sieht also, dass auch Nvidia-Karten im Furmark über ihre TDP hinausschießen. Die GTX295 verbraucht dort 314Watt und liegt damit also auch überhalb der Specs.
        TDP ist "Thermal Design Power" und bezeichnet nur wieviel Wärme der Kühler im Maximalfall abführen muss. Mit dem Stromverbrauch hat das gar nichts zu tun.

        Zitat von jojo0077
        Das man Chips selektiert ist mir schon klar und ich werde auch nicht dagegen Wetten, dass es eine Dualkarte geben wird. Wenn sich allerdings die 225Watt TDP als wahr herausstellen sollten wird es mit Sicherheit keine Dualkarte davon geben mit maximaler Ausstattung.
        Nvidia wird dann wieder das SI beschneiden und die Taktraten nach unten schrauben müssen und das nicht zu knapp.
        Warum auch nicht? Der aktuelle Weg mit der schnellsten Singlechip GPU und einer dann in einigen Punkten leicht abgespeckten Dualchip-Lösung ist auf jeden Fall besser als die ATI Lösung mit einem langsameren Chip, der dann im Doppelpack für sehr hohe Verbrauchs-, Wärme-, und Lautstärkewerte sorgt. Und vom besseren ATI-Singlechip gibts ja bis heute kein Dualkarte (wirds wohl auch nie geben).

        Zitat von jojo0077
        5:
        Realitätsfern sind eben solche Anwendungen die mit dem alltäglichen, realen Anwendungsbild nichts zu tun haben. Da fällt Furmark auf jeden Fall rein.
        Realitätsnah sind also zum Beispiel alle möglichen Spiele, GPGPU-Anwendungen, CAD und was es noch so alles gibt.
        GPGPU-Anwendungen erreichen spielend die Auslastungen von Furmark. Und selbst wenn sie es nicht tun würde: Was macht man, wenn zwei Monate nach dem Release der Karte eine Anwendung erscheint, die ähnliche Belastungen erreicht? Ich kann dir garantieren, dass sowohl ATI als auch Nvidia mit dem Tool ihre Karten testen. Wären schön blöd, wenn sie es nicht tun würden.

        Zitat von jojo0077
        Wie auch oben schon erwähnt überschreiten außerdem auch Nvidia-Karten ihre TDP im Furmark und die TDP soll ja eben den Maximal möglichen Verbrauch in üblichen, realen Anwendungen widerspiegeln.
        TDP hat immer noch nichts mit den oben angegebenen Leistungsaufnahmen zu tun
      • Von jojo0077 Freizeitschrauber(in)
        1:
        Zu dem Zeitpunkt als Nvidia den GT200b rausgebracht hat war der 55nm-Prozess schon lange auf dem Markt und ausgereift. Viel teurer als der 65nm-Prozess war er also sicher nicht.
        Fakt ist, dass ein GT200b deutlich günstiger ist als ein GT200!

        Der GT200 war 7 Monate auf dem Markt bevor der GT200b kahm. Der GT200b ist jetzt gerade 8 Monate auf dem Markt wobei natürlich vom GT200b mehr verkauft wurden da dieser im Gegensatz zum GT200 konkurrenzfähig ist.
        Trotzdem kann man nicht sagen, dass der GT200 keine Rolle gespielt hätte. Entwicklung, Maskenherstellung etc. werden nicht billiger weil man weniger Chips verkauft und wenn man dann mit den wenigen Chips auch noch kaum Geld verdient bzw. vielleicht sogar noch draufzahlen muss geht das ganz schön ins Geld.

        2:
        Vom operativen Gewinn hast du nicht gesprochen also liege ich völlig richtig damit wenn ich dich korrigiere und sage, dass Nvidia deutliche Verluste gemacht hat.

        3:
        Die GTX295 ist keine doppelte GTX285 falls du das noch nicht weißt Von daher brauchst du mir nicht erzählen ich würde Milchmädchenrechnungen aufstellen.
        Was passiert wenn man eine "GTX285 X2" baut demonstriert die Asus Mars auf sehr eindrucksvolle Weise:
        Stromaufnahme in deinem geliebten und ach so realitätsnahen Furmark:
        472Watt! In Grid sind es immerhin noch genügsame 352Watt.

        Die Karte überhitzt trotz 9,9Sone Lautheit. Die ist mit normalen Kühlmethoden schlichtweg nicht kühlbar.

        Eine GTX295 nimmt 208 bzw. 153 Watt auf. Das ist also sogar deutlich mehr als eine Verdoppelung (was zum Teil auch durch die 2/4GB kommen kann).
        Die TDP der GTX285 beträgt übrigens 183Watt soweit ich weiß. Man sieht also, dass auch Nvidia-Karten im Furmark über ihre TDP hinausschießen. Die GTX295 verbraucht dort 314Watt und liegt damit also auch überhalb der Specs.

        4:
        Das man Chips selektiert ist mir schon klar und ich werde auch nicht dagegen Wetten, dass es eine Dualkarte geben wird. Wenn sich allerdings die 225Watt TDP als wahr herausstellen sollten wird es mit Sicherheit keine Dualkarte davon geben mit maximaler Ausstattung.
        Nvidia wird dann wieder das SI beschneiden und die Taktraten nach unten schrauben müssen und das nicht zu knapp.

        5:
        Realitätsfern sind eben solche Anwendungen die mit dem alltäglichen, realen Anwendungsbild nichts zu tun haben. Da fällt Furmark auf jeden Fall rein.
        Realitätsnah sind also zum Beispiel alle möglichen Spiele, GPGPU-Anwendungen, CAD und was es noch so alles gibt.

        Wie auch oben schon erwähnt überschreiten außerdem auch Nvidia-Karten ihre TDP im Furmark und die TDP soll ja eben den Maximal möglichen Verbrauch in üblichen, realen Anwendungen widerspiegeln.
        Da der Furmark allerdings absolut realitätsfern ist und von keinem anderen Programm ähnliche Belastungen erzeugt werden wird der Furmark eben bei der TDP auch nicht berücksichtigt. Weder von Nvidia noch von AMD.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
694291
Grafikkarten
Fünf Klassen
Fudzilla will die Namen der Leistungsklassen kommender AMD-Evergreen-Grafikkarten mit DirectX-11-Unterstützung von internen Quellen bestätigt bekommen haben.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Fuenf-Klassen-694291/
04.09.2009
http://www.pcgameshardware.de/screenshots/medium/2009/07/AMD-ATI-RADEON-RV870-DirectX-11.png
radeon,directx 11
news