Online-Abo
  • Login
  • Registrieren
Games World
      • Von MESeidel PCGH-Community-Veteran(in)
        Zitat von Sentionline007
        Wofür man den Chip doch missbrauchen könnte, wäre ein Hardware Threadteiler. Müsste nicht mehr in Software geschehen und man hätte eine bessere Auslastung aktueller 8 Cores
        Threads kann man nicht in Hardware "teilen".
        Entweder das Programm ist multi Thread geschrieben oder nicht.
        Ein Programm startet weitere Threads immer von sich aus.
        Nur der Programmierer kann wissen, welche Operationen unabhängig parallel arbeiten können.
        Wenn Hardware (oder das Betriebssystem) in irgend einer Weise einen Teil des Programmablaufes früher startet (auf dem 2. Kern) dann wird dem Ablauf das Ergebnis des ersten Teils fehlen.
        Im besten Fall sind fall back Variablen und Try-Catch Routinen implementiert.
        Dann gibt es nur ein falsches Ergebnis.
        Ansonsten stürzt das Ganze ab.

        Als Beispiel eine Simple Anwendung.
        Eine Zahl wird jede Sekunde um 1 erhöht, bis der Nutzer einen Button drückt.
        Dann kommt ein PopUp und zeigt die Zahl an.
        Shematisch:

        10 wenn wieder 1000ms vergangen: geheZu 30
        20 geheZu 10
        30 _zahl += 1
        40 wenn button gedrückt: geheZu 60
        50 geheZu 10
        60 popup _zahl

        wenn ein zweiter Thead bei 10 - 50 startet, laufen plötzlich zwei Timer und die Zahl wird immer um 2 erhöht.
        (ganz abgesehen davon dass hier Speicherraum Verletzungen auftreten!)
        Wenn er bei 60 einspringt passiert, was eigentlich nur auf Nutzeringabe hätte passieren sollen.

        [EDIT]
        Das Beispiel lässt sich sehr wohl parallelisieren.

        a10 starte Thread: b
        a20 wenn button gedrückt: geheZu a40
        a30 geheZu a20
        a40 stoppe thread: b
        a50 popup _zahl aus b

        b10 wenn wieder 1000ms vergangen: geheZu b30
        b20 geheZu b10
        b30 _zahl += 1
        b40 geheZu b10

        Der Nutzen scheint zunächst gering.
        Mal angenommen:
        - in Zeile 15 bzw. a25 würde eine funktion stehen, die den aktuellen Wert der _zahl auf dem Bildschirm anzeigt
        - die Berechnung _zahl += 1 wäre sehr komplex.
        dann würde bsp. 1 in Zeile 30 hängen bleiben, aber bsp. 2 regelmäßig den aktuellen Wert (Zwischenergebnis falls noch gerechnet wird) anzeigen.
      • Von kbyte Freizeitschrauber(in)
        Zitat von Gamersware
        erst 2012 soll USB3 integriert werden?
        Bei AMD zum Beispiel gibt es doch hierfür auch keinen konkreten Plan (Stichwort "Zugzwang"), abgesehen davon, dass die meisten Boards ohnehin mit Zusatzcontroller ausgeliefert werden.

        Zitat von Gamersware
        Larrabee kommt nicht für den Konsumer-Bereich?
        Wozu auch, wenn es weder marktreif noch performant ist.

        Zitat von Gamersware
        TDP der CPU seit Jahren auf hohem Niveau, die Leistungssteigerung geht mit bleibender Verlustleistung überein?
        Dann Vergleich doch bitte mal die Rechenleistung bspw. eines Pentium 4 EE mit einem Core i7-980X, wo letzterer bei der TDP vlt. ca. 20 Watt mehr aufnimmt... O.o Für alles andere gibt es in Intels Produktportfolio ULV-CPUs oder den Atom, was so ziemlich deinem Kritikpunkt widerspricht...
      • Von Sonnendieb Komplett-PC-Aufrüster(in)
        Zitat von Gamersware

        TDP der CPU seit Jahren auf hohem Niveau, die Leistungssteigerung geht mit bleibender Verlustleistung überein?
        AMD´s CPU haben so ziemlich den gleichen TDP

        anonsten schliess ich mich ganz und gar Sentionline007 an
      • Von Gamersware PC-Selbstbauer(in)
        Intel ist langsam bei mir durch,
        erst 2012 soll USB3 integriert werden?
        Larrabee kommt nicht für den Konsumer-Bereich?
        TDP der CPU seit Jahren auf hohem Niveau, die Leistungssteigerung geht mit bleibender Verlustleistung überein?
        Erinnert mich irgendwie an einen sterbenden Elefanten...
      • Von Sentionline007 Freizeitschrauber(in)
        Zitat von Rollora
        außerdem brauchts dafür nicht 50 sondern einen kern.
        Sagt wer?

        Zitat von Rollora
        Warum soll man das erst wieder zuerst auf 50 Teile aufteilen (die Arbeitslast/Berechnungen) um für 4 Kerne die Aufgaben zu verteilen?
        Oder umgekehrt, mir doch egal wie die das machen. Hauptsache wir profitieren irgendwann von der forschung/entwicklung und haben nicht irgendwann Rechner die 32 Kerne haben die alle auf 10% unter Last arbeiten. Warum nicht 30 abschalten und 2 volle pulle laufen lassen? Auserdem 1 Kern des Larabee bestimmt nicht schneller als 1 Kern eines i7, deshalb mein Gedanke. Der Chip könnte ja auch andere aufgaben übernehmen, sodas wir bald ein Rechenzentrum im Hosentaschenformat haben.

        Ach die machen das schon, bin kein Physiker/Mathematiker.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
749603
Grafikkarten
Larrabee ist tot
Bekanntermaßen wird es keine Larrabee-Grafikkarten für Desktop-PCs geben. Als Intel Many Integrated Core Architecture (MIC) lebt das Projekt allerdings im Bereich High-Perfomance-Computing weiter.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Larrabee-ist-tot-749603/
10.06.2010
http://www.pcgameshardware.de/screenshots/medium/2010/06/Intel-Larrabee-MIC-04.jpg
intel,youtube,larrabee
news