Online-Abo
  • Login
  • Registrieren
Games World
  • ISSCC: Intel zeigt Projekte für mehr Energieeffizienz, Sicherheit und neuen Speicher

    Auf der International Solid-State Circuits Conference, kurz ISSCC, zeigt der Prozessorhersteller Intel unter anderem einige Projekte aus seiner Forschungsabteilung, die sich den Themen Energieeffizienz, Speicher und Sicherheit widmen: Grafikkerne mit besonders niedriger Spannung, physische Sicherheitsmerkmale auf dem Chip selbst, ein schneller Interconnect und neue Speichercontroller für DDR4/GDDR5 sowie weitere Speichertypen.

    Im Rahmen einer vorab ausgerichteten telefonischen Informations-Konferenz stellten der Leiter der Intel Labs, Dr. Wen-Hann Wang, und der leitende Projektingenieur Vivik De fünf ausgewählte Projekte vor, die Intel im Rahmen der ISSCC präsentieren wird. Die Themenschwerpunkte sind dabei im Bereich Energieeffizienz angesiedelt, behandeln aber auch Sicherheitsfragen. Folgende fünf Projekte stellte Intel für die ISSCC vor. Man betonte allerdings ausdrücklich, dass alle Projekte derzeit Forschungscharakter hätten und nicht direkt in einer Produkt-Roadmap eingeplant wären.

    Near Threshold Voltage - eine SIMD-Engine wurde bereits auf dem Herbst-IDF 2013 gezeigt Near Threshold Voltage - eine SIMD-Engine wurde bereits auf dem Herbst-IDF 2013 gezeigt Quelle: PC Games Hardware

    Grafikkerne mit NTV

    Energy-Efficient Graphics Execution Core Energy-Efficient Graphics Execution Core Quelle: PC Games Hardware Bereits auf vergangenen IDFs zeigte Intel Demonstrationen mit sogenannter NTV - Near Threshold Voltage. Darunter versteht man Spannungen an der unteren Grenze, bei der Transistoren überhaupt noch schalten. Der Grafikkern für die diesjährige ISSCC wurde in 22 nm Tri-Gate-Technik gefertigt und ist damit auf demselben Stand wie Intels aktuelle Prozessorreihen. Im Gegensatz zu früheren NTV-Demos wurde hier die extrem niedrige Spannung nicht nur auf den Rechenkern selbst, sondern etwa auch auf umgebende Register-Files ausgedehnt. Mithilfe eines speziellen Stat-Retention-Flop war es möglich, dass die Umschaltzeiten zwischen Betriebs- und Leerlaufspannung samt des dazugehörigen, unvermeidlichen vDroops zu minimieren, ohne dass man unter die jeweils gültige Grenzspannung fällt.

    Praktisch bedeutet das für den neuen Kern, dass er auch in extrem kurzen Phasen seine Spannung senken und in den Ruhemodus umschalten kann. Zuvor war das nicht möglich, da mit jedem State-Wechsel auch der Zustand der Maschine gesichert werden hätte müssen und dies jedesmal einen zusätzlichen Verwaltungsaufwand und eine Aufwachverzögerung bedeutet hätte. Der Ruhemodus war daher nur sinnvoll, wenn wirklich - für Schaltkreise - längere Zeit nichts zu tun anstand. Der demonstrierte Grafikkern kann in wenigen zehn Nanosekunden ("tens of nanoseconds") seine Taktungen ändern, allerdings wird dabei der taktgebende PLL in dieser Technik-Demo am Laufen gehalten, was dem Energiespargedanken noch zuwider läuft.

    Konkrete Zahlen nannte Intel auch: Der State-Retention-Flop ermöglicht 10-fach geringere Leckströme, die Rechenleistung pro Watt steigt dank der besonders niedrigen Spannung um Faktor 2,7 und insgesamt kann der 3,38 mm² winzige Testchip so bei einer Minimalspannung von 0,38 Volt und 100 MHz dank zweigleisiger Spannungsversorgung und adaptiver Taktung ein um 40 Prozent höhere Rechenleistung pro Watt erreichen, als ohne diese Techniken.

    PUF on-Chip

    Physically Unclonable Function Physically Unclonable Function Quelle: PC Games Hardware "Puff" klingt zunächst komisch, bedeutet aber für Sicherheitsaspekte so etwas wie der heilige Gral. Mit der Physically Unclonable Function, dafür steht PUF, wird ein zufälliges Bit-Muster erzeugt, welches als wesentlichen und eben nicht veränderbaren Bestandteil die physikalischen Eigenschaften jedes individuellen Chips nutzt. Die Schwierigkeit besteht nun darin, aus dem zufällig-rauschenden PUF-Feld auf einem Chip stabile, von Spannung und Temperatur sowie Prozessvariationen unabhängige Werte zu erzeugen, die wiederum gerätespezifische, verlässliche Verschlüsselung ermöglichen. Bei der ersten Inbetriebnahme während des Funktionstests beim Hersteller wird dazu ein nicht mehr veränderbarer Golden Key erzeugt und in einer Sicherung abgelegt - mit dem sich auch unter ändernden Temperaturbedingungen, verschiedenen Spannungen und zunehmendem Alter des Chips die Verschlüsselung sicher authentifizieren lässt. Intels Test-Umgebung - abermals in 22 nm Tri-gate hergestellt - erreicht ab Werk und ohne weitere Korrekturmaßnahmen eine 70 Prozentige Quote stabiler Bits bezogen auf 50.000 PUF-Bits. Dank verschiedener Algorithmen und Abgleichsverfahren wie TMV15, Burn-in-Tests und sogenannten Dark Bits kommen die Forscher am Ende des Prozesses auf lediglich 0,97% Bit-Fehler - bei 50.000 Zufalls-Bits.

    16x16 Network-on-a-Chip mit 20,2 TBit/s

    16x16-Node Network on Chip 16x16-Node Network on Chip Quelle: PC Games Hardware Auf dem Weg zum Exascale-Computer, an dem die Forschungsabteilungen des halben Silicon Valley mit Hilfe der US-Regierung forschen, spielt ein effizienter Datentransport nicht nur zwischen den Rechenknoten sondern gerade auch innerhalb eines Many-Core-Chips eine, wenn nicht die entscheidende Rolle. Denn schon heute ist die Energie, welche für den Transport der Daten aufgewendet werden muss, deutlich höher als die für die eigentliche Berechnung benötigten (Pico) Joule. Networks-on-a-Chip, kurz NoC, sind daher wichtig für das Vorankommen bei schnellen Chips. Schwierigkeiten dabei sind vor allem die Taktungssynchronität über größere Silizium-Dies (Clock Distribution) oder die ersatzweise nötigen FIFO-Buffer (First-In-First-Out), welche aber wiederum Die-Fläche und Energie verbrauchen.

    Mittels kombinierter Packet- und Circuit-Switching Technik können die Intel-Forscher in einem 16x16-Netz sowohl die hohe Geschwindigkeit von Packet-basierten Netzen als auch die Energieeffizienz von Circuit-Switches kombinieren. Man kommt so ein einem 16x16-Setup auf 20,2 TBit/s bei 0,9 Volt Spannung. Gleichzeitig wird die Latenz niedrig gehalten und die Energieeffizienz verbessert. Beim Betrieb im Near-Threshold-Voltage-Bereich von 0,43 Volt erreicht man gar 18,3 TBit pro Sekunde pro Watt. Niedrigstenfalls arbeiten die im Testchip in 22-nm-tri-Gate-CMOS-Technik hergestellten Testchips gar mit nur 0,34 Volt. Dabei "verbraucht" man nur ein Neuntel des Stroms im Vergleich zum Betrieb bei Nominalspannung.

    Scalable Plattform I/O - für die Zeit nach USB 3

    Scalabe & Wide-Range Platform I/O Scalabe & Wide-Range Platform I/O Um auch verschiedene Geräte untereinander oder mit einem Rechner verbinden zu können, braucht es für die Generation nach USB 3 einen neuen seriellen Standard, der zudem nicht viel kosten darf, um kommerziell einsetzbar zu sein. Um die 32 GBit/s sind im Gespräch für die Next-Gen-Anbindung schneller Peripherie. Um die Kosten gering, die Skalierbarkeit aber hoch zu halten, arbeiten die Forscher bei Intel mit Taktverdopplung bei den Sendern bzw. Vervierfachung im Falle der Empfänger. Je acht Leitungen sind ein einem abgeschirmten Kabel als Twisted-Pair inklusive Abschirmung enthalten. Jeweils vier davon sind in einem sogenannten Bundle gruppiert und teilen sich das Takterzeugungssignal. Um auf die Vierfach-Rate zu kommen, wird das Signal nach dem DLL mit zwei multipliziert. Die nur run 0,32 mm² winzigen Transceiver-Gruppen kommen mit 205 Milliwatt (ohne PLL gemessen) für einen 32-GBit/s-Transfer auf. Im Optimalfall bei allerdings nur mehr 4 GBit/s sprechen die Intel-Forscher von nur noch 1 Pico-Joule pro Bit an Energie, die in den Transceivern anfallen.

    Scalable Memory Interface für DDR4, GDDR5 und mehr

    Scalable & Configurable Memory Interface Scalable & Configurable Memory Interface Quelle: PC Games Hardware Last but not least kommen wir zum Thema Speicherinterface. Die Spatzen pfeifen es von den Dächern, DDR4 steht in den Startlöchern für Haswell-E und auch GDDR5 wird bereits in Xeon-Phi-Produkten von Intel genutzt - doch für die Zukunft braucht man auch hier effizientere und gleichsam schnellere Lösungen. Differentielle Signalübertragung heißt hier das Zauberwort, welches zudem in die neuen Speichercontroller integriert werden soll.

    Damit wollen die Intel-Labs mit einem einzigen Speichercontroller sowohl den (demnächst) Massenmarkt mit DDR4 und den Transferraten-intensiven Grafikbereich mit GDDR5 als auch künftige, voll gepufferte Speichertechniken unterstützen. Die Controller bestehen dabei - ähnlich wie auch im Scalable Platform I/O - aus vier Transceiver-Lanes, die sich die PLL-/DLL-Schaltungen sowie die XOR-Frequenz-Multiplikatoren teilen. Man verzichtet zudem auf linearisierende Resistoren, sodass lediglich aktive Elemente im Controller vorhanden sind, was der Effizienz zugute kommt. Der DDR-Modus (für DDR4 und GDDR5) sowie der HSD-Modus (High Speed Differential Signalling) teilen sich die meisten Schaltungen bis zur Treiberstufe. Nach dieser gibt es unterschiedliche Anforderungen der beiden Modi, sodass sich hier die Schaltungen unterscheiden müssen.

    Die erreichbaren Schaltgeschwindigkeiten, bei denen die Signalqualität noch für eine Übertragung ausreicht, liegen (pro Lane!) bei 6,4 GBit/s für den DDR4-Modus im Dual-Channel-Betrieb (Dual-TX) und dem doppelten, also 12,8 GBit/s für GDDR5. Im HSD-Modus lässt sich nochmals eine Verdopplung erreichen, sodass ingesamt 25,6 GBit/s übertragen werden können. An Energie werden im DDR4-Betrieb 2,5 Pico-Joule pro Bit, im GDDR5-Modus 2,2 Pico-Joule pro Bit und im HSD-Betrieb gar nur 1,1 Pico-Joule pro Bit benötigt.

    In 22 nm-Technik (wiederum: Tri-Gate, CMOS) sollen die Dual-Mode Transceiver lediglich 135 x 40 Mikrometer groß sein. Dabei handelt es sich natürlich nicht um den gesamten Speichercontroller. Die Vier-Lane-Version inklusive DLLs, Frequenz-Multiplikatoren usw. belegt eine um rund Faktor 45 größere Fläche.

    Wissenswert: Mehr Informationen zum Thema finden Sie in:
    AMD Zen ab 2017: Alles zu Release-Termin, CPU-Sockel, technische Daten [Update]
  • Stellenmarkt

    Es gibt 14 Kommentare zum Artikel
    Von Gary94
    Eine Technik die ich irgendwo mal gelesen habe vermisse ich aber: Die nächste Prozessor Generation, also Broadwell…
    Von ruyven_macaran
    Und ein paar Einschätzungen, wie praxisnah die jeweiligen Projekte sind und wo sie im Vergleich zur verfügbaren…
    Von Rollora
    Hochtrabend? Wo ist man hier hochtrabend?Aufgrund des mangelnden Konkurrenzdrucks im Performance/Highendbereich hat…
    Von DannyL
    Den Investoren, Analysten und Börsianern reicht jedoch so ein hochtrabender "Kram" um die Erwartungen nicht ins…
    Von Rollora
    das war auch meine Frage im Kopf: ob durch die zusätzliche Optimierung im NTV Bereich, die Leistung wenn es darauf…
      • Von Gary94 Freizeitschrauber(in)
        Eine Technik die ich irgendwo mal gelesen habe vermisse ich aber: Die nächste Prozessor Generation, also Broadwell soll, wenn der PC, Laptop, Tablet, was auch immer gerade im Idle ist und sich am Monitor nichts bewegt, den Bildschirm quasi "Einfrieren" und nur das eine Frame am Monitor ausgeben. Gleichzeitig kann daher der Monitor auf 1 Hz zurückstufen anstatt 60 und somit Strom sparen.
        Realisiert wird das mithilfe eines kleinen Speichers beim Monitor und daraus wird dann das eine Frame geladen, anstatt es neu anzufordern.
        Inwiefern das dann tatsächlich verbaut wird, wird sich zeigen. Wäre zumindest eine kluge Idee. Ich hoffe aber auch, dass in der Monitor Entwicklung was voran geht, denn Monitore sind meiner Meinung nach die größten Stromfresser. Dann noch die Akkus weiterentwickeln und man hat den perfekten Laptop für unterwegs.
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Zitat von Kleebl00d
        Es war Heisenberg
        "Wenn man etwas nicht auf Anfängerniveau erklären kann, hat man es selbst nicht verstanden"

        Prinzipiell finde ich es löblich, dass hier so auf hohem fachlichen Niveau geschrieben wurde, aber ein paar zusätzliche Erläuterungen (oder Wikipedia-like: möglicherweise unbekannte Wörter - draufklicken, weiterlesen) hätten dem Text an mancher Stelle echt gut getan.

        Und ein paar Einschätzungen, wie praxisnah die jeweiligen Projekte sind und wo sie im Vergleich zur verfügbaren Techniken stehen. Sparsame Chips erklären sich ja noch von selbst. Aber ein leistungsfähiger Interconnect? Ich weiß nicht, wieviel Bit/s*W der aktuelle Ringbus schafft. Und aus dem Artikel kann ich nicht einmal lesen, ob die neue Verschaltung dessen Leistungsniveau anpeilt - oder eins weit darüber oder eins weit darunter. "niedrige Latenzen" und "hohe Effizienz" sind schließlich nicht immer das gleiche. Und z.B. für einen potentiellen USB-Nachfolger wäre es vor allen Dingen interessant, wer alles beteiligt ist und mit was für Kabeln man welche Längen erreichen wird. Nicht wie viel Fläche der Controller belegt (in einem nicht angegeben Produktionsprozess...). Die bei der Angabe "Leistung pro Lane" für einen Speichercontroller stehe ich auch auf dem Schlauch - wie groß ist denn so eine Lane? 8/16/32/64/128 Bit ?
      • Von Rollora Lötkolbengott/-göttin
        Zitat von DannyL
        Den Investoren, Analysten und Börsianern reicht jedoch so ein hochtrabender "Kram" um die Erwartungen nicht ins bodenlose fallen zu lassen. Auch wenn AMD nicht viel dagegen zu setzen hat, Intel ist noch immer börsennotiert und ist darauf angewiesen, dass sie weiter vorran gehen.
        Hochtrabend? Wo ist man hier hochtrabend?
        Aufgrund des mangelnden Konkurrenzdrucks im Performance/Highendbereich hat Intel halt jetzt seine Milliarden vermehrt auf den Embedded und Mobile-Computing Bereich verschoben. Was man hier sieht sind Chips und Techniken wie sie später mal in einer smarten Armbanduhr oder einem Handyprozessor, oder diversen Embedded Solutions zu sehen sein werden. Die Hoffnung, dass wirs im Normalen Desktop bald mal sehen werden, habe ich noch nicht, schließlich kriegen wir noch nichtmal die sinnvollen Laptoptechniken ordentlich transportiert: das automatische Wechseln zwischen iGPU (etwa die HD 3000) und im Spiel dann auf eine richtige GPU - dafür gibts immer noch keinen Standard, obwohls bei Laptops so schön hinhaut.
        Zitat von DannyL

        Aber zurück zum Thema, Strom sparen ist gut, weiter dran bleiben. Dann reicht vielleicht irgendwann eine AA-Batterie für nen High-End-PC, wobei das immer ein Wunschtraum bleiben wird.
        Die Leistung eines derzeitigen Highend-ÜCs mit einer AA Batterie betrieben wird es wohl in einigen Jahren mal geben (10-15) - somit also kein reiner Wunschtraum.
        Ob man dann einen Highend-PC so betreiben wird? Wohl kaum. Das würde ja dann das ganze "Highend" ad absurdum treiben. Für Highend soll man ja viele verschiedene, hochwertige und teure Komponenten benötigen, um sich vom Lowend abzuheben.
        Damit du also irgendwas nur mit AA Betterien (oder ähnlichem) Betreiben kannst und trotzdem ein "Highend" Gefühl haben kannst, gibts also 2 Möglichkeiten: Cloud Gaming oder noch vieeeel länger als 15 Jahre warten. Schließlich wird die Industrie, selbst wenns technisch Möglich wäre, etwas dran setzen, dass man auch weiterhin Netzteile um 300€ verkaufen kann, Mainboards um ähnliches usw usf. Also das Highend-System-On-A-Chip wird irgendwann mal möglich, aber wohl nicht so realisiert bzw noch nicht so bald.
      • Von DannyL Komplett-PC-Aufrüster(in)
        Zitat von da_exe
        Interessant, auch wenn ich nich mal die Hälfte verstanden hab

        Den Investoren, Analysten und Börsianern reicht jedoch so ein hochtrabender "Kram" um die Erwartungen nicht ins bodenlose fallen zu lassen. Auch wenn AMD nicht viel dagegen zu setzen hat, Intel ist noch immer börsennotiert und ist darauf angewiesen, dass sie weiter vorran gehen.

        Aber zurück zum Thema, Strom sparen ist gut, weiter dran bleiben. Dann reicht vielleicht irgendwann eine AA-Batterie für nen High-End-PC, wobei das immer ein Wunschtraum bleiben wird.
      • Von Rollora Lötkolbengott/-göttin
        Zitat von Gary94
        Ich frag mich ob bei den Grafikkern mit NTV auch die Leistung beeinträchtigt wird?
        das war auch meine Frage im Kopf: ob durch die zusätzliche Optimierung im NTV Bereich, die Leistung wenn es darauf ankommt (also wenn Stromsparen grad nicht nötig ist) etwas beeinträchtigt.
        Kann man so beantworten (Intel nennt ja keine reinen Zahlen, nur relative Werte, und die beziehen sich nicht auf den Performancemodus):
        Klar ist, dass wenn man die Arbeit die man in den NTV Bereich investiert hätte, unterm Strich mehr Performance rauskommen würde. Denn alle Techniken, Transistorfläche usw die man investiert um NTV möglich zu machen, wären natürlich auch im Performancebereich gut aufgehoben. Die Frage ist eher: wieviel Leistung pro die-fläche/Watt(im Performancemodus bzw bei voller Leistung) usw verliert man bzw wäre noch drin gewesen.
        Wieviel Leistung noch drin gewesen wäre, lässt sich am ehesten mit der RAM-Limitierung beantworten, AMD hat ja mit den APUs schon gezeigt, dass man hier schön langsam am Limit ist (gut Intel zeigt dies auch mit ihrer eDram Lösung)
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1108659
CPU
ISSCC: Intel zeigt Projekte für mehr Energieeffizienz, Sicherheit und neuen Speicher
Auf der International Solid-State Circuits Conference, kurz ISSCC, zeigt der Prozessorhersteller Intel unter anderem einige Projekte aus seiner Forschungsabteilung, die sich den Themen Energieeffizienz, Speicher und Sicherheit widmen: Grafikkerne mit besonders niedriger Spannung, physische Sicherheitsmerkmale auf dem Chip selbst, ein schneller Interconnect und neue Speichercontroller für DDR4/GDDR5 sowie weitere Speichertypen.
http://www.pcgameshardware.de/CPU-Hardware-154106/News/ISSCC-Intel-zeigt-Projekte-fuer-mehr-Energieeffizienz-Sicherheit-und-neuen-Speicher-1108659/
09.02.2014
http://www.pcgameshardware.de/screenshots/medium/2014/02/NTV_SIMD_engine_IDF2013-pcgh_b2teaser_169.jpg
news