NVIDIA GeForce GTX 675M SLI vs NVIDIA GeForce GTX 680MX

NVIDIA GeForce GTX 675M SLI

► remove NVIDIA GeForce GTX 675M SLI

Die NVIDIA GeForce GTX 675M SLI ist eine High-End Grafiklösung für Laptops welche auf zwei "Fermi" Chips (GF114) basiert. Die beiden Grafikkarten werden durch eine SLI Bridge verbunden und rendern normalerweise abwechselnd ein Bild (AFR). Dadurch kann es auch zu Mikrorucklern kommen (ungleichmäßige Abstände zwischen zwei Bildern führen zu spürbaren Rucklern trotz flüssiger fps Raten von etwa 30 fps). Die GTX 675M SLI unterstützt DirectX 11 und braucht sehr viel Strom (2x 100 Watt für das gesamte Board inkl 2GB GDDR5) und kommt daher nur in großen und schweren DTR Notebooks zum Einsatz. Die GTX 675M ist auch als SLI-Lösung exakt identisch mit der GTX 580M.

Im Gegensatz zur GeForce GTX 485M basiert jede einzelne GTX 675M auf dem auf Stromverbrauch optimierten GF114 Chip und nicht mehr dem GF104. Die Architektur und Performance pro MHz ist dadurch nicht betroffen, jedoch sind nun höhere Taktfrequenzen bei vergleichbarem Stromverbrauch möglich. Der GF114 basiert auf der Fermi Architektur und bietet im Vollausbau 384 Kerne, 64 Textur-Einheiten (TMUs) und 32 Raster-Operations-Einheiten (ROPs). Mehr Informationen zur Architektur des ähnlichen GF104 finden Sie auf der Seite der GeForce GTX 485M.

Die Grafikleistung der 675M SLI liegt dank der höheren Taktraten etwas oberhalb der 485M SLI und auf einem Niveau mit der GTX 580M SLI. Dadurch kann man anspruchsvolle Spiele wie Crysis 2, Dirt 3 oder Metro 2033 in 1920x1080 und hohen Details flüssig spielen. Die meisten Spiele sind auch mit Antialiasing und maximalen Details flüssig darstellbar.

Wie auch die GeForce 300M Serie, bietet die Geforce GTX 675M PureVideo HD mit dem VideoProcessor 4 (VP4) und VDPAU Feaure Set C. Dadurch kann die Grafikkarte HD Videos in H.254, VC-1, MPEG-2 und MPEG-4 ASP vollständig dekodieren ohne den Prozessor zu belasten. Mittels Flash 10.1 können auch Flash Videos GPU unterstützt wiedergegeben werden.

Eine Neuheit des GF114 Chips im Vergleich zum GF100 (GTX 480M) ist die Unterstützung der Bitstream Übertragung von HD Audio (Blu-Ray) per HDMI Anschluss. Wie die Radeon HD 5850, kann die GTX 675M Dolby True HD und DTS-HD per Bitstream ohne Qualitätsverlust an einen geeigneten Receiver übertragen.

Die Rendering Cores der Nvidia GeForce GTX 675M können dank CUDA und DirectCompute Unterstützung auch für generelle Berechnungen (z.B. das Encodieren von Videos) verwendet werden. Weiters kann man mittels PhysX die Rechenkerne für Physikberechnungen einsetzen. So kann man z.B. eine Grafikkarte dediziert für PhysX abstellen und die zweite Karte des SLI Verbunds berechnet die Grafikausgabe.

Im Vergleich zu Desktop Grafikkarten, ist die GeForce GTX 675M SLI vergleichbar mit zwei GeForce GTX 560Ti im SLI Modus. Die 560Ti ist jedoch deutlich höher getaktet und dadurch schneller. 

NVIDIA GeForce GTX 680MX

► remove NVIDIA GeForce GTX 680MX

Die NVIDIA GeForce GTX 680MX ist eine mobile, DirectX 11 fähige Grafikkarte der High-End-Klasse, welche speziell für den Einsatz in Apples iMac vorgesehen ist. Sie basiert wie die GTX 680M auf dem GK104-Chip der Kepler-Architektur (28-nm-Prozess), bietet allerdings statt 1344 alle 1536 1D-Shader. Die Kerntaktrate ist mit 720 MHz jedoch identisch. Der Speichertakt (GDDR5) wurde von 900 auf 1.250 MHz (5.000 MHz effektiv) angehoben, wodurch die Speicherbandbreite von 115.2 auf 160 GB/s steigt.

Architektur

Mit Kepler löst Nvidia die bisherige Fermi-Architektur ab, die unter anderem bei verschiedenen Chips und Modellen der GeForce-500M-Serie zum Einsatz kam. Der GK104 verfügt als Kepler-Chip über 8 Shader-Blöcke mit je 192 CUDA Cores, die vom Hersteller mit dem Kürzel SMX bezeichnet werden. Bei der 680MX sind alle 8 aktiviert. Zwei SMX bilden zusammen mit zwei Polymorph Engines und einer gemeinsamen Raster Engine einen sogenannten GPC (Graphics Processing Cluster). Da die Shader keine eigene Takt-Domain mehr besitzen (Hot Clock), entspricht die Rechenleistung in etwa der Hälfte der Einheiten der Fermi-Architektur mit doppelter Taktrate. Diese Änderung ist einer der Gründe dafür, dass sich laut Nvidia die Energieeffizienz gegenüber dem Vorgänger verdoppelt hat. Auch die Tesselations-Leistung soll - speziell bei hohen Faktoren - noch einmal deutlich verbessert worden sein.

Als weitere Neuerungen werden zudem erstmals PCIe 3.0 sowie ein noch nicht näher bezeichneter, optionaler Turbo-Modus unterstützt. Dieser kann - ausreichende Kühlungsreserven vorausgesetzt - die Kerntaktrate um bis zu 15 Prozent anheben. Da der Turbo vom BIOS gesteuert wird, steht er, falls vom Notebook-Hersteller implementiert, unabhängig vom Betriebssystem zur Verfügung.

Leistung

Die Grafikleistung sollte durch die zusätzlichen Shadereinheiten sowie den deutlich gesteigerten Speichertakt um etwa 15 bis 25 Prozent oberhalb der GTX 680M liegen. Die GTX 680MX ist damit die schnellste mobile Grafikkarte (wenn auch nur in Apples iMac eingesetzt) und sollte das Niveau einer Desktop GTX 580 erreichen. Nahezu alle Spiele des Jahres 2012 sind damit in maximalen Einstellungen und hoher Auflösung flüssig spielbar.

Battlefield 3 zum Beispiel war in der nativen Auflösung mit 30 fps (Ultra Settings ) in unserer Benchmarksequenz noch flüssig spielbar. Für Multiplayergefechte empfiehlt sich jedoch auf Antialiasing zu verzichten, oder auf 1920x1080 (45 fps) zurückzuschalten.

Features

Das aktualisierte Featureset umfasst nun die Unterstützung von bis zu 4 aktiven Displays (mit Optimus u.U. weniger), die mit einer maximalen Auflösung von 3840 x 2160 Pixeln zum Beispiel über DisplayPort 1.2 oder HDMI 1.4a angesteuert werden können. HD-Audio-Formate wie Dolby True HD und DTS-HD lassen sich als Bitstream an einen geeigneten Receiver senden. Wie in der Vergangenheit kann jedoch auch weiterhin 3D Vision nicht mit Optimus-Unterstützung kombiniert werden.

Der HD-Videoprozessor der fünften Generation (VP5) wurde vom GF119-Chip übernommen. Dieser kann die Formate MPEG-1, MPEG-2, MPEG-4, H.264 und VC1/WMV9 bis zu einer Auflösung von 4k decodieren und somit den Prozessor entlasten. Auch zwei parallele Streams, beispielsweise für Picture-in-Picture bei einer Blu-Ray, sind möglich. Eine weitere Neuerung ist die Integration eines dedizierten Videoencoders ähnlich Intels Quick Sync, der über die NVENC-API angesprochen werden kann.

Gegenüber der GTX 680M (100 Watt) dürfte die Leistungsaufnahme weiter angestiegen sein, was die Kühlung der Grafikkarte erschwert. Bislang ist uns kein Hersteller bekannt, der die GTX 680MX auch in Notebooks verbauen möchte, sodass sich der Einsatz auf Apples iMac beschränkt. Gerüchte sprechen derzeit von 122 Watt Stromverbrauch. Im Leerlauf kann die GPU mithilfe der Optimus-Technologie zugunsten einer integrierten Grafikeinheit auch vollständig deaktiviert werden (nur ohne 3D Vision).

NVIDIA GeForce GTX 675M SLINVIDIA GeForce GTX 680MX
ManufacturerNVIDIANVIDIA
GeForce GTX 600M Series
GeForce GTX 680M SLI compare 2688 @ 0.72 GHz2x 256 Bit @ 3600 MHz
GeForce GTX 680MX 1536 @ 0.72 GHz256 Bit @ 5000 MHz
GeForce GTX 675M SLI 768 @ 0.62 GHz256 Bit @ 3000 MHz
GeForce GTX 680M compare 1344 @ 0.72 GHz256 Bit @ 3600 MHz
GeForce GTX 670MX SLI compare 1920 @ 0.6 GHz2x 192 Bit @ 2800 MHz
GeForce GTX 675MX compare 960 @ 0.6 GHz256 Bit @ 3600 MHz
GeForce GTX 675M compare 384 @ 0.62 GHz256 Bit @ 3000 MHz
GeForce GTX 670MX compare 960 @ 0.6 GHz192 Bit @ 2800 MHz
GeForce GTX 670M compare 336 @ 0.6 GHz192 Bit @ 3000 MHz
GeForce GTX 660M compare 384 @ 0.84 GHz128 Bit @ 4000 MHz
GeForce GTX 680M SLI compare 2688 @ 0.72 GHz2x 256 Bit @ 3600 MHz
GeForce GTX 680MX 1536 @ 0.72 GHz256 Bit @ 5000 MHz
GeForce GTX 675M SLI 768 @ 0.62 GHz256 Bit @ 3000 MHz
GeForce GTX 680M compare 1344 @ 0.72 GHz256 Bit @ 3600 MHz
GeForce GTX 670MX SLI compare 1920 @ 0.6 GHz2x 192 Bit @ 2800 MHz
GeForce GTX 675MX compare 960 @ 0.6 GHz256 Bit @ 3600 MHz
GeForce GTX 675M compare 384 @ 0.62 GHz256 Bit @ 3000 MHz
GeForce GTX 670MX compare 960 @ 0.6 GHz192 Bit @ 2800 MHz
GeForce GTX 670M compare 336 @ 0.6 GHz192 Bit @ 3000 MHz
GeForce GTX 660M compare 384 @ 0.84 GHz128 Bit @ 4000 MHz
CodenameN12E-GTX2
ArchitectureFermiKepler
Cores768 - unified1536 - unified
Core620 MHz720 MHz
Shader1240 MHz
Memory3000 MHz5000 MHz
Bus256 Bit256 Bit
MemoryGDDR5GDDR5
Shared Memorynono
DirectXDirectX 11, 5.0DirectX 11, 5.0
Technology40 nm28 nm
FeaturesOptimus, SLI, PhysX, Verde Drivers, CUDA, 3D Vision, 3DTV PlayOptimus, SLI, PhysX, Verde Drivers, CUDA, 3D Vision, 3DTV Play
Size2/32/3
Introduced06.01.2011 23.10.2012
Manufacturerhttp://www.nvidia.com/object/geforce_gtx...http://www.geforce.com/hardware/notebook...
Max. Memory2048 MB
Transistors3540 Million

3DMark 11 - 3DM11 Performance Score
6389 Points (16%)
6883 Points (18%)
3DMark 11 - 3DM11 Performance GPU
6407 Points (11%)
6736 Points (11%)
3DMark Vantage
3DM Vant. Perf. total + NVIDIA GeForce GTX 675M SLI
3DM Vant. Perf. total + NVIDIA GeForce GTX 680MX
3DM Vant. Perf. GPU no PhysX + NVIDIA GeForce GTX 675M SLI
3DM Vant. Perf. GPU no PhysX + NVIDIA GeForce GTX 680MX

Average Benchmarks NVIDIA GeForce GTX 675M SLI → 100% n=4

Average Benchmarks NVIDIA GeForce GTX 680MX → 124% n=4

-
-
* Smaller numbers mean a higher performance
1 This benchmark is not used for the average calculation

low 1024x768
GeForce GTX 680MX:
72  fps
med. 1366x768
GeForce GTX 680MX:
43.6  fps
high 1920x1080
GeForce GTX 680MX:
26.4  fps
ultra 1920x1080
GeForce GTX 680MX:
14.2  fps
ultra 1920x1080
GeForce GTX 680MX:
133  fps
high 1366x768
GeForce GTX 680MX:
55.4  fps
ultra 1920x1080
GeForce GTX 680MX:
34.4  fps
F1 2012

F1 2012

2012
ultra 1920x1080
GeForce GTX 680MX:
97.5  fps
high 1366x768
GeForce GTX 680MX:
99  fps
ultra 1920x1080
GeForce GTX 680MX:
31.1  fps
low 1024x768
GeForce GTX 680MX:
126  fps
med. 1366x768
GeForce GTX 680MX:
104  fps
high 1366x768
GeForce GTX 680MX:
92  fps
ultra 1920x1080
GeForce GTX 680MX:
45.6  fps

Add one or more devices and compare

In the following list you can select (and also search for) devices that should be added to the comparison. You can select more than one device.

restrict list:

show all (including archived), 2020, 2019
v1.16
Teilen Sie diesen Artikel um uns zu unterstützen. Jeder Link hilft!
> Notebook Test, Laptop Test und News > Benchmarks / Technik > Benchmarks / Technik > Grafikkarten Vergleich - Head 2 Head
Autor: Redaktion,  8.09.2017 (Update: 19.05.2020)