Wir haben an dieser Stelle bereits mehrmals und eher indirekt über die RISC-V-Architektur berichtet. So sind Systeme auf Basis von RISC-V-Rechenchips zumindest aktuell eher im DIY-Segment angesiedelt beziehungsweise bei eher speziellen Systemen - also etwa Einplatinenrechner. Notebooks und Tablets auf Basis der offenen RISC-V-Architektur sind auch erhältlich, allerdings handelt es sich nicht unbedingt um für den Massenmarkt taugliche Systeme - zumindest noch nicht.
Auf dem RISC-V Summit China hat Nvidia nun angekündigt, dass CUDA in Zukunft auch auf RISC-V-Systemen lauffähig sein wird. Bei CUDA handelt es sich um eine Nvidia-Programmierschnittstelle - also eine API. Diese kommt insbesondere bei solchen Anwendungen zum Einsatz, die sich im starkem Maße parallelisieren lassen, eingesetzt wird CUDA etwa in wissenschaftlichen Kontexten. Alternativen wären beispielsweise der offene OpenCL-Standard, Vulkan oder auch DirectCompute - DirectCompute ist dabei eine API für DirectX, DirectX dürfte im Kontext von Computer- und Videospielen bekannt sein.
Mit dem CUDA-Support könnte die RISC-V-Architektur eben für solche, hochgradig parallelisierbaren Anwendungen interessant werden. Konkrete Ankündigungen - also beispielsweise für einen auf solche Einsatzzwecke optimierten Rechenchip - waren noch nicht zu vernehmen. Die Ankündigung von Nvidia könnte aber wohl eine starke Signalwirkung besitzen: So können Software-Entwickler durchaus dazu verleitet werden, sich einmal näher mit der RISC-V-Architektur zu beschäftigen. Einen strukturellen Vorteil besitzt die Architektur auch unabhängig vom CUDA-Support: So könnten beispielsweise Handelsbeschränkungen im besten Fall nicht voll durchschlagen, da RISC-V-Produkte nicht von grundlegenden Patenten geschützt sind.










