Kann man irgendwie zwei Computer so miteinander verbinden, dass man die Rechenleistung von beiden teilt, um höhere Leistung bei Anwendungen zu haben?

Das Ergebnis basiert auf 7 Abstimmungen

Ja, und zwar so... 100%
Nein! 0%

6 Antworten

Vom Beitragsersteller als hilfreich ausgezeichnet

Die Antwort ist ein typisches "Kommt drauf an".

Es ist weniger eine Frage des Computers, sondern eher eine Frage der Software. Theoretisch haben wir ja schon ein riesiges Netzwerk an Computern - das Internet. Und das kann auch genutzt werden, um die Rechenleistung von Computern zu kombinieren. Beispielsweise das Netzwerk "Folding@Home". Das Ziel von Folding@Home ist es, die Faltung von Proteinen zu simulieren, was Erkenntnisse für Forschung und Medizin bringen kann. Jeder kann seine Rechenleistung "spenden". Man lädt die Software herunter, und über das Internet wird jedem Rechner eine Teilaufgabe zugeteilt, die er dann berechnet und das Ergebnis zurück an das Netzwerk übermittelt. So bündelt Folding@Home die Leistung vieler Computer.

Auch jeder "Supercomputer" ist lediglich ein Verbund aus vielen einzelnen Computern. Die sind natürlich sowohl Hardware- als auch Softwareseitig für die Kopplung ausgelegt, verfügen also über ein sehr schnelles Netzwerk untereinander und die auszuführende Software wird speziell für diese Art von Rechennetzwerk programmiert.

Denn, was immer das "Problem" ist, sind die Daten. Um Berechnungen durchzuführen, braucht der Prozessor die dafür notwendigen Daten im Arbeitsspeicher. Allerdings kann ein Prozessor nicht in den Arbeitsspeicher eines anderen Computers schauen. Ein normales Programm, wie ein Spiel oder jedes andere Programm, das auf einem PC läuft, legt seine Daten im RAM ab und das war es dann. Einen zweiten PC könnte man jetzt nicht ohne weiteres dazuschalten, da der ja keinen Zugriff auf diese Daten im RAM hat. Man könnte sie theoretisch rüberkopieren, aber sobald dann einer der beiden PCs eine Berechnung durchführt, müsste man die Daten wieder hin- und her schicken. Zudem hätte man bei diesem Ansatz das Problem, dass obwohl man z.B. 2 PCs mit je 16 GB RAM hat, man nicht insgesamt 32 GB RAM zur Verfügung hat, sondern immer noch nur 16 GB, weil ja beide Prozessoren alle Daten brauchen.

Deshalb braucht man eben ein Programm, das in der Lage ist, die Rechenlast in einzelne Unteraufgaben zu unterteilen, sodass dann jedem Computer eine Unteraufgabe und die dafür notwendigen Daten übergeben werden können. So kann jeder Computer für sich rechnen und am Ende das Ergebnis an einen zentralen Rechner übermitteln. Dadurch kann man dann die gesamte Rechenleistung und auch den gesamten RAM parallel nutzen.

Aber so funktionieren eben normale Programme für PCs nicht. Die sind so programmiert, dass sie auf einem PC funktionieren. Viele Programme sind noch nicht mal in der Lage, ihre Rechenlast auf mehrere CPU-Kerne zu verteilen, weil schlichtweg keine Unterteilung stattfindet.

Eine Möglichkeit gibt es für PCs jedoch: Externe Grafikkarten. Das gibt es primär für Laptops, für Desktop-PCs habe ich es noch nicht gesehen, kann aber nicht ausschließen, dass es da nicht geht.

Voraussetzung dafür ist primär ein aktueller Thunderbolt-Anschluss.

Grafikkarten haben einen eigenen Arbeitsspeicher (VRAM), und ihre Berechnungen sind größtenteils unabhängig vom Rest des PCs. Generell funktioniert es so, dass die CPU berechnet, was gerade passiert, und dann der Grafikkarte die Anweisung gibt, dies als Bild zu berechnen (Draw-Call). Entsprechend ist es technisch kein so großer Unterschied, ob die Grafikkarte im PC ist oder nicht, die CPU muss ihr nur den Draw-Call schicken können und die Grafikkarte muss in der Lage sein, die notwendigen Daten aus dem RAM zu laden, was über Thunderbolt möglich ist.

Da jedoch Thunderbolt eine niedrigere Bandbreite als ein PCIe-Slot hat, kann die Performance etwas schlechter sein, als wenn die Grafikkarte direkt im PC wäre.

Das hier ist beispielsweise eine RTX 4090 in einem Externen Gehäuse samt externer Stromversorgung, die man an einen Laptop anschließen könnte.

https://geizhals.de/gigabyte-aorus-rtx-4090-gaming-box-gv-n4090ixeb-24gd-a2988345.html?hloc=at&hloc=de

Mit CPUs funktionier sowas jedoch nicht, CPUs heißen nicht umsonst "Central Processing Unit", sie sind nicht nur für die Berechnung vieler Dinge zuständig, sondern dient auch als zentrale Steuereinheit vieler anderen Dinge im Computer, weshalb diese direkt in den Computer integriert sein muss. Es gibt zwar des Konzept eines Co-Prozessors, der die CPU unterstützt, das gibt es aber in normalen PCs so nicht mehr.

Woher ich das weiß:Hobby – Up-to-date dank PCGH-Abo und vielen anderen Quellen

grubenhirn 
Beitragsersteller
 30.08.2023, 15:15

Oha, danke für die ausführliche Antwort.

Wie ich gerade festgestellt habe, befindet sich wohl auf der Rückseite meines Laptops ein solcher Anschluss.

Aber ob es sich lohnt für 2400€ so eine Grafikkarte anzuschließen, wenn man für 3600€ wiederum einen Laptop bekommt in dem auch eine RTX 4090 (Laptop Version) eingebaut ist.

Würdest du sagen, es lohnt sich?

0
Ireeb  30.08.2023, 15:24
@grubenhirn

Gibt ja auch kleinere Grafikkarten als externe GPU.

Aber ja, das ist eine wichtige Frage, die man aber nur schwer ohne zusätzliche Infos beantworten kann.

Erstmal muss sichergestellt sein, dass die Grafikkarte der limitierende Faktor ist. Es bringt nichts, wenn man eine ultra starke Grafikkarte an den PC anschließt, wenn beispielsweise die CPU nicht damit hinterher kommt, der Grafikkarte schnell genug Draw-Calls zu schicken.

Zudem muss man bedenken, dass man hier mehr als normal für die Grafikkarte zahlt (man kauft ja ein Gehäuse plus Netzteil), man aber weniger Leistung bekommt, da eben Thunderbolt doch ein bisschen limitiert.

Ich denke, das macht nur wirklich Sinn, wenn man tatsächlich in der Situation ist, dass man zwar bereits einen Laptop mit relativ starkem Prozessor, z.B. für Arbeit oder Studium hat, man aber primär aus Gewichts- und Akku-Gründen ein Modell ohne Grafikkarte gewählt hat. Hier kann es dann Sinn machen, den Laptop sowohl als Arbeitsgerät unterwegs und als Gaming-PC Zuhause zu verwenden.

Wie du aber richtig sagst, kostet eine high end eGPU so viel wie ein ganzer Computer. Wenn man also nicht darauf angewiesen ist, alles auf einem Computer zu machen, macht es meist mehr Sinn, sich speziell einen Gaming-PC anzuschaffen, am besten als Desktop, denn hier kann man ja tatsächlich auch später noch die Grafikkarte und andere Komponenten aufrüsten.

Muss ja auch keine 4090 sein, für 2000€ bekommt man schon einen ordentlichen Gaming-Desktop.

1
grubenhirn 
Beitragsersteller
 30.08.2023, 16:05
@Ireeb
Erstmal muss sichergestellt sein, dass die Grafikkarte der limitierende Faktor ist. Es bringt nichts, wenn man eine ultra starke Grafikkarte an den PC anschließt, wenn beispielsweise die CPU nicht damit hinterher kommt, der Grafikkarte schnell genug Draw-Calls zu schicken.

Genau das muss ich wirklich erstmal herausfinden, weil eigentlich habe ich mit der RTX 3070 Ti gar keine so schlechte Grafikkarte.

Danke für die Antwort.

0
Ja, und zwar so...

Ja das geht in manchen Programmen.

Zum Beispiel in der Unreal Engine geht das, dort kann man das Lightning von mehreren Computern berechnen lassen. Dazu muss man auf jedem Computer ein Programm installieren. Anschließend kann der Host, auf dem die UE läuft, alle Computer nutzen um eben das Lightning machen zu lassen.

Aber einfach so 2 Computer miteinander zu verbinden, um irgendwelche Computerspiele zu spielen, das geht nicht.

Ja, und zwar so...

2 Computer verbinden funktioniert so nicht, zumindest nicht so wie du es dir vorstellst.

Du kannst dir selbst eine externe Grafikkarte bauen mit einem EGPU gehäuse. Das ist wie eine kleiner PC mit Motherboard, indem du eine Grafikkarte einbauen kannst und diesen dann an deinen PC anschließen kannst.

Die gehäuse sind aber teuer. Die gehen so bei 200+ Euro los. Außerdem ist zwingend ein thunderbolt 3 oder 4 Anschluss erforderlich.

Rentiert sich eigentlich nur, wenn man einen perfekten Arbeits Laptop hat und außer der Grafikkarte sonst nichts fehlt.


grubenhirn 
Beitragsersteller
 30.08.2023, 14:38

Danke für die Info.

Weißt du , wo ich mehr Informationen darüber bekommen kann, wie man das am Besten realisiert?

0
SirKasmus1  30.08.2023, 14:44
@grubenhirn

Ich hab das Mal bei einem Kumpel gemacht, der einen super guten Laptop von der Arbeit bekommen hatte, den er auch privat nutzen darf. Allerdings nur mit on board Grafikkarte.

Da hat mir folgende Seite geholfen. Sie erklärt alle vor und Nachteile von den meisten egpus und wie das eigentlich so funktioniert:

https://www.only4gamers.de/beste-externe-grafikkarte/#:~:text=Grunds%C3%A4tzlich%20ist%20eine%20eGPU%20ein,bevor%20ihr%20einfach%20blind%20einkauft.

1
Ja, und zwar so...

Jaein

Eine Grafikarte extern zu verbinden ist möglich jedoch hat sich das bisher nicht wirklich durchgesetzt.

HP hat für ein Omen Notebook bereits eine eGPU mit Anbindung via Thunderbold 4 angeboten.

Meiner Meinung nach lohnt sich eine eGPU nicht da sich gemäß dem Moorschen Gesetz die Rechenleistung ca. alle 2 Jahren verdoppelt.

Ich würde zu Cloud Computing tendieren also entweder einen eigenen Server in den Keller stellen oder bei Anbietern wie Stadia , Steam etc einen Dienst in Anspruch nehmen .


grubenhirn 
Beitragsersteller
 30.08.2023, 15:17

Danke auf jeden Fall für die Idee des Cloud Computing. Muss die verschiedenen Möglichkeiten mal abwägen.

0
flauski  30.08.2023, 14:39

Der Mann hieß Moore.

1
grubenhirn 
Beitragsersteller
 30.08.2023, 14:39

Also würde die Rechenleistung nicht geteilt werden, wenn man mehrere Grafikkarten zusammen verwendet für eine Anwendung?

0

Parallel Computing, können aber nur einige wenige Anwendungen welche genau dafür programmiert und ausgelegt werden müssen.

Ein Kabel anschließen und dann +100% Power gibts in so einer Art und Weise nicht.

Woher ich das weiß:Hobby – Freizeitaktivität

grubenhirn 
Beitragsersteller
 30.08.2023, 14:27

Dass habe ich mir schon gedacht, aber wie geht es denn? Und was passiert, wenn ein Computer ausgeschaltet wird?

0
Azeyrex  30.08.2023, 14:28
@grubenhirn

Es gibt einen "Master" welcher die Aufgabenverteilung und Ergebnisssammlung übernimmt, wenn er zu einem Arbeiter die Verbindung verliert leitet er die Aufgabe an einen anderen Computer weiter / zur "erneuten Bearbeitung".

Dies ist meist bei größeren Renderingvorhaben nützlich, Beispiel: Blender - die 3D-Animationssoftware da gibt es sog. Render-Farms.

1