Wie funktioniert eine Grafikkarte genau?
es ist das erste mal das ich sowas mache, und ich frage auch eigentlich nur weil es echt schwer ist etwas dazu zu finden. Meine Frage: wie funktioniert eine Grafikkarte oder besser gesagt wie verarbeitet sie die Befehle der CPU. Warum ich das so genau wissen will, ich schreib eine Facharbeit darüber und brauch ein paar infos. Es würde auch schon echt helfen einen link zu schicken wo ich das evt. finden könnte.
Vielen Dank
Ihr könnt gerne auch jemanden vorschlagen der dass wissen könnte : ) alles hilft weiter danke
2 Antworten
Puh. Das ist ein riesen Thema. Moderne Grafikkarten sind im Grunde eigenständige Computer mit Speicher und Prozessor. In den Anfängen der Computergrafik teilten sich Grafik und Prozessor noch einen Speicher und die Grafikeinheit wandelte einen Speicherbereich als Zeichen. Wenn du das Thema historisch aufrollen willst/sollst/musst, dann kannst du mit einer zweiteiligen Folge von 8bit guy anfangen, in denen das gut erklärt wird. Hier ist Teil 1:
https://www.youtube.com/watch?v=Tfh0ytz8S0k
Das waren noch zeiten. Da musste man noch richtig ackern um was anständiges auf den Bildschirm zu zaubern 😄
Eine Grafikkarte verarbeitet keine Befehle der CPU. Letztere sitzt auf dem Mainboard und interpretiert den Maschinencode des Betriebssystems und der Applikationen. Der Prozessor einer Grafikkarte heisst GPU, und dieser interpretiert typischerweise eine ganz andere Maschinensprache als die CPU. Eine GPU enthält Vektorrechenwerke in millionenfacher Ausführung. Damit können einfache Operationen auf grossen Datenmengen parallel ausgeführt werden (Zeitersparnis). Das Betriebsystem, welches auf der CPU läuft, enthält einen Grafikkartentreiber als Schnittstelle zur GPU. Der GK-Treiber übersetzt über seine Schnittstelle angebotene, grafische Basisfunktionen in z.B. entsprechende Rasteroperationen die im Maschinencode der GPU formuliert sind. Neben einfachen Rasteroperationen verstehen die modernen GPU's auch Operationen für das 3D-Rendering oder sie können genutzt werden für das Machine Learning (d.h. zum Trainieren neuraler Netze oder für Prädiktionen mit solchen Netzen). Bei letzterer Anwendung (ML) ist ebenfalls eine hohe Berechnungsparallelität vonnöten. Nur dank Vektorrechenwerken in millionenfacher Ausführung pro GPU sind die modernen Anwendungen der Artificial Intelligence, z.B. Bild-, Musik-, oder Spracherkennung (usw.) möglich.