Du bist nicht angemeldet.

Lieber Besucher, herzlich willkommen bei: Amateurfilm-Forum. Falls dies dein erster Besuch auf dieser Seite ist, lies bitte die Hilfe durch. Dort wird dir die Bedienung dieser Seite näher erläutert. Darüber hinaus solltest du dich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutze das Registrierungsformular, um dich zu registrieren oder informiere dich ausführlich über den Registrierungsvorgang. Falls du dich bereits zu einem früheren Zeitpunkt registriert hast, kannst du dich hier anmelden.

Gortosch

unregistriert

21

Freitag, 16. September 2005, 14:12

hmmm jetzt kam da etwas durcheinander.

Und nein seid es Shader gibt nicht mehr bei 3D-Programmen.
Da in diesen die GLEICHEN Berechnungen schneller vorgenommen werden konnen als auf der CPU!

Und nein ich benutze nicht nur die Schnittstellen sondern schreibe eigene Berechnungen ich habe auch schon einen Raytracer geschrieben.

Speicher ist wichtig! Klar! Beschleunigt aber nicht den Finalrendervorgang. Probiers aus.


de Gortosch...

Edit: Für die Clusterberechnung reicht eine 12MB/s langsame Datenleitung aus.

Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von »Gortosch« (16. September 2005, 14:15)


MichaMedia

unregistriert

22

Freitag, 16. September 2005, 14:14

Junge, bei deinem OpenGL vieleicht, in einigen Renderfarms für C4D und Co giebt es nicht mal eine GPU bei vielen Clienten.

Wenn du immer noch recht haben willst, poste ich den C++ Quellcode eines Renderes und du zeigst mir die stellen, wo eine GPU angesprochen wird, oder Überhaupt Schnittstellen zur Grafikkarte.

Gortosch

unregistriert

23

Freitag, 16. September 2005, 14:19

Oh man weil die keine GPU's einsetzen muss das doch nicht heisen das es nicht funktionieren kann. Vor der Shaderzeit wurden die GPU nicht benutzt da die Festverdrahtung keine Freiräume lies für z.B. dynamische Schattenberechnung. Die Zeiten sind vorbei.

Jouh mach mal...

Ach ja aber einen aktuellen Quellcode!!!

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »Gortosch« (16. September 2005, 14:20)


Gortosch

unregistriert

24

Freitag, 16. September 2005, 14:28

wobei aber die Mamutaufgabe von der CPU bewältigt wird...
also nicht falsch verstehen gute GPU -> CPU muss nichts machen. FALSCH!

MichaMedia

unregistriert

25

Freitag, 16. September 2005, 14:31

Ich habe nicht gesagt, das es nicht geht, ich habe gesagt das die es nicht Benutzen und das aus dem Grund, das man damit eingeschrenkt ist und es keinen Sinn macht nur für Teilberechnugen drauf zuzugreifen.
Es mag sein, das du in deinem Programm die GPU ansprichst, aber die Software, von der wir sprechen tut es eben nicht. Und das hat nichts damit zu tun, in wie weit sich die GPU´s verbessert haben, sondern damit, das diese immer noch eingeschrenkt und unterschiedlich sind.

So, und da es hier jetzt zu Offtopic wurde, schlage ich vor, das wir unser Fachsimpeln via PN weiter führen und nicht in diesem Thread.

gruß Micha

Gortosch

unregistriert

26

Freitag, 16. September 2005, 14:45

argh du hast recht ich habe eben scheisse erzählt die GPU wird für Finalrendern NICHT eingesetzt... Asche auf mein Haupt... ist Hardwaretechnisch auch nur mit Verränkungen möglich... Sorry...

de Gortosch...

Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von »Gortosch« (16. September 2005, 14:46)


Social Bookmarks