PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : kommt ut2003 für linux???



hal-9000
03.07.02, 00:11
unter wine(x) wirds ja warscheinlich unzockbar sein oder??
-mfg hal

comrad
03.07.02, 00:27
es kommt. mehr kann ich dazu net sagen.

MrIch
03.07.02, 06:53
die Frage ist doch wann und wie kommt es!!!

UT2003 basierd ja auf einer DirectX 8.x Engine, um es unter Linux zu nutzen müßte Epic es zusätzlich mit einer OpenGL Engine ausstatten oder den langsamen Weg über winex gehen.

Rebell
03.07.02, 07:24
Hey, DirectX ist nur eine Option. OpenGL ist gleichberechtigt mit Direct3D und beide werden heutzutage von Grafikkarten unterstützt die für Unreal 2 vonnöten sind. Außerdem machts nicht schwerer für den Software-Hersteller freie 3D-Bibliotheken zu verwenden, wo ist also das Problem?

Throx
03.07.02, 11:54
OpenGL 1.3 ist nicht gleich DirectX 8.x!
OpenGL mag zwar schnell und gut sein, aber es gibt einfach keine Standarts, das sind die Extensions bei OpenGL. Ausserdem werden nichtunterstützte Features gar nicht dargestellt, bei DirectX 8.x übernimmt das dann der CPU. *auf opengl 2.0 hoff*

-=Thomas=-
03.07.02, 12:47
comrad, woher hast du die Info das UT2003 für Linux kommt?

Thomas

ATS
03.07.02, 13:41
hi

opengl ist mit direct X 8 oder auch 6(spielt keine rolle) gleich wertig
denn ich hab noch nie ne 3D engine gesehen die in RM von DX lief geht alles über IM und der I Mode vom MS bitet die gleiche Funktions vielfalt wie opengl.


!! RM ist n Modus von D3D der sehr ein fach zu benuten ist da er eine sehr schwache in DX included 3D engine ist also schrott!! nur was vür VB progger.:D

!! IM hat nur vor implementierte Funktionen für die 3D grundelemente und über läst dem progger den rest wie Vertex Sheder oder Pixel Sheder(Beides schrott kann das Menschliche auge nicht von ein ander unterscheiden Pixel shader frist nur mehr leistung):cool:

!! IM von D3D ist das gleich wie Opengl

Schluss aus.:mad: :mad:

PS: C++ rules!!:cool:

Throx
03.07.02, 16:38
kannst du mal die abkürzungen erklären :)

ATS
04.07.02, 15:35
hi

hier ne begriffs erklärung für non Programmieren(Progger)

DX = Direct X von MicroDOOF

D3D = Direct3D

RM = Retained Mode ist ne kleine sehr langsame nicht wirklich leitstungs fähige 3D engine ein ziger vor teil ohne großen programmieraufwand benutzbar aber nichts gegen die 3D engine von Unreal 2 sieht ungefär so aus wie Halflife in ganz früher zeit

IM = Immediate Mode ist so zu sagen nur die schnittstelle zur Grafikkarte
den Rest Grarstellung und so ist dem Programmierer überlassen was natür lich einen imensen Programmieraufwand zur Folge hat

VB = VisualBasic ist ne sehr einfache Programmiersprache man programmiert nach dem Motto Fenster erstellen und bprogrammieren was passier wenn der user das macht usw. eine langsame office ähnliche programme aus gelegt des halb schreibt man in VB auch Steuerelemente vür Word z.B.

MS = MicroDOOF

C++ = meist verwendetste Programmier sprache der welt sie wurde unter unix entwickelt daher kommt es das fast alle Heutige unix, Linux Programme in C++ geschrieben werden so auch wine (tipp die Endung c,cpp, h, hpp steht für C++ code)

gut so?
wenn noch was unklar ist eifach sagen und ich erkläre

;)


ach noch was
wegen Prozessor emulierung der nicht unterstützten Funktionen
ich hoffe das sie bei opengl 2.0 hel(Prozessor emulirung nicht unter stüzter Grafik Funktionen) abschalt bar machen
denn dann kann sich MicroDOOF warm anzeihen mit DX 9 denn da ist das nicht drinn ebenso DX 10 (quelle Micorsoft Developers Side Link auf www.microsoft.com (http://www.microsoft.com) )

denn die ab schaltung von hel würden die system anforderungen sehr herab setzen denn die Leitung von GPU(GrafikProzesseor) und CPU(Prozessoe:D ) ist nicht de schnellste bei heutigen Boards(Prozessoer und Grafik Karte werden immer weiter entwikelt [bei den Neuen GrafikKarten erweitern sie schon die Leitung zwichen GPU und GRAM(Grafik RAM) auf 256bit Bandbreite (dagegen Geforce 4 ti 4600 Pro hat noch 128bit Bandbreite)] obwohl sie schon von 33Mhz (ISA Bus diese langen Schwarzen Steckplätze) auf 66Mhz(PCI Bus diese kurzen weißen Steckplätze) gegangen sind :rolleyes:

Ps: die komunikation zwischen GPU und CPU hat nichts mit Dem FSB(Front Side Bus) der CPU zu tun das ist der takt mit dem der Prozessor auf den RAM zugreift

Tipp: AGP ist eingeführt worden weil die früheren GPU's oder auch Blitter genannt(weil sie im Bit Block Transfähr bilt der auf den Bildschrim kopierten) immer erst den Prozessor über die zuvor bemängelte Daten30zone ( bewust nicht Daten AutoBahn :D ) konsultierten welches Bild sie denn nun kopieren sollten und griffen dann ÜBER den Prozessor auf den RAM zu was natürlich ewig dauerte also muste sich die GPU ihre Bilder selber suchen und anzeigen ohne den Prozesor zu belasten also gehen vom agp zum RAM directe Date leitungen(die aber nur auf eine im Bios über den Wert der AGP apture size {KLEINE RECTSSCHEIB FEHLER} festgelegten berech zugreifen können) zum RAM. Pci ist einfach zu langsam

glück wunsch
sie habens geschaft sie habe meine Text gelesen und unzählige Rechtsschreib Fehler entdeckt egal :cool:

sie haben nicht durch gesehen kann passieren einfach noch mal lesen :rolleyes:

Throx
04.07.02, 15:48
mir gings nur um RM und IM :) aber thx

Henni
04.07.02, 19:09
Ich glaub du hast da nen kleinen Fehler eingebaut (korrigiert meine Korrektur wenn sie korrigiert werden muss :-) )

Du schreibst "Ps: die komunikation zwischen GPU und CPU hat nichts mit Dem FSB(Front Side Bus) der CPU zu tun das ist der takt mit dem der Prozessor auf den RAM zugreift "

Meiner Meinung nach ist der Satz nicht ganz richtig.
Der FSB (Front Side Bus) ist der Takt, mit dem die CPU (Central Processing Unit) auf den CHIPSATZ zugreift. Sämtlicher Datenverkehr innerhalb des PCs läuft über den Chipsatz. (Ich meine von einer Komponente zur anderen). Demnach auch zwischen CPU und GPU (Graphic Processing Unit - sitzt auf der GrKa).

Als zusätzlicher Faktor kommt noch der Weg über den Speicher. Laut AGP Spezifikation müssen sämtliche Operationen zwischen der CPU u. GPU (bzw. GrKa) über den Arbeitsspeicher laufen. Erst mit AGP4x Fast Writes wurde das "aufgehoben" (Wobei aba noch nicht sinnvoll benutzbar. da AGP4x eine Datenrate von 1 GB/s mit sich bringt und z.B. die Datenrate zwischen einem Athlon mit 100 MHz FSB (200 effektiv) und Chipsat 1,6GB/s bleibt nicht genug für andere Operationen übrig. Aber jetzt bin ich etwas vom Thema abgekommen :D

mfg, Henni

ATS
05.07.02, 08:47
hi

henni stimmt schon blos ich wollte nicht zu sehr ins fachlatein rutschen
da throx mich um ne begriffs erklärung gebeten hatte bin ich schon sehr weit von them weg in ander "materie" gegangen

und zum schluss
der drei finger gruss
STRG+ALT+ENTF
und windows ade :p

Henni
05.07.02, 09:19
Asso.. sry :-)

Nur eins, manche Leute wollen mehr wissen als man glaubt ;)

mfg, Henni

Nuke
05.07.02, 09:57
Sorry ich muss mal was ganz kurz berichtigen! UT2003 ist ein DX7 Spiel! Es enthält keine Funkionen von DX8 die nicht auch mit DX7 machbar sind! D.h. wenn du das Spiel mit einer Kyro2 auf max. Details spielst sieht es auf einer GF4Ti4600 mit max. Details nicht besser aus!

edit: Beispiel: VertexShader (DX8) werden nicht unterstützt! PixelShader (DX8) werden unterstützt aber nur halt um die Frames zu steigern! Die Effekte die genutzt werden lassen sich anders (langsamer) auch mit DX7 realisieren und werden es auch!

Erst Unreal2 ist ein DX8 Spiel!

Henni
05.07.02, 11:04
Entschuldige.. aber ist es nicht so, dass Unreal 2 und Unreal Tournament 2003 auf der Unreal Warfare Engine basieren?


Die sensationelle Unreal Warfare Engine (Warfare=Kriegsführung) leistet nicht nur in U2 oder UT2003 beste Grafik, Performance und Effekte, sondern auch in Unreal Warfare...

Quelle: http://www.ut-2003.com


Demnach haben sie den gleichen "Technologischen" Stamm


UT 2003 benutzt die neue Version der Unreal Engine, manchmal auch Unreal Warfare Engine genannt. Diese ging nach langer Entwicklung aus der alten Unreal Engine hervor und wurde von Digital Extremes noch um einige Zusätze erweitert. Features der Engine: - Realistisches Außen- und Innengelände, mit fließenden Übergangen - Dynamische Beleuchtung und Schatten - 100-200 mal mehr detailierte Maps als in UT - Models mit 2000-3000 Polygonen und Skeletal-/Facial Animation - Partikeleffekte wie Rauch, Neben und Feuer, die durch andere bewegliche Objekte beeinflusst werden. - Realistische Wasseroberflächen - Ausgefeilte Realphysiksimulation durch MathEngine's Karma? Technologie - DirectX 8 Shader Effekte usw.

Quelle: http://www.ut-2003.com




Unreal II benutzt die "Unreal Warfare" Engine, welche eine neue Generation der Unreal Engine von Epic ist. Legend Entertainmant hat die Unreal Engine von Epic lizensiert und geholfen sie zu erweitern.

Quelle: http://www.ut-2003.com


Und ich glaub das ist der endgültige Beweis, dass UT 2003 und U2 denselben "Stamm" besitzen und deshalb die selben Grafik Features unterstützen..

mfg, Henni

Nuke
05.07.02, 12:27
Nö! Ich hab meine Quellen:
---
Unreal2:
Die Engine unterstuetzt vertex und pixel shader.

UT2003 benutzt keine "vertex- shader" da wir dafuer keine Verwendung gefunden haben, aber benutzt "pixel shader" (1.1/1.4) wo sinnvoll. Du wirst aber keinen Unterschied zwischen "pixel shadern" und "DX7 blending" sehen da alles was wir mit UT2003 machen mit dem DX7 "SetTextureStageState approach" machbar ist - nur unter Umstaenden halt in mehreren Paessen.

-- Daniel, Epic Games Inc.
---

Was eine Fanseite sagt ist mir eigendlich Wurst! Fakt ist UT2003 ist ein DX7 Spiel! Es kann zwar DX8 benutzen aber zieht daraus keinen Optischen Vorteil! Nur halt einen Geschwindigkeitsvorteil! UT2003 und Unreal2 haben zwar den selben Stamm aber unterschiedliche Builds! Deswegen ist UT2003 kein Vergleich für Unreal2! Das sie denselben Stamm benutzen sagt nichts aus! RtCW hat auch denselben Stamm wie Q3A! Trotzdem sieht es besser aus, hat mehr Features!

UT2003 = Multiplayershooter der möglichst überall laufen soll!

Unreal2 = Optischer Hochleistungsshooter dessen Engine möglichst oft verkauft werden soll (DeusEX 2 usw.)!

Henni
05.07.02, 14:23
Werde mich genauer Umschauen :) (leider ist unrealengine.com nicht erreichbar) (Hab ja wie imma gesagt das ich unrecht haben kanne ;-) )

So recht gefunden hab ich sowohl auf der Unreal 2 und der Unreal Tournament 2003 HP nicht. (einzige, dass U2 vorraussichtlich einen besseren Prozessor benötigt als UT2003) Naja.. schau ma mal.

mfg, Henni

PS: Warum vergleicht eigentlich JEDER in einem Linuxforum die Features einer Karte mit der DX Version??

Nuke
05.07.02, 17:41
Original geschrieben von Henni

PS: Warum vergleicht eigentlich JEDER in einem Linuxforum die Features einer Karte mit der DX Version??

Weil DirectX eine feste Featureanforderung hat! Z.B. T&L, 32bit, usw.! OpenGL ist da nicht geeignet für da es erweiterbar ist! D.h. du kannst in OpenGL Extensions einbauen und somit Updaten! Diese Extensions sind aber Herstellerspezifisch! D.h. jedes OpenGL sieht anders aus!
Desshalb kann man nicht sagen: "Das ist eine OpenGL1.2-Karte, dies ist eine OpenGL1.3-Karte, wegen den Erweiterungen ohne die OpenGL nicht alle Features der Karte nutzen würde!

Beispiel:
In ATis OpenGL kann Truform (N-Patches)! NVidias OpenGL kann dies nicht da die Karten es nicht können!

DX ist da besser geeignet! Hier wird von Version zu Version alles festgelegt an die sich die Grafikkartenhersteller halten müssen/können!

Henni
05.07.02, 18:01
Aber zufälligerweise gibt es auch unter den DX7 bzw. DX8 bzw. DX8.1 Grafikkarten unterschiede... deshalb wäre es meiner Meinung nach viel Präziser wenn man genau angibt was man meint. (Ich erinnere nur an Enviromental Bump Mapping das bei DX7 dabei ist, oder Dot3 Bump Mapping. Ersteres wird von nVidia z.B. nicht unterstüzt obwohl die Karten (ab GeForce 256) als voll DX7 tauglich gelten.)

Aber sowas ist wahrscheinlich viel zu sehr Geschmackssache.

mfg, Henni

PS: ich sagte nie was von OpenGL als Vergleichsmittel zu verwenden, weil das API Technisch nicht möglich ist.

Nuke
05.07.02, 19:42
Original geschrieben von Henni
Aber zufälligerweise gibt es auch unter den DX7 bzw. DX8 bzw. DX8.1 Grafikkarten unterschiede... deshalb wäre es meiner Meinung nach viel Präziser wenn man genau angibt was man meint. (Ich erinnere nur an Enviromental Bump Mapping das bei DX7 dabei ist, oder Dot3 Bump Mapping. Ersteres wird von nVidia z.B. nicht unterstüzt obwohl die Karten (ab GeForce 256) als voll DX7 tauglich gelten.)

Aber sowas ist wahrscheinlich viel zu sehr Geschmackssache.

mfg, Henni

PS: ich sagte nie was von OpenGL als Vergleichsmittel zu verwenden, weil das API Technisch nicht möglich ist.

Damals bei DX7 waren alle so T&L-Geil! Deswegen hat man das übersehen!
Ich dachte du meintest OpenGL wegen dem "in einem Linuxforum" in deinem Satz! Aber wie willst du es sonst angeben? Willst du alle neuen Grafikkarten aufzählen + einzelne Features die sie haben? Da ist DX7 DX8 DX9 leichter! OpenGL wäre noch ungenauer! Eine andere Grafikkartenunabhängige Spiele-API kenne ich nicht!

Henni
05.07.02, 20:46
Naja.. man kann es ja auch so sehen:

DX7 = Anfang der T&L Ära, wenn ich mich recht erinnere wurden auch die neuen Per Pixel Effekte wie z.B. Dot 3 Bump Mapping
DX8 = Vertex Shader und Pixel Shader wurden hinzugefügt (eigentlich auch Curved Surfaces... (Ati Truefrom und nVidia N-Patches) bin mir aba da jetzt nicht ganz sicher)
DX8.1 = Neuere Versionen des VS und des PS (neue Version, nur R200 ist wirklich DX8.1)
DX9 = wahrscheinlich Displacement Mapping und neuere VS und PS Versionen.. was weiter dazukommt weiss ich nicht.

Man kann also bei Unreal 2 sagen, dass es die Standart Palette (Alpha blending, 32 Bit Rendering usw.) sowei zusätzlich PS u. VS verwenden wird.

So meinte ich das :)

mfg, Henni