[Help] Grafik - Texturfehler????

hexxxlein

Moderator
Teammitglied
Grafik - Texturfehler????

Hallo Zockergemeinde.


Ich habe seit geraumer Zeit einige Fehler in meiner Grafik unter OpenGL. Der Versuch die Fehler zu beheben ist fehlgeschlagen. Nun meine Frage an Euch. Ist das so normal. Sonst lief die Grafik eigentlich immer ziemlich sauber. Ist da eine Einstellung falsch? Habe mal ein paar Bilder gemacht. Wäre für einen Tipp echt dankbar. Ist doch etwas störend beim spielen, da diese Fehler auch grossflächig auftreten. Hatte ich noch vergessen.

Fehler01
Fehler02
Fehler03
 
Zuletzt bearbeitet:
Boah - sind Deine Farben immer so grell oder kommt das durch das Grafikprog ?? :eek:

Ich hatte diese Grafikfehler auch - besonders bei Crane äusserst störend - Nach einer Neuinstallation und dem neuesten OpenGL-Treiber (dem von der ClanPage) ist wieder alles wunnebar :)
 
Also auf Phobos hat's mehrere Texturenfehler, man kann teilweise genau an dieser Treppe hinter die Wand schauen, da ist der nächste Gang etwas oberhalb.
Mit OGL ist mir das schon von jeher aufgefallen, ich sollte mal UT2003 checken, ob das da auchso ist.
Diese Fehler sind teilweise richtig heftig, und wenn dann noch jemand davorsteht...
Ich vermute einfach, dass UT für OGL nachgerüstet worden ist, laut Gorkon wird ja auch an diser DLL immer noch gebastelt (ohne Erfolg, was Texturen angeht).
Also entweder sind die Texturen nicht richtig ausgelegt, oder es wird falsch gerendert.
Ich vermute, du hast die 2.te CD mit den s3-texturen nicht (ich habe sie auch nicht). Sonst könntest du das ja mal damit ausprobieren, auch wenn es dir Frames klaut.

@AK- auch nach der Neuinst. neulich treten solche Fehler auf...
 
Nein, die Bilder waren insgesamt ziemlich dunkel, ich habe sie einfach nur heller gemacht. In UT ist es nicht ganz so grell. Also UT habe ich neulich erst neu installiert und den Treiber von der Page benutze ich ebenso. Trotzdem noch störend und Fehler nicht behoben. Kann mich erinnern, dass ich es mal nicht ganz so extrem hatte.

Ähhh, öhhhhh zweite CD? Hab davon gelesen aber ich habe keine zweite CD. :D :angel
 
huhu - etwas spät, habe die neue DLL getestet. Vielleicht hilft dir das Ergebnis ja.

Bild 1, Bild 2, Bild 3, Bild 4

Also Bild1/2 sind in etwa deinen gleich, nichts. Bild 3/4 hat Fehler - da ist normalerweise eine Decke/Wand, aber der Hintergrund scheint durch.

Auf DM-Crane habe ich keinen einzigen Texturfehler finden können, lediglich das Drumrum ist behaftet. Kannst du hier einsehen

Die DLL v2 hier

Hier die Ut.ini
[OpenGLDrv.OpenGLRenderDevice]
DetailTextures=False
HighDetailActors=True
VolumetricLighting=False
ShinySurfaces=False
RefreshRate=85
UseTrilinear=0
UseS3TC=0
UseTNT=0
LODBias=0.000000
UseMultiTexture=1
UsePalette=1
UseAlphaPalette=0
Translucency=False
Coronas=0
MaxAnisotropy=0
AlwaysMipmap=1
UsePrecache=1
SupportsLazyTextures=1
Description=Nvidia GeForce4 Ti 4200
GammaOffset=0.000000
MaxLogTextureSize=16
MinLogTextureSize=2
MaxLogVOverU=8
MaxLogUOverV=8
MaxTMUnits=2
DisableSpecialDT=1
UseFilterSGIS=0
Use4444Textures=1
UseVertexSpecular=1
ShareLists=0
DescFlags=0
NoFiltering=0
UseBGRATextures=1
UseAA=0
NumAASamples=2
AAFilterHint=0
UseSSE=1
UseTexIdPool=1
DynamicTexIdRecycleLevel=100
UseTexPool=1
TexDXT1ToDXT3=0
SinglePassDetail=0
ColorizeDetailTextures=0
UseCVA=0
UseVertexProgram=0
Den Fehler mit der Auslagerungsdatei habe ich nicht mehr gehabt (wurde irre gross).

Drück dir die Daumen!
 
Danke für deine Mühe, aber diesen Treiber und diverse Einstellungen habe ich bereits ausprobiert ohne Erfolg. Ich hätte sonst nicht gepostet, wenn ich vorher nicht alle Möglichkeiten in Betracht gezogen hätte.
 
Ich glaube ich habe den Fehler gefunden. Eigentlich ist es kaum zu glauben. Aber so ist es bei mir.

Ich spiele von jeher auf 16 bit Farbtiefe. Wie ich schon sagte, solche Fehler waren wir nie aufgefallen. Dann habe ich auf 32 bit Farbtiefe umgestellt aber ich konnte keinerlei Veränderungen feststellen darum bin ich zurück auf 16 bit. Schwups hatte ich diese groben Texturfehler. Grosszackige Flächen an Kanten und auch schwarze flackernde Flächen an Wänden oder Pfeiler. Heute habe ich zurückgestellt auf 32 bit. Und schwups waren alle Anzeichen weg. Ich habe noch schnell geschaut ob es auch wirklich OpenGL ist, denn solche sauberen Grafiken sind mir sonst nur von D3D bekannt. Es kommt mir komisch vor, denn ich habe sonst immer unter 16bit gespielt. Das kann doch nicht sein??? Ist mir unklar.

Was auch komisch ist, ich kann nicht normal in den Preferences Einstellungen von 16 bit auf 32 bit und umgekehrt umstellen. Ich bekomme dann eine irre Fehlermeldung (die kein Schwein versteht :D ) und UT beendet sich dann. :confused :confused :confused Ist wohl auch nicht normal oder? Ist bei mir überhaupt etwas normal? :D :ROFLMAO:
 
Hmm, merkwürdig. Welchen Detonator (NVIDIA) benutzt du?
Ich kann dir ja meine INIs mal zusenden...
 
Dass bei Einstellungen in Preferences UT den Geist aufgibt, ist mir auch schon mehrfach passiert. Meist nach einer Neuinstallation, wenn ich in den Preferences z.Bsp. Coronas auf False stellen wollte.

Danach musste ich über 'change video device' auf d3d und die Einstellung direkt in der ini vornehmen. Oder neu installieren.

Scheiß Spiel :ROFLMAO:
 
Sad but true...OpenGL hatte bei UT schon immer Prolbeme mit dem Z-Buffer.




...




(WOVON REDET DER TYP SCHON WIEDER?!?)

kk. Grafikberechnung läuft etwas merkwürdig ab. Das Bild wird nämlich von hinten nach vorne erstellt. Es werden erst Sachen berechnet, die weiter hinten liegen, dann alles, was weiter vorne liegt, bis zur virtuellen Nasenspitze. ;) Alles gleichzeitig darstellen ist natürlich Mist, deswegen benutzen Grafikkarten einen Teil ihres Speichers als sogenannten Z-Buffer. (Z steht für die Tiefenachse. Dreidimensionales Koordinatensystem mit X-Achse links/rechts, Y-Achse oben/unten, Z-Achse vorne/hinten.) Im Z-Buffer wird geprüft, welcher Gegenstand welchen anderen verdeckt und was im Endeffekt überhaupt auf den Bildschirm kommt.

OpenGL benutzt bei UT afaik eigentlich immer einen (recht ungenauen) 16Bit-Z-Buffer, D3D einen doppelt so genauen mit 32 Bit. (Gibt da irgendwo eine Ini-Option bei D3D, Use32BitZBuffer. Auf False gibt es ähnliche Probs wie mit OpenGL, nur längst nicht so stark.) Deswegen scheinen an einigen Stellen Wandstücke durch, die eigentlich von anderen verdeckt sein sollten. Besonders krass wirkt sich der Bug auf Face aus, da löst sich teilweise der halbe Turm auf...

hexx: Irgendwas an deinen Einstellungen hat anscheinend einen 32Bit-Z-Buffer erzwungen. Ich habe auf einer GF2MX auch unter 32 Bit Farbtiefe diese Fehler. Was benutzt du an Graka, Treibern, Ini-Settings?

btw: Grafikkarten ab Radeon/GeForce3 haben einen stark verbesserten Z-Buffer, deswegen tritt der Effekt meist nur mit den Vorgängern auf.
 
@Gorkon.
@Hexxxlein

Also bei mir war schon alles auf 32bit, daher sind mir diese Fehler nicht weiter aufgefallen. Unter D3D habe ich nämlich auch Texturfehler, machte sich besonders bei geworfenen Rockets bemerkbar, die hatten grüne Punkte drumrum (mit 16bit).

>> Use32BitZBuffer

Gibt es unter OGL nicht.
 
Hallo Gorkon

erst einmal vielen Dank für deine Erläuterungen.

Nun unter D3D steht bei mir Use32BitZBuffer=False aber ich spiele ja kaum unter D3D. Bei OpenGL gibt es diese Einstellung nicht. Nun wenn ich dich richtig verstanden habe, dann hast du unter OGL bei 32bit Farbtiefe Probleme. Bei mir ist es umgedreht. Unter 16bit habe ich die Texturprobleme und unter 32bit ist alles sauber, so gut wie. Kleineres zuckeln beim Treppenabwärts laufen ist wohl normal und verkraftbar. *lol*

Ich habe eine Geforce TI 4200 und benutze den Treiber 43.45 dafür. Sollte wohl noch der aktuellste sein. Habe nun auch mal den neuen OGLTreiber und die dazugehörigen Einstellungen benutzt. Läuft sauber unter 32bit aber eben nur da.
 
Anders...mein eigentlicher Rechner hat ne GF3 Ti200 drin und in keinem Modus Probleme. 16 Bit, 32 Bit, beides sauber. Bei einem anderen Rechner mit GF2 MX gibt es mit OGL genau deine Grafikfehler in beiden Farbtiefen. 41.09er-Detonatoren. D3D läuft sauber, leichte Treppeneffekte mit Use32BitZbuffer=False, keine auf True.

Gibt den Punkt "UseZTrick" beim 2.0er-OpenGL-Treiber, aber der verschlimmert auf True die Fehler eher...
 
So ich habe mir nun auch mal diesen Treiber getestet und die Einstellungen siehe hier übernommen für OpenGL aber ich habe dabei "UseZTrick" nicht entdecken können. :confused
 
Aus UseZTrick ist mir auch neu, aber es wird dort ncith dokumentiert, ich habe nur das hier gefunden:

http://www.techspot.com/tweaks/ds9/ds97.shtml
Changing UseZTrick=1 to 0 can fix Z-buffer related problems, although as above may reduce performance. You can also fix Z-buffer errors by running the game with a 32-bit colour depth.

Wird hier eingebunden:
[OpenGLDrv.OpenGLRenderDevice]
...
UseZTrick=1
(etwas weiter unten)
 
Ich glaube, es taucht auf, wenn man bei der 2.0er-DLL über die preferences in den OpenGL-Settings rumspielt. Dann werden alle nicht vorhandenen Einträge in die Ini geschrieben. Seitdem habe ich jedenfalls noch ein paar merkwürdige Settings dort. Insgesamt jetzt fast 50 Punkte für OpenGL...wer soll da noch durchblicken...
 
Oben