45fps trotz 980ti sli mit 35Zoll Monitor

  • Ich habe mir zu Weihnachten einen 35Zoll Monitor geleistet. Hatte Fallout zuvor mit über 120fps durchgehend spielen können. Da hatte ich allerdings noch einen 24Zoll. Jetzt habe ich an manchen stellen 45fps und ab und an mal sogar 1fps. Daraufhin habe ich mir eine 2. 980ti gekauft und diese läuft jetzt im Sli aber ich bekomme nicht mehr fps als 45fps an einigen stellen. Liegt das am Spiel?

  • Nein es liegt nicht am Spiel, sondern evtl. an der Auflösung des Monitors!
    Ich kann aber leider nicht Hellsehen, und vermute einfach mal ins Blaue, das Fallout 4 und Betriebssystem mit Deinem alten Monitor auf "FullHD" mit 1920x1080 Bildpunkten lief.
    Möglicherweise (Bei 35" bin ich schon fast sicher), stellt Deine neuer Monitor 4K mit 3840x2160 Bildpunkten dar.
    Das wäre eine 4-fache Auflösung und somit ein 4-facher Rechenaufwand für die Grafikkarte!


    Schau mal also als erstes, mit welcher Auflösung Dein Spiel läuft, und reduziere diese ggf.

    Lieben Gruß Jey Bee

    Mein System: AMD Phenom II X4 965 @3,42 GHz, 8 GB DDR3, GeForce GTX 660 - 3 GB DDR5, Windows 10 Pro
    2. Rechner: Intel Core 2 Duo E6550 @2.33 GHz, 8 GB DDR3, GeForce GT 710 - 2 GB DDR3, Windows 7 Ultimate x64 SP1

  • Also mein alter Monitor war ein 144Hz G-Sync mit 1920x1080 punkten. Mein jetziger ist nur ein 21:9 Monitor ohne 4K und hat 2560x1080 punkten also nicht weit aus mehr. Aber was mich verwunder ist das eine Grafikkarte alleine 45 schafft und 2 auch. Kann also eine 2. 980Ti einbauen und im Sli betreiben und habe keine Auswirkung drauf als hätte ich nur eine drin. Das spiel wurde auf 2560x1080 eingestellt. Normal unterstützt es keinen breiteren als 1920x1080 aber das liegt am Spiel soweit weiß ich schon.

  • Ich nutze auch einen 21:9 Monitor mit 29" und auch mit einer Auflösung von 2560x1080, als Graka verwende ich eine GTX 770.
    Läuft mit hohen Einstellungen, einwandfrei ruckelfrei.


    Nur 2. teure verbaute Karten garantieren noch lange keinen flüssigen Spielfluß.


    Wie sieht der Rest Deines Systems aus, was ist sonst noch so verbaut?


    Bei den meistens Karten im SLI Verbund ist kaum bis minimal ein Leistungsanstieg zu vernehmen, vor allem muss das Spiel auch dazu fähig sein und nur die wenigsten unterstützen SLI!


    Um SLI verwenden zu können, versuche mal bitte dies hier: http://www.nexusmods.com/fallout4/mods/684/? aber bitte genau durchlesen!

  • Hab die Karte schon wieder verkauft. Der unterschied war mir zu mininmal. Dafür zusätzlich noch 600 zu investieren war dem nicht wert. Mein System ist ein 2011-3 I7 5930 und 16GB DDR4. Habe jetzt mal V-Sync rausgenommen da ich ja G-Sync habe. Jetzt habe ich statt (45) 100 reicht also. Das ist wenn man neue Technik hat aber nen Spiel zu lange entwickelt wird. Da gab es die Hardware damals noch garnicht. Wird zeit das mal nen bissel gepatcht wird. Das Spiel kann ja so einiges nicht. Habe auch noch keine info gefunden das Fallout 4 noch kein SLI kann. Scheint aber so zu sein, wenn es die selbe Leistung hat wie mit einer einzelnen Grafikkarte.

  • Habe jetzt mal V-Sync rausgenommen da ich ja G-Sync habe. Jetzt habe ich statt (45) 100 reicht also.

    Was mich eigentlich etwas verwirrt.
    Denn V-Sync sollte die FPS an die Bildrate des Monitors anpassen (Nur bei Reduzierung)
    Ich bin mir natürlich nicht sicher was G-Sync macht, aber so oder so stellt sich die Frage, mit welcher Frequenz Dein Monitor arbeitet? 8|
    Die meisten Monitore arbeiten mit 60 Hz, weshalb FPS über 60 selten "Sinn" machen.


    Kann mir aber vorstellen, das die Kombination G-Sync und aktives V-Sync in der Tat zu "Konflikten" geführt hat.
    Generell tut ich mich bei Leuten mit solchen "High-End" Rechnern immer schwer, die der Meinung sind, die "beste" Hardware verbaut zu haben, und damit "automatisch" Erwarten, keine Probleme zu haben.
    Denn abgestimmt "muss/sollte" die Hardware miteinander und auch deren Treiber dennoch sein.
    Das betrifft auch den schon erwähnten Irrglaube, das SLI oder Crossfire, automatisch "immer" ein Leistungsgewinn bedeutet.


    Aber wenn Du es jetzt hinbekommen hast, störungsfrei zu spielen (Was auch mit 45 FPS möglich gewesen wäre) ist ja alles bestens.

    Lieben Gruß Jey Bee

    Mein System: AMD Phenom II X4 965 @3,42 GHz, 8 GB DDR3, GeForce GTX 660 - 3 GB DDR5, Windows 10 Pro
    2. Rechner: Intel Core 2 Duo E6550 @2.33 GHz, 8 GB DDR3, GeForce GT 710 - 2 GB DDR3, Windows 7 Ultimate x64 SP1

  • Spiele auf G-Sync 144Hz das heißt eigentlich 144fps aber seit ich den 35 zoll Monitor habe, habe ich nicht immer und überall 144 da kommt auch mal ne ecke mit 50fps und ja man merkt es deutlich. Bis dahin hatte ich auch noch kein einbrechen der fps. Habe die Einstellung nicht weiter gespielt nur vorhin mal kurz reingeschaut was die fps macht. Bin mit dem Spiel durch mal schauen ob ich mich noch mal motivieren kann. Vielleicht hätte ich mir doch ein 29" oder 27" kaufen sollen. Aber für Office Anwendungen ist der große doch besser geeignet. Sieht besser aus als 2 Monitore.


    Ja da gebe ich dir aber recht teuer ist nicht immer gleich beste. Aber wer beste haben will muss halt tiefer in die Tasche greifen. Und wer das beste haben will kann auch etwas davon erwarten. In dem fall war es nen griff ins Klo da mal wieder die Software nicht mitspielt. In dem fall das Game. Es ist halt ein Hobby und man ist immer etwas verärgert wenn man schon Komponenten von einem Hersteller nimmt und es doch nicht funktioniert. Früher war ich immer der Meinung das man Firmen untereinander nicht mischen sollte. Weil ja jeder seine eigene Hardware verkaufen will. Wobei ja eigentlich alles Standardisiert ist. Aber selbst Hardware aus eigenem Haus funktioniert nicht 100% miteinander. Einen Fertigrechner kann jeder kaufen, das Basteln ist hier ausschlaggebend. Mit der Zeit und der Technik gehen. Alles was älter ist gehört in Ebay oder aufen Dachboden.

  • Spiele auf G-Sync 144Hz das heißt eigentlich 144fps aber seit ich den 35 zoll Monitor habe

    Das beantwortet aber meine eigentliche Frage nicht so 100%ig.
    Was ist G-Sync? Hersteller/Typbezeichnung des Monitors? Software? Treiber?
    Und der Monitor hat eine Native Frequenz von 144 Hz? 8| Ungewöhnlich krumme Zahl.


    Ps: einen kleinen Unterschied zwischen Hz und FPS gibt es doch!
    Hz (Hertz) ist eine gleichmäßige Frequenz. Während FPS die durchschnittliche Bildwiederholrate eines Meßzeitraumes ist, demzufolge also sogar innerhalb der Namen gebenden Sekunde schwanken kann! Weshalb es auch zu Rucklern über 25-60 FPS kommen kann.


    Pps: Das Menschliche Auge verarbeitet eh nur ca. 25 Bilder pro Sekunde. Weshalb 60 FPS im Idealfall vollkommen bzw. mehr als ausreichend sind.
    Deswegen ist mit V-Sync bei leistungstarken Grafikkarten (die deutlich mehr als 60FPS schaffen) trotzdem ein Performancegewinn möglich.
    Da die Graka dann Leistungsreserven hat, die ohne V-Sync eben nicht da sind, und es zu stärkeren FPS-Schwankungen kommt... neben dem bekannten Tearing.

    Lieben Gruß Jey Bee

    Mein System: AMD Phenom II X4 965 @3,42 GHz, 8 GB DDR3, GeForce GTX 660 - 3 GB DDR5, Windows 10 Pro
    2. Rechner: Intel Core 2 Duo E6550 @2.33 GHz, 8 GB DDR3, GeForce GT 710 - 2 GB DDR3, Windows 7 Ultimate x64 SP1

  • Was G-Sync ist beantwortet dir Nvidia oder Google. Da du ja das technische Verständnis hast wirst du es sicherlich auch verstehen. In dem fall produziert die Grafikkarte nicht mehr als 144fps. V-Sync ist vom System her ähnlich nur veraltet. G-Sync hat nicht jeder Monitor und ist nur für Nvidia Karten. Es gibt noch Freesync das ist ein Monitor für AMD. Der Monitor ist ein 35" von Acer Z35


    Wenn ich aber 144Hz einstelle kann die Grafikkarte auch nur max 144fps produzieren. Das selbe gibt es noch in 120Hz und 75Hz bzw. 60Hz ich finde ab 100 wird es Augen schonender. Der Z35 kann sogar 200Hz aber das find ich etwas übertrieben da die meisten Games nicht mal an 144fps herankommen außer im Menü oder wo wenig Grafik verlangt wird.

  • Nochmals... Du weißt schon, das das Menschliche Auge nur ca. 25 Bilder pro Sekunde verarbeiten kann?
    Auch das speziell Fallout 4 stark FPS-Abhängig ist... sprich Spielabläufe (Schlösserknackproblem) werden mit höherer FPS ebenfalls schneller.


    Sofern die Graka min. (durchgehend und gleichmäßig) 60 FPS liefern kann, gibt es keinen logischen Grund selbiger mehr abzuverlangen.


    Auch gibt es seit den TFT/OLED Bildschirmen kein Bildflimmern mehr, da die Bildinhalte schon lange nicht mehr Zeilenweise aufgebaut werden, sondern als ganzes. (60 Hz Röhrenmonitore haben in der Tat geflimmert, weshalb 100 und mehr Hertz da wirklich schonender waren)
    Das Tearing entsteht übrigens durch interne Bildaufbereitung, da Bilder noch wärend der Bildberechnung (Die tatsächlich noch Zeilenweise berechnet wird) erneuert werden.


    Der einzige Grund, warum "heute" viele Spiele mit FPS jenseits von 60-100 als schonender wahr genommen werden, ist die Tatsache, FPS-Schwankungen innerhalb der Hohen Bildraten besser zu kompensieren. Das muss aber nicht zwingend "die beste" Lösung sein.
    Rechenbeispiel:
    Die Grafikkarte verarbeitet in den ersten 50 Millisekunden 70 Bilder und gibt sie aus. die Nächsten 50 Millisekunden schaft sie auf Grund von "Lags" vielleicht nur 10 Bilder.
    Ergebnis: 80 Bilder in einer Sekunde! Sieht als Wert klasse aus. effektiv gab es aber in der 2. halben Sekunde nur 10 Bilder, was wir evtl. als Ruckler wahrnehmen, da dieser niedrige Wert dem Auge ehr auffällt als die hohen werte.


    Es ist also Ratsam, das FPS-Limit immer Deutlich unter dem Max. anzusetzen, um der Graka Rechen-Reservern zu lassen, um im Bedarfsfall Leistung hinzuzuziehen (FPS konstant halten), statt zu verlieren (FPS-Einbrüche)


    Das ganze Prinzip funktioniert bei leistungsfähigen Grafikkarten natürlich besser, als Grakas, bei denen die Spiele generell kaum mehr als 50-60 FPS schaffen.
    Bei mir sind es in FO4 im Schnitt 45-50 FPS. In Rechenstarken Gegenden (Bosten Zentrum zb.) fällt die FPS auch mal unter 30-25. Aber ein ernsthaftes Ruckeln nehme ich dennoch nicht wahr.


    Aber unter Strich, möchte ich niemandem seinen persönlichen Eindruck in Frage stellen.
    Nur aus Gameplaytechnischen Gründen würde ich schon dazu raten, mit nicht ZU hohen FPS (Das Spiel ist auf 60 FPS ausgelegt) zu spielen, da sonst Kämpfe und auch das oben genannte Schlösser knacken unnötig erschwert werden könnten.


    Ps: Tatsächlich können hohe Frameraten sogar zu Wahrnehmungsstörungen führen. Weshalb sich zb. HFR-Filme (High-Frame-Rate) mit 50 FPS nicht wirklich durchgesetzt haben. Zeitlupen-Effekt, und leichte Schwindelgefühle waren noch die harmlosesten Symptome.
    So hatte ich mit "Der Hobbit: Eine unerwartete Reise" in 3D-HFR angesehen. Anfangs kam mit der Film tatsächlich etwas Zeitlupenmäßig vor, und danach war mir auch etwas übel.

    Lieben Gruß Jey Bee

    Mein System: AMD Phenom II X4 965 @3,42 GHz, 8 GB DDR3, GeForce GTX 660 - 3 GB DDR5, Windows 10 Pro
    2. Rechner: Intel Core 2 Duo E6550 @2.33 GHz, 8 GB DDR3, GeForce GT 710 - 2 GB DDR3, Windows 7 Ultimate x64 SP1

  • ja hab ich von gelesen aber da sind es 75fps soweit ich weiß. Alles darüber hinaus beschleunigt das Spiel gering. Habe meine 75fps sperre aber im Spiel nicht entfernt. Finde schlösserknacken so wie es ist OK und auch der Spieleverlauf ist nicht spürbar schneller. Das einzige was mir auffällt ist das die Figuren schneller sprechen und es dadurch abgehackter erscheint, aber daran hab ich mich schon gewöhnt. Ist halt nen 0-8-50 speil für jedermann. Aber nur weil der Spielehersteller es so will muss ich meine Hardware nicht drosseln. Da muss der Hersteller dann sehen das er Patches nachliefert. Einige Verbesserungen gab es ja schon. Vorher war es gar nicht spielbar bis ich das mit dem 75fps mitbekommen hatte. Musste das spiel dann auf 75 drosseln jetzt geht es auch teilweise wieder ohne Drosslung. Ab und an verscheidet mal die Inventaranzeige oder das Gewehr aber das lässt sich mit laden wiederherstellen.


    Beim Spielen merk ich es nur wenn es unter die 50fps grenze geht. Alles darüber ist OK. G-Sync wirkt dem Ruckeln entgegen kann aber nix machen wenn das Spiel auf einmal nur 50fps ausgibt obwohl sich nichts wesentliches am Bild geändert hat. Vielleicht kommt ja noch nen Patch damit auch die Hightendgamer ihren spass am spiel habe. Allerdings hat man es bis dahin schon 10x durchgespielt. Trägt vermutlich auch dazu bei das Spiele immer später gekauft werden und der Spielehersteller das nachsehen hat.

  • Das das menschliche Auge nur 25 Bilder pro Sekunde wahrnehmen kann ist natürlich quatsch, sonst würde man ab 25 FPS keinerlei Unterschiede feststellen. Kann dir übrigens jeder Augenarzt bestätigen.


    Zu dem Problem: Meines Wissens nach unterstützt F4 kein SLI oder Crossfire. Kannst du ja mal mit dem MSI Afterburner checken. Ansonsten sind Framedrops je nach Stelle leider normal. Ich spiele auf 2560x1440 und einer GTX 980 Ti. An manchen Stellen hat das Spiel böse geruckelt, habe mir an den Stellen dann mal die FPS angezeigen lassen, siehe da: Geht teilweise auf 32 FPS runter. Zum Glück sind diese Stellen bei mir eher selten. dazu sei gesagt: Weder Prozessor- noch GPU Last sind nahe der 100% wenn ich diese Ruckler habe, ergo: Engine-Limit bzw unsauber programmiert ;).

  • @Jay_Bee
    Der Schmarrn mit dem Menschlichen Auge ist nur teils richtig. Klar kann es nur 25 FPS warnehmen aber höhere FPS haben durchaus auswirkungen.
    Das mit abstand beste Beispiel sind die VR Headsets. Wenn deine Hardware pro VR Display 60 FPS gestemmt bekommt ist Motion Sickness fast komplett weg. Wenn du das ganze auf schwächerer Hardware betreibst wo Framedrops vorkommen wird den Kollegen Regelmässig nach paar Minuten schlecht. Btw. mir auch :).


    Wer auch mal den Unterschied gesehen hat zwischen Vsync und Gsync/Freesync, der wird diese Aussage mit dem nicht wahrnehmen auch Recht schnell in die Tonne kloppen.
    Ich hab noch niemanden gesehen der nicht einen Merkbaren unterschied gesehen hat zwischen 60 FPS (Hz) Vsync lock und nem Gsync/Freesync Display das mit 100+ FPS (Hz) befeuert wird.


    Die Fallout 4 Engine ist auch Technisch wirklich schlecht. Mein Lehrling hats soweit ich weis auf seinem Triple-SLI System nicht auf allen 3 Displays zum laufen gebracht, bin mir nichtmal sicher ob ers überhaupt mit allen 3 Karten zum laufen bekommen hat.
    Ich hab auch immer wieder total verblüfft feststellen müssen das ich auf meinem System irre Framedrops hatte. Die ich btw. bei Far Cry 4, was ohne zu übertreiben Grafisch in einer anderen Liga spielt bei ähnlichen Sichtweiten etc., nicht hatte.


    Und der Quatsch mit den Leistungsreserven ist eigentlich durch Gsync/Freesync hinfällig. Da diese Technik ja genau dafür gedacht ist Framedrops abzufedern. Das eine gewisse min. Leistung nicht unterschritten werden sollte ist dabei voraussetzung. Macht kaum sinn 10 FPS and die Monitor Hz zu koppeln ;).
    Der riesen Vorteil gegenüber Vsync ist ja das ich eben nicht die 60Hz vom Monitor als vorgabe nutze, und die Grafikkarte zwingend 60FPS schaffen muss das es anständig aussieht.
    Sondern das im Endeffekt die FPS der Grafikkarte die Hz des Monitors vorgeben.
    Und wie oben schon erwähnt, den Unterschied zwischen 60FPS Vsync und 100+ FPS Gsync sieht man auf jedenfall.


    Nichts gegen dich Jay_Bee aber du solltest dein Wissen mal auf aktuellen Stand bringen. Da hat sich darstellungstechnisch in den letzten Jahren unglaublich viel getan. Zumindest im High-End Segment.

  • redet ihr eigendlich immernoch vom 1. thema?^^
    falls ja:


    dein denkfehler liegt doch klar auf der hand:
    du kaufst dir einen monitor der ca 30% höhere auflösung hat wie dein vorheriges system. knallst dir eine zweite graka rein udn denkst es läuft auf den selben fps?^^ das ist echt wunschdenken.


    sli/crosfire verstärkt die grafikleistung nur geringfügig. wir reden hier von ca 20%, wenn nicht weniger. außerdem kommt es extra noch auf deine restliche hardware an. diese kann wie jey_bee schon sagte, sogar das system schwächer machen mit sli. ich sag nur PCIe 8fach slot für die 2. graka ...


    jetzt sagst du vllt gut, 30% höhere auflösung, aber 20% mehr leistung!? nein, so kannst du das auch nicht rechnen! das game wird ja nicht aussschließlich von der graka berechnet. ram, cpu alles hat dann eine höhere last. dann spielen da noch temperaturen rein, treiber und und und...


    außerdem hast du jetzt auchschon selbst gemerkt dass fallout4 wohl nicht wirklich sli unterstützt, sonst wäre sicher wenigstens ein unterschied in den frames zu merken. vllt liegt es aber auch nur an dir und du hast z.b. die sli-bridge nicht dran gesteckt? graka im bios aktiviert? strom an die 2. graka gemacht? reicht das netzteil für 2? ich könnte dir stundenlang dinge aufzählen die man falsch machen kann, da gibt es so viel ^^

  • Ich hatte nicht jeden Post gelesen, gerade nachgeholt.


    Hast du mal gelesen was er für nen Monster da stehen hat?


    i7-5930 (6 Cores 3,5GHz)
    16GB Ram
    980Ti


    Das sollte auf jedenfall reichen um das auf 2560*1080 mehr wie 45 FPS raus zu bekommen. Der Thread ersteller is eh bisserl wirr (nix für ungut) und schmeisst hier begriffe durcheinander. Aber das ändert nichts daran das 45 FPS schon sehr komisch sind bei so ner Kiste.


    Er schreibt zwar später das er wohl vSync anhatte (was die 45FPS erklären würde) bei ner Gsync kiste. Aber das Fallout so ultra schlecht mit SLI skaliert kann man auf die Engine schieben bzw. die niedrige Auflösung schieben die er benutzt. Bei Skyrim hat man bei 2k fast keinen Unterschied zum Betrieb mit einer Karte, bei 4k mit allem Krempel drin bis zu 55% mehrleistung. Denke mal das sollte bei Fallout ähnlich sein.


    Und sein Wunschdenken ist nicht soweit von der Realität weg ehrlich gesagt. Da SLI in der Regel erst bei wirklich hohen Auflösungen die richtigen Performancegewinne zeigt. z.B. bei Crysis 3 (Cryengine) lassen sich im 2k Betrieb teilweise bis zu 90% höhere Frameraten erzielen, im 4k Betrieb immer noch bis zu 68% mehrleistung.


    Und das nen Game auf 4k so unglaublich mehr Last auf die restlichen Komponenten macht wie du sagst ist einfach auch nicht wahr. Physikberechnungen etc. etc. sind Grafik unabhängig. Je höher ich die Auflösung und Grafik settings schraube umso mehr Last müssen die Grafikkarten abfangen. Mehr CPU Last und Ram verbrauch ist bei höheren Auflösungen zu vernachlässigen. Zumindest bei den fast 70 Games Kisten in der Arbeit die ich durch gebenched hab bevor ich sie Austeil.


    Und so die Doktorarbeit ist nen SLI verbund auch nicht. Nur so als Hint, ne 980 auf Maxwell Basis frisst weniger Strom wie ne 660 Ti :). Wir haben in keinem unserer SLI Systeme was grösseres wie nen 750W Netzteil drin. Solange man nicht Übertaktet hält sich gerade bei den neueren Kisten der Stromverbrauch echt in grenzen. Hmm halt ich hab gelogen, die Titan X SLI Kiste hat nen 1000W Netzteil. Aber das ist die einzige die ausm Rahmen fällt.

  • Ich habe selbst eine GTX 980Ti und einen I7 auf 4,5 GHZ. Es gibt durchaus Stellen da breche ich auf 40 FPS weg. Die Spielengine macht da einfach dicht, Engine-Limit halt.


    Mein letzter Stand war übrigens das Fallout nicht mal SLI/Crossfire unterstützt. Wenn das immer noch der Fall ist kann er auch 10 GPUs einbauen, es wird nichts ändern.


    Das SLI nur 20% bringt ist natürlich auch völlig an den Haaren herbeigezogen. Klar kannst du auch wie bei Fallout 0% rauskriegen, bei anderen Spielen kriegst du tatsächlich FAST die doppelten Frames raus. 80-90% mehr Leistung sind schon drin wenn ein gutes SLI-Profil vorhanden ist.

  • Der Unterschied ist einfach, dass zwischen FullHD und 4k Welten liegen. SLI erzeugt zwar die notwendige Rechengeschwindigkeit, jedoch ergänzen sich die beiden Grafikkarten speichertechnisch nicht. Sprich wird eine Grafikkarte voll, ist Feierabend. Da müsste wenn dann schon ein Modell mit mehr als 4gb Speicher hinhalten, damit's bei Fallout passt. Was laut meinen Nachforschungen am meisten Leistung frisst, sind die neuen Godrays. Schaltet man von Ultra auf Hoch, sieht man zwar bei großen Objekten, wie der Tür von Vault 111 kleine Quadrate im Licht, aber dafür haust du da noch mal locker 10 - 20 fps raus.

    "The assassin has overcome my final defenses, and now he seeks to murder me. Was a man sent to kill me or a slave? A man choses, a slave obeys... come in. Stop - would you kindly? Would you kindly... powerful phrase... familiar phrase? Sit - would you kindly? Stand - would you kindly? Run! Stop! Turn! A man choses, a slave obeys! Kill! OBEY!" - Andrew Ryan /Rapture 1958

  • Sollte bei Fallout 4 allerdings nicht so hart ins gewicht fallen. Hab jetzt auf die schnelle nur den Gamestar Artikel gefunden.


    http://www.gamestar.de/spiele/…3238814,3.html#hdd-vs-ssd


    Fallout 4 scheint auch auf 4k noch relativ genügsam zu sein.


    die gehen in dem artikel nur auf die <<graka ram auslastung ein bei höherer auflösung>> und die <<fps bei höheren details>> ein.
    nicht aber auf die <<fps bei höherer auflösung>>. leider.


    auch finde ich es SEHR AMÜSANT, dass bei den idioten WENIGER frames bei niedriger auflösung und mittleren details(Bild1) herrauskommen als bei hoher auflösung+hohen details (Bild2) :D
    944x531.jpg
    Bild1: durchschnitt ~20fps, min 12fps, max 40fps


    Bild2: durchschnitt ~30fps, min 15fps, max 90/45fps
    944x531.jpg
    wie dumm kann man eigentlich sein?



    abgesehen davon:
    ich schließe mich aber "Der Thread ersteller is eh bisserl wirr (nix für ungut)" an. ;)
    deshalb muss er nur einen einzigen fehler beim einbau oder den einstellungen gemacht haben und es kann schon möglich sein, dass bei IHM die fps auf 45 fallen. Nur der GRUND DAFÜR ist doch schließlich das, was wir hier versuchen herrauszufinden, oder? :) deshalb hab ich ihm ein paar möglichkeiten dazu aufgelistet. mehr kann man aus der ferne so auch nicht machen.


    außerdem reden wir hier doch immernoch NICHT
    von 4k(4x 1920*1080, 16:9) oder UHD(4x 1280*720, 16:9)
    sondern lediglich von 2560*1080, 21:9 !
    um das endlich mal klar zu stellen.


    PS:
    - ist jemandem aufgefallen, dass der 1. post und der "ich hab die karte wieder verkauft"-Post am selben tag geschrieben wurden?...


    - habe eben mal probiert fallout4 mit meinem SXGA 1280*1024 (5:4) zum laufen zu bringen - unspielbar! ich kann nur 16:9 oder 16:10 mit 1280*720 auswählen. das resultat ist, dass ich das spiel am oberen bildschirmrand kleben habe und unten immernoch den desktop sehe und auch mit der maus einfach wechseln kann. es ist sozusagen kein 5:4 aspect ratio verfügbar. woraus folgt, dass kein vollbildmodus geht. wie sieht das bei 21:9 aus? benutzt ihr dafür mods? 8| vllt liegt ja da schon das problem mit den fps... <.<


    Edit: nach langem herrumgefummle hab ich irgendwie ein vollbild in 5:4 hinbekommen. ist aber völlig verzerrt(seitlich gequetscht/in die höhe gezogen). auch wenn alles drauf ist. ist deutlich sichtbar, dass das spiel für 16:9 ausgelegt ist.
    daher stellt sich die frage: kann man mit einem anderen bildschirmverhältniss als 16:9 od. 16:10 überhaupt normal fallout spielen?

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!