<br><br><div><span class="gmail_quote">On 7/12/06, <b class="gmail_sendername">Marc Infield</b> &lt;<a href="mailto:marc@infielddesign.com">marc@infielddesign.com</a>&gt; wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Hi,<br><br>I just purchased a Westinghouse LVM-42w2 and my existing Myth setup<br>has a chaintech fx5200 card with DVI. Can a fx5200 card drive the<br>LVM-42w2 at 1080p?<br><br>I've been searching around and reading posts for more than an hour
<br>and I seem to be going around in circles. There are many posts on the<br>FX5200 card and I see some conflicting post on weather it can handle<br>1080i through the DVI port and some issues about frequency and<br>drivers, but I haven't found much on 1080p. I'm a little nervouse
<br>that I'll wreck a reliable MythTV setup if I start fiddling with any<br>modeline parameters.<br><br>Currently when I hookup the monitor up to with a DVI cable it shows<br>the text startup but drops the signal when it goes into X, the s-
<br>video works fine.<br><br>Any links or pointer would be appreciated.<br><br>By the way, I'm pretty impressed with the LVM-42w2 so far.</blockquote><div><br>I have that exact TV, as well as that exact Chaintech FX5200 card. I found that with the newest nvidia proprietary drivers, the FX5200 is limited to a 135Mhz pixel clock over the DVI output. With earlier drivers, this was apparently not a limitation, but getting the older drivers to work with the newer kernels is a non-trivial thing. The 135Mhz clock is not enough to drive 1080p, so it refused to work. However, over the 15 pin vga connector, I was able to do 1080p. I had another machine that is a dual boot windows/FC5 box that I tried it out on also, with a 6x00 series video card (Can't remember the exact model off the top of my head). With that card, the binary drivers did 1080p just fine over DVI. Testing is fairly easy, as you don't have to specify custom modelines to make it work. You can specify &quot;1920x1080&quot; as the resolution, and it just works. However, you can muck with the modelines if you want to, and I found these modelines from somebody else's config:
<br><br><pre>        Modeline &quot;1920x1080-59.94p&quot;<br>        148.352<br>        1920 1960 2016 2200<br>        1080 1082 1088 1125<br>        +hsync -vsync<br>        # The modeline I use<br><br>        Modeline &quot;1920x1080-60p&quot;<br>
        148.5<br>        1920 1960 2016 2200<br>        1080 1082 1088 1125<br>        # Another modeline I've used</pre><br>I tried the 1920x1080-59.94p modeline with my TV, and that worked fine also (In the same combinations as just using &quot;1920x1080&quot;, not on the FX5200 DVI). However, I didn't really notice any difference, so I went back to just specifying &quot;1920x1080&quot;. I was originally going to just upgrade the video card to a low end 6x00 or 7x00 video card that wouldn't have that issue, but I ended up deciding on more comprehensive upgrades so that I could do hi-def without using XvMC.
<br><br>Shawn<br></div></div>