I&#39;ve searched and search and can&#39;t seem to find a definitive answer to my questions, so hopefully the all-knowing body of the mythtv discussion list will know.<br><br>My Situation:<br>I&#39;ve got a 32&quot; Samsung LCD TV that has a native resolution of 720p.&nbsp; I have a cable box with an HDMI output that I&#39;ve hooked into my TV&#39;s HDMI input in the past, which resulted in a very clean and crisp picture.&nbsp; I guess I can&#39;t be 100% sure that it was outputting in 1080i, but it says it was.&nbsp; My myth box is setup to run at the 720p resolution, outputting over the DVI interface on my geforce 6200, through a DVI-HDMI cable, into the HDMI input on the TV.&nbsp; As you might suspect, playing 1080i content without deinterlacing is filled with interlacing artifacts.
<br><br>My Problem:<br>I&#39;m very sensitive to even the slightest visual artifacts, and none of the built in deinterlacing methods in mythtv are as good as I would like it to be.&nbsp; So, logic along with searching through lots of mailing lists suggests that if I can output 1080i from my myth box, the (much better) TV deinterlacer/scaler will kick in and give me the same crisp and clear images that I get when I hook up my cable box directly.&nbsp; This should theoretically also save CPU cycles in the deinterlacing/scaling that myth is currently doing.
<br><br>The Solution:<br>Output in 1080i! (and turn off mythtv&#39;s deinterlacing)<br><br><br>So, first of all, am I correct in everything I&#39;ve mentioned above?<br><br><br>I&#39;m not exactly sure how to go about doing this.&nbsp; My TV&#39;s EDID info says that it will accept 1080i sources, and the nvidia 
<br>driver seems to have the 1080i modes built in.&nbsp; However, if I try to use the 1080i modes, the X log complains that the vsync is out of range.&nbsp; This is &quot;true&quot; because the TV wants 60hz, but the mode is listed as 120hz.&nbsp; So, I turn off the vertical sync mode validation.&nbsp; Now it says that the 1080i screen size is bigger than the LCD&#39;s native resolution.&nbsp; Fine, so I turn off the DFP native resolution mode validation.
<br><br>Now it works!&nbsp; Except not.&nbsp; X accepts the 1080i video mode, and the change is apparent on my TV because it is only showing the top half of the screen, and the horizontal scan lines are out of sync.&nbsp; It&#39;s a little hard to explain, but it&#39;s almost like instead of drawing lines 0,1,2,3,4... it&#39;s drawing lines 1,0,3,2,5,4..., except making each scan line twice as big, so the screen only shows half of the picture.&nbsp; I couldn&#39;t think of what to do after that.
<br><br>I also see that I can define a custom modeline.&nbsp; I had to do a lot of mode validation disabling to get this to work too.&nbsp; I have to admit that I havn&#39;t played with this too much, but I can&#39;t get the driver to like anything that I create.&nbsp; I think once I finally got X to start using my modeline, all I got was a blank screen.&nbsp; That&#39;s where I gave up.
<br><br><br>I&#39;ve seen elsewhere that interlaced modes over the DVI output stopped working after driver version 6629, but that driver doesn&#39;t support the 6200 card.&nbsp; However, this was from a post back in 2005, so hopefully that&#39;s not the case anymore.&nbsp; I&#39;ve also seen some people say to enable TwinView with only one display device connected for some reason, but no one ever explained what settings they used for that.&nbsp; Others have said that I need to turn off some vsync settings in the nvidia-settings program.&nbsp; I havn&#39;t investigated these issues myself yet, so hopefully someone can tell me so I don&#39;t have to waste my time.
<br>