<br><br><div class="gmail_quote">On Tue, Apr 29, 2008 at 7:23 AM, Ma Begaj &lt;<a href="mailto:derliebegott@gmail.com">derliebegott@gmail.com</a>&gt; wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
2008/4/28 &nbsp;&lt;<a href="mailto:zoiks2004-ivtv@yahoo.com">zoiks2004-ivtv@yahoo.com</a>&gt;:<br>
<div class="Ih2E3d">&gt; After 4.5 years doing myth in SD I&#39;m getting ready to<br>
&gt; &nbsp;go high-def. Unfortunately, my research has so far<br>
&gt; &nbsp;indicated that high-def myth is a combination of<br>
&gt; &nbsp;crapshoots and settling for less. Not a fault of Myth,<br>
&gt; &nbsp;per se, more of a lack of support by GPU suppliers,<br>
&gt; &nbsp;nvidia and Intel included.<br>
&gt;<br>
&gt; &nbsp;That said, I&#39;d really like to know what people have<br>
&gt; &nbsp;working for full 1080i hi-def playback, on a 1080x1920<br>
&gt; &nbsp;native display. Specifically, the combination of:<br>
&gt;<br>
&gt; &nbsp;1) video card<br>
&gt; &nbsp;2) television<br>
&gt; &nbsp;3) link between video card and television<br>
&gt;<br>
<br>
</div></blockquote><div><br>1) Nvidia 6200 <br>2) Vizio 32&quot; (Circuit City version)<br>3) DVI-&gt;HDMI converter @ 1280x768<br><br>also<br><br>1) Nvidia 6150 (Asus Onboard video)<br>2) Optoma 1080p Projector HD80<br>
3) DVI-&gt;HDMI @ 1080p/60<br><br>I think modelines and what not are mainly a thing of the past.&nbsp; The nvidia drivers are better and the TVs are better.&nbsp; Both my TV&#39;s work by just plugging them in and using the nvidia-settings GUI to autodetect the setings.&nbsp; This also worked on my fathers 5 year old 1080i Sony Wega HDTV.<br>
<br>Mitchell<br> </div></div><br>