<div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr">On Sat, Mar 2, 2019 at 6:03 PM Stephen Worthington <<a href="mailto:stephen_agent@jsw.gen.nz">stephen_agent@jsw.gen.nz</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On Sat, 2 Mar 2019 13:58:56 -0800, you wrote:<br>
<br>
>Someone must know the answer to this really fast.<br>
><br>
>Myth has HDMI output connected to a TV at 1080 according to the TV. I want<br>
>to connect to my projector that is capable of a 1080 input.  I also have a<br>
>small monitor connected to Myth via RGB input but it also has a DVI input.<br>
>The cable to the projector is DVI but the projector is HDMI.<br>
><br>
>I inserted an audio stripper box so that my cables would work and with that<br>
>box I can play Myth into the TV just fine. I can connect and disconnect and<br>
>everything is happy.<br>
<br>
>Myth is setup to not auto detect the monitor as that<br>
>caused all kind of problems. Maybe that is the problem but if I enable<br>
>whatever the hell that function is called, I just get black TV screen<br>
>because when the TV is turned off, Myth disconnects and never reconnects.<br>
<br>
The problem of disconnection when the TV is off has a number of<br>
different solutions, most of which have been mentioned on this list at<br>
some time.  Your solution may not be the best one, as you do need to<br>
detect the video device when it changes to something else. Suppressing<br>
the DPMS screen blanking works for some people, and so does killing<br>
one piece of software that I forget the name of.<br>
<br>
>Bottom line is that if I insert the projector or monitor DVI cable into the<br>
>audio stripper instead of the TV, I get nothing.<br>
<br>
I am not familiar with audio strippers, but I presume that they will<br>
have to decode the HDMI data, and do a digital to analogue conversion<br>
of the audio data to analogue outputs.  I would have thought that they<br>
would pass through the full HDMI data to the HDMI output, still<br>
including the audio data.  But because of HDCP, they will have to<br>
fully decode and re-encode the data, and unless that is done properly,<br>
they may interfere with the normal detection of the video device.  So<br>
I would recommend trying to connect without the stripper in place and<br>
make that work before adding it back in again.  And I am not sure you<br>
actually need the stripper.  Most PCs have a builtin sound card on the<br>
motherboard with audio outputs.  You could be using that to send sound<br>
to your amplifier.  That is what I do - I have the sound card set up<br>
to send S/PDIF audio to my DAC which does the digital to analogue<br>
conversion and sends it to my amplifier.  You can set things up so<br>
that the audio is sent to both the sound card and to the HDMI audio<br>
outputs at the same time.<br>
<br>
>I don't understand why the computer doesn't just output its signal and the<br>
>Projector detect it and display it.<br>
<br>
The signal needs to be correct for the video device.  A signal that<br>
works with the TV is not necessarily going to work with the projector.<br>
Normally, when a new video device is connected, X will fetch the ID<br>
and EDID data from the device and use that to determine the correct<br>
format for the output data to the device.  It logs what it does, so<br>
there may be information about your problem in your Xorg.?.log files.<br>
Complicating matters is the problem that many video devices actually<br>
send EDID data that is not completely correct, and that can then lead<br>
to the need to override that bad data with xorg.conf settings.  The<br>
fact that it "just works" with your TV simply means that you got lucky<br>
and your TV works well.  Your projector may not be as good.<br>
<br>
One thing to try is to shut down the MythTV box and plug in the<br>
projector and boot using it only (no TV or monitor connected, no audio<br>
splitter).  You should get the BIOS screens on the projector, and then<br>
hopefully the PC will boot up properly and detect the projector and<br>
work with it.  Then you can check the Xorg.0.log file and see what<br>
works with the projector.  Repeat with the TV only, and compare the<br>
two Xorg.0.log files and see what is different.<br>
<br>
>I look in xorg.conf (is this still the right file? Probably not...) and I<br>
>see my monitor which is identified as a samsung, and the tv, which is not<br>
>identified so why should it care?. It has an output listed as 1920x1080<br>
>which the projector supports.<br>
<br>
Yes, xorg.conf is still normally the right place.  But you have not<br>
told us what Linux distro you are using, or what your video card is.<br>
Both matter in sorting out video output problems.  In the worst case,<br>
you may need to have separate manually created sections in xorg.conf<br>
for each of your video devices that specifies how to talk to them.<br>
<br>
>The goal is to be able to unplug the TV and plug in the projector and watch<br>
>the Oscars, or any other significant show on the big screen occasionally.<br>
>Normally the Projector is hooked up to a DVD player. I guess I could get a<br>
>new preamp that switched HDMI but that is a huge expense for something we<br>
>would only want to do a few times per year.<br>
<br>
And a new pre-amp would not necessarily fix the problem anyway.<br>
<br>
>Anyone know what I should do?<br>
><br>
>Allen<br></blockquote><div> </div><div>I think the problem is that I misread the specification on the projector.  While it says that it does 1080p, the maximum data rate is 1280x720 so the 1080p must be with an analog input.  Same with the monitor. It has a native resolution of 1280 x 1024.  Per the recommendation of everyone here, I set the TV up from my initial setup of 1280x720 to 1920x1280 when I upgraded to Mythbuntu-16.</div><div>    <br></div><div><div>Option         "metamodes" "VGA-0: nvidia-auto-select +0+0, HDMI-0: 1920x1080 +1280+0"</div><div><br></div><div>When I was running Mythbuntu-8 which drove the projector and the TV just fine, I had everything set to 1280x720 as that is all the TV signal is anyway.</div><div><br></div><div>So now I have to decide if I want to use the TV at 1920x1080 or downres so I can use the projector a few times a year or find some way to have the computer auto detect without turning the TV black. I believe there was also an issue with the Sony sending bad EDID data. I just read something about auto detecting 1360x768 instead of something useful.  Might be a different model but I recall there was an issue. Maybe there is a way to have X pick between 1280x720 and 1920x1024???</div><div><br></div><div>The video card is "GeForce GTX 750 Ti"</div><div><br></div><div>Well, I think I am at least understanding why it doesn't work.</div><div><br></div><div>Allen</div><div>    <br></div></div></div></div></div></div></div></div></div></div>