<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Oct 8, 2020 at 7:11 PM Paul Gardiner <<a href="mailto:lists@glidos.net">lists@glidos.net</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On 08/10/2020 16:21, Roland Ernst wrote:<br>
> <br>
> <br>
> On Thu, Oct 8, 2020 at 5:01 PM Paul Gardiner <<a href="mailto:lists@glidos.net" target="_blank">lists@glidos.net</a> <br>
> <mailto:<a href="mailto:lists@glidos.net" target="_blank">lists@glidos.net</a>>> wrote:<br>
> <br>
>     On 08/10/2020 15:15, Roland Ernst wrote:<br>
>      ><br>
>      ><br>
>      > On Thu, Oct 8, 2020 at 2:03 PM Paul Gardiner <<a href="mailto:lists@glidos.net" target="_blank">lists@glidos.net</a><br>
>     <mailto:<a href="mailto:lists@glidos.net" target="_blank">lists@glidos.net</a>><br>
>      > <mailto:<a href="mailto:lists@glidos.net" target="_blank">lists@glidos.net</a> <mailto:<a href="mailto:lists@glidos.net" target="_blank">lists@glidos.net</a>>>> wrote:<br>
>      ><br>
>      ><br>
>      >      >> Maybe you are hit because of a too small timeout ?<br>
>      >      >> See <a href="https://github.com/MythTV/mythtv/pull/199" rel="noreferrer" target="_blank">https://github.com/MythTV/mythtv/pull/199</a><br>
>      >      >> This is currently only on master fixed.<br>
>      >      ><br>
>      >      > I wondered that too. I'll take that commit on too and see<br>
>     if it<br>
>      >     helps.<br>
>      >      ><br>
>      >      > I'll get those logs beforehand in any case.<br>
>      ><br>
>      >     Here's the log.<br>
>      ><br>
>      ><br>
>      > The execution of tmdb3.py from the provided log file took 43 secs<br>
>     on my<br>
>      > side.<br>
>      > So it is enough to change line 292 in that file to the same value<br>
>      > fixes/31 is using:<br>
>      ><br>
>      > /signal.alarm(60)/<br>
>      ><br>
>      > Then do a<br>
>      ><br>
>      > /sudo python3 -m compileall<br>
>     /usr/share/mythtv/metadata/Movie/<a href="http://tmdb3.py/" rel="noreferrer" target="_blank">tmdb3.py/</a> <<a href="http://tmdb3.py/" rel="noreferrer" target="_blank">http://tmdb3.py/</a>><br>
>      ><br>
>      > and it should work.<br>
>      ><br>
>      > Do not forget to clear the tmdb3 cache:<br>
>      ><br>
>      > /rm ~/.mythtv/cache/pytmdb3.cache/<br>
>      ><br>
>      > If it works, I will merge all the changes to the fixes/31 branch<br>
>     asap.<br>
> <br>
>     No, that didn't work, but it did add an extra line to the logs<br>
>     (attached) Child killed with Terminated. I wonder whether the C also<br>
>     has<br>
>     a timeout.<br>
> <br>
> <br>
> Since it terminated the call to tmdb3.py in the same second, I wonder what<br>
> it does if you call it directly from the terminal:<br>
> Clear the tmdb3 cache as outlined above and run<br>
> /usr/share/mythtv/metadata/Movie/tmdb3.py -l en -a GB -D 157336<br>
> <br>
> Does this return a valid and complete xml?<br>
<br>
Actually, that's not in the same second: it's exactly 60s later, and it <br>
does that even if I make the timeout in the python code 120s.<br>
<br>
Regardless, I performed the experiment you suggested. The command seems <br>
to return valid and complete xml as far as I can see. It even does so <br>
with the timeout at 30s, but then not reliably. Works sometimes not others.<br>
<br>
Also, if after a successful run, I leave the cache unchanged and do a <br>
Retrieve from mythfrontend, it works (probably not surprisingly), but <br>
even with 120s timeout in the python code, if I blow the cache, the <br>
frontend cannot retrieve.<br>
<br>
This is all running on an Atom CPU, and the cache is on an NFS share, <br>
albeit across a 1000base-T network, in case that's relevant.<br>
<br>
Paul.<br><br></blockquote><div><br></div><div>Paul, <br></div><div>I run myself multiple Atoms with Nvidia ION Graphics as frontend and <br></div><div>started to test mythtv v31 on that frontends.</div><div>I really want to keep them, as long as possible.<br></div><div>Maybe I can reproduce your setup.</div><div>Some questions:</div><div> - nfsv3 or nfsv4?</div><div> - export options on server?</div><div> - mount options on client?</div><div><br></div><div>Do you have SELinux installed or is AppArmor running ?<br></div><div><br></div><div>>> if I blow the cache, the frontend cannot retrieve.</div><div></div><div>Please give me some time to reproduce this setup.</div><div><br></div><div>Thx for all your effort on supporting this issue,</div><div>Roland<br></div><div><br></div><div><br></div><div><br></div><div><br></div><div> <br></div></div></div>