<div dir="ltr"><br><div class="gmail_extra"><br><br><div class="gmail_quote">On 27 November 2013 15:03, R. G. Newbury <span dir="ltr">&lt;<a href="mailto:newbury@mandamus.org" target="_blank">newbury@mandamus.org</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On 11/27/2013 04:25 AM, Simon Hobson wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
If you then want to charge into that part of the map marked &#39;Here be Dragons&#39;, you can add port forwarding to your router for external access for mythweb,<br>
</blockquote></blockquote></blockquote>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
But you **MUST** protect MythWeb from bots - eg add passworded access to Apache. If a bot crawls your recorded programs page, there&#39;s a &quot;Delete&quot; link for every recorded program. Similarly, there&#39;s a &quot;Don&#39;t Record&quot; and &quot;Never Record&quot; link against every rule on your Recordings Rules page. Having those crawls is likely to significantly reduce the WAF !<br>

</blockquote>
<br>
That&#39;s one of the Dragons. Well, more like a scorpion hiding in the grass!<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br></blockquote></blockquote><div><br></div><div>Just an idea (as someone who had this happen to them) but shouldn&#39;t a dev add a directive to mythweb to tell the bots not to crawl it?  Not sure how these things work but there&#39;s a page <a href="http://en.wikipedia.org/wiki/Robots_exclusion_standard">here</a> that seems to explain it. </div>
</div><br></div></div>