<div dir="ltr"><div>Right, when we add 12-bit support, we will need to rework the HIGH_BIT_DEPTH flag itself (to increase internal precision). <br><br></div>and we can always add the CLI option --high-bit-depth 10/12/14 etc?<br><div><br><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Apr 29, 2015 at 10:05 AM, Xinyue Lu <span dir="ltr"><<a href="mailto:maillist@7086.in" target="_blank">maillist@7086.in</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">If you plan to support 12 bit, how'd you distinguish between 10 and 12<br>
bit by --high-bit-depth?<br>
<br>
(And I'm not sure if HIGH_BIT_DEPTH flag will work on 12 bit though)<br>
<span class="im HOEnZb"><br>
On Tue, Apr 28, 2015 at 8:34 PM, Deepthi Nandakumar<br>
<<a href="mailto:deepthi@multicorewareinc.com">deepthi@multicorewareinc.com</a>> wrote:<br>
> I see Xinyue's confusion about profile influencing bit depth. Another issue<br>
> is output-depth will be confused with recon-depth. How about<br>
> --high-bit-depth and --no-high-bit-depth to match directly with<br>
> HIGH_BIT_DEPTH option used during compile time?<br>
><br>
> Is it necessary/useful to give x265 CLI the capability to use a different<br>
> libx265 build for encode? Can we restrict this feature to be C-interface<br>
> only?<br>
><br>
> Thanks,<br>
> Deepthi<br>
</span><div class="HOEnZb"><div class="h5">_______________________________________________<br>
x265-devel mailing list<br>
<a href="mailto:x265-devel@videolan.org">x265-devel@videolan.org</a><br>
<a href="https://mailman.videolan.org/listinfo/x265-devel" target="_blank">https://mailman.videolan.org/listinfo/x265-devel</a><br>
</div></div></blockquote></div><br></div>