No probs, good pointer I think I can work with that :-)<div><br></div><div>Chris<br><br>On Friday, January 29, 2016, Tomaž Vajngerl <<a href="mailto:quikee@gmail.com">quikee@gmail.com</a>> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br>
<br>
On Thu, Jan 28, 2016 at 9:52 AM, Chris Sherlock<br>
<<a href="javascript:;" onclick="_e(event, 'cvml', 'chris.sherlock79@gmail.com')">chris.sherlock79@gmail.com</a>> wrote:<br>
> I did a calculation from <a href="http://www.sven.de/dpi" target="_blank">http://www.sven.de/dpi</a> and apparently I have a pixel density of 267.02 PPI.<br>
><br>
> Wondering if this is skewing the calculations.<br>
<br>
OS usually doesn't tell the correct monitor DPI to the application but<br>
usually just reports 96 DPI (if no scaling is applied). In windows you<br>
can change the scale levels - 100%, 125%, 150%, 200%,... which just<br>
adjusts what DPI is reported to the application (100% - 96DPI, 125% -<br>
120DPI, 150% - 144 DPI, 200% - 192DPI...) so the application can scale<br>
accordingly (at least fonts). I'm not sure how OSX does this.<br>
<br>
You should check what DPI is actually reported to LO - OutputDevice<br>
has mnDPIX and mnDPIY - check where they are set and to what value.<br>
DPI influences how pixels are converted to and from actual units (mm,<br>
inch, twips,..) It could be that we transform between units just too<br>
much and the error accumulates if the DPI is set to a weird value.<br>
Tracking this down could be tricky.<br>
<br>
> Chris<br>
<br>
Regards, Tomaž<br>
</blockquote></div>