Hello Regina, Eike,<br><br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">Do you have valid reference values for the accuracy? Are the values of TINV worse or better than approximating with standard normal distribution?<br>
</blockquote><div><br>it seems that the method is quite accurate up to 1E11 and with a bit 
more difference up to 1E13 or 1E14 and above this goes badly wrong. But 
it depends very much on the first paramter.<br> <br></div><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
<br>
There are some loops involved. Do you test the performance with huge values?<br></blockquote><div><br>I haven&#39;t noticed any performance problems witht his method even that i created a 14 times 10 table with very large numbers. The originla code is from before 2001 so if there were any performance problems back then we should not have them with modern computer. <br>
</div><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
<br>
Kind regards<br><font color="#888888">
Regina<br>
<br>
</font></blockquote>I have no definite opinion on the upper limit of the second parameter. It is &quot;degree of freedom&quot; and 1E5 covers already exploring 5000 records. I don&#39;t know whether a larger limit is needed. But the user should get an information about problems with huge numbers, perhaps a remark in the help, that it is not recommended to use values above ...<br>
<br>We have a bug report that asks for a larger upper limit and I think as long as Excel has one and there is no technical reason to deny this we should increase it. I think at least the 1E10 that Excel allows is something we should do, everything above this is something for discussions.<br>
<br>Regards,<br>Markus<br></div><br>