Thanks Spencer.  I'm saving all of this useful info. I've never used lme or nlme and know next to nothing about mixed models so I'll definitely  have a learning curve. It sounds interesting though<br />and I'll let you know how things work out.<br /><br /><br /><br /><br /><p>On May 23, 2009, <strong>spencerg</strong> &lt;spencer.graves@prodsyse.com&gt; wrote: </p><div class="replyBody"><blockquote style="border-left: 2px solid #267fdb; margin: 0pt 0pt 0pt 1.8ex; padding-left: 1ex">      The "lme" function maximizes a likelihood specified by the model <br />implicit in the formula. <br /><br /><br />      If you are worried about a lack of normality, I suggest that <br />before you do a lot of work to invent your own thing, you try "lme", and <br />plot residuals, estimated coefficients using "coef.lme", etc.  If you <br />see evidence that the normal likelihood is not adequate, you would then <br />have justification for doing something more complicated. <br /><br /><br />      Spencer Graves    <br /><br /><a href="mailto:markleeds@verizon.net" target="_blank" class="parsedEmail">markleeds@verizon.net</a> wrote:<br />&gt; Hi Ajay:  That's a good point. It's really a maximization of the sum of the  <br />&gt; likelihoods of the individual series if you assume independent shocks.   I'd <br />&gt; have to look inside arima ( when I got the courage ),<br />&gt; extract the likelihood piece and then put ithe sum inside say optim That's why I <br />&gt; was kind of hoping there might be something out there , even if independence <br />&gt; needed to be assumed.<br />&gt;<br />&gt; But,  I don't think your idea is quite equivalent to the DLM approach because <br />&gt; there you are able to<br />&gt; specify correlation structure on the multiple series rather than assuming <br />&gt; independence of each series. For my problem, I have no idea whether relaxing the <br />&gt; assumption as your idea would do, would matter ? All these things are <br />&gt; approximations to reality anyway so who ever knows ?<br />&gt;<br />&gt; I'll I either go the DLM route ( spencer mentioned that I should also look at <br />&gt; Pinheiro and Bates ) or your route but I'm not there yet anyway. I was just <br />&gt; thinking about this for the down the road if and<br />&gt; when I need it and I hope that I do because that would indicate progress.<br />&gt;<br />&gt;<br />&gt;<br />&gt;<br />&gt;<br />&gt;<br />&gt;<br />&gt; On May 23, 2009, *Ajay Shah* &lt;<a href="mailto:ajayshah@mayin.org" target="_blank" class="parsedEmail">ajayshah@mayin.org</a>&gt; wrote:<br />&gt;<br />&gt;     On Fri, May 22, 2009 at 08:13:25PM -0500, <a href="mailto:markleeds@verizon.net" target="_blank" class="parsedEmail">markleeds@verizon.net</a><br />&gt;     &lt;mailto:<a href="mailto:markleeds@verizon.net" target="_blank" class="parsedEmail">markleeds@verizon.net</a>&gt; wrote:<br />&gt;      &gt; Hi everyone: Normally, if one has a single realization of a time series<br />&gt;     and one wants to estimate<br />&gt;      &gt; say an ARMA(p,q) , where p and q are known ( for simplicity ) then one<br />&gt;     estimates it and that's that.<br />&gt;      &gt;<br />&gt;      &gt; But, suppose that one has more than one realization of the time series (<br />&gt;     assuming each series is the same length) and yet still wants to estimate the<br />&gt;     "best" arma(p,q) , over all the realizations, again where p and q are known.<br />&gt;<br />&gt;     Could we perhaps think of this as follows.<br />&gt;<br />&gt;     We are holding two realisations from the same process:<br />&gt;     x1, x2, ... xN<br />&gt;     y1, y2, ... yN<br />&gt;<br />&gt;     and let's suppose these two realisations are completely<br />&gt;     independent. Think of two parallel experiments running with the<br />&gt;     identical data generating process but a different set of random<br />&gt;     shocks.<br />&gt;<br />&gt;     Then you could construct the overall log likelihood of what you have<br />&gt;     observed as logl(theta; x) + logl(theta; y) and maximise that.<br />&gt;<br />&gt;     Is there an existing R function off the shelf which yields the ARMA<br />&gt;     log likelihood? If so then it should be easy to put together an<br />&gt;     overall logl() function for this problem which can be then given to<br />&gt;     optim() to do estimation.<br />&gt;<br />&gt;     -- <br />&gt;     Ajay Shah <a href="http://www.mayin.org/ajayshah" target="_blank" class="parsedLink">http://www.mayin.org/ajayshah</a><br />&gt;     <a href="mailto:ajayshah@mayin.org" target="_blank" class="parsedEmail">ajayshah@mayin.org</a> &lt;mailto:<a href="mailto:ajayshah@mayin.org" target="_blank" class="parsedEmail">ajayshah@mayin.org</a>&gt; <a href="http://ajayshahblog.blogspot.com" target="_blank" class="parsedLink">http://ajayshahblog.blogspot.com</a><br />&gt;     &lt;*(:-? - wizard who doesn't know the answer.<br />&gt;<br />&gt;   <br />&gt; ------------------------------------------------------------------------<br />&gt;<br />&gt; _______________________________________________<br />&gt; <a href="mailto:R-SIG-Finance@stat.math.ethz.ch" target="_blank" class="parsedEmail">R-SIG-Finance@stat.math.ethz.ch</a> mailing list<br />&gt; <a href="https://stat.ethz.ch/mailman/listinfo/r-sig-finance" target="_blank" class="parsedLink">https://stat.ethz.ch/mailman/listinfo/r-sig-finance</a><br />&gt; -- Subscriber-posting only.<br />&gt; -- If you want to post, subscribe first.<br /><br /></blockquote></div>