2006/11/28, Magnus Bergman &lt;<a href="mailto:magnus.bergman@observer.net">magnus.bergman@observer.net</a>&gt;:<div><span class="gmail_quote"></span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
On Mon, 27 Nov 2006 14:57:50 -0500<br>Joe Shaw &lt;<a href="mailto:joeshaw@novell.com">joeshaw@novell.com</a>&gt; wrote:<br><br>&gt; Hi,<br>&gt;<br>&gt; On Thu, 2006-11-23 at 16:26 +0100, Mikkel Kamstrup Erlandsen wrote:<br>
&gt; &gt; The situation at hand is that we have a&nbsp;&nbsp;handful of desktop search<br>&gt; &gt; engines, all implemented as daemons, both handling searches and<br>&gt; &gt; indexing.<br>&gt;<br>&gt; Yeah, but this situation isn't realistic.&nbsp;&nbsp;The user should never be
<br>&gt; running more than one search system at a time.&nbsp;&nbsp;When they type in<br>&gt; &quot;vacation photos&quot; they don't care which engine is being used<br>&gt; underneath, they care about getting their vacation photos.<br>
<br>That certainly depends on what you call realistic. Is it only realistic<br>that users would want (or should be able) to do such simple searches? I<br>think it's realistic to imagine that there can be different search<br>
engines which are good at different things. Perhaps one is good at<br>finding media files by their tags. One that is good at finding relevant<br>information from fuzzy terms. And maybe one that gathers information<br>from the whole local network. Even if this isn't very close at hand, I
<br>don't think it's right to assume that nobody would want this, ever.<br><br>&gt; To ensure timely indexing of the user's data in the background, these<br>&gt; search engines really have to be started as part of the user's session
<br>&gt; and not on-demand.&nbsp;&nbsp;(Although a non-indexing searcher like &quot;grep&quot;<br>&gt; would be fine on-demand.)&nbsp;&nbsp;I want all of my vacation photos to be<br>&gt; indexed by the time I have to search for them.<br><br>
As I mentioned before. There no reason to assume that the daemon doing<br>the indexing is directly involved then the searching is done (some<br>search engine use the same daemon for both things, some don't). How and<br>when to do the indexing can be decided be each search engine
<br>implementation.<br><br>&gt; &gt; Having an extra daemon on top of that handling the query one extra<br>&gt; &gt; time before passing it to the search subsystem seems overkill...<br>&gt; &gt; Ideally I see the daemon/lib (or even executable) to only be used
<br>&gt; &gt; as a means of obtaining a dbus object path given a dbus interface<br>&gt; &gt; name (&quot; org.freedesktop.search.simple&quot;).<br>&gt;<br>&gt; I feel like I missed something in this thread thus far, but why is a
<br>&gt; library or separate daemon necessary?&nbsp;&nbsp;Why would the engine not simply<br>&gt; grab the &quot;org.freedesktop.search.engine&quot; (or whatever) name at startup<br>&gt; if it's available?&nbsp;&nbsp;If nothing has the name, you could activate a
<br>&gt; grep-based fallback or something like that on-demand.<br><br>At least I see it there has to be some kind of daemon if there is a<br>dbus interface. But some search engines don't have a daemon (involved<br>in the searching that is). In those cases the searching can be done in
<br>process (and you need neither daemon nor dbus). But a daemon could<br>be created to wrap those search engines, and it could provided a dbus<br>interface.</blockquote><div><br>Yes. I suggest this on the WasabiDraft2 wiki page. However this is technical concerns I think we need not worry about at the moment. At some point in the future we can implement a management interface but the dbus interfaces to the search engine(s) does not need to reflect this. Let's stick to what we can &quot;implement&quot; by API specifications only. Unless there is some obvious deep connection I have missed.
<br><br>Cheers,<br>Mikkel<br></div><br></div><br>