Good points.<br><br>(i) Just to clarify, I don't think seeing naked images as traumatic (and I don't know of anyone who thinks that way either), but there are a whole bunch of people who don't want to see that stuff - for various reasons. We are dealing with people's perceptions here. If we want them to be comfortable in browsing the site we need to consider how to meet their needs. Because not only are we dealing with a single people here, but we are also dealing with those peoples generations.<br>
<br>I can tell you now, until those filters are in place, I will not allow my little kids to browse the site by themselves. They are not ready, and I am not ready to explain that stuff to them either. I can guarantee there are others who think the same. Normal searches like "green" or "school" shouldn't show up these images. I would even extend that stance to the searches for "sexy" or "woman". I think it would be good to have them available in the library, but not on any normal searches. Tasteful sexiness is different to porn (which is what these cliparts are.) I cannot recommend OCAL to churches, or youth groups (that is straight away cutting out 400+ people right there,) with the current search results.<br>
<br>What I would love to do is let my kids browse, download and share freely on OCAL. I want THEM to guide their learning. In saying that, some things are meant to be for adults not children.  <br><br>What needs to be done for this sort of filtering? Is this a job that only Bassel can do? And again, why are we relying on one person? That's not healthy in my opinion.  <br>
<br>(ii) "potential copyright violation" would probably suffice as a tag. @Jon & Bassel, that would probably be a system tag, yes? I can apply that as a tag at the moment, but there's nothing stopping the uploader from removing it later.<br>
<br>Sigh ... who's working on Openclipart? Who do we turn to for solutions?  Where can we get training on the new system?<br><br>Cheers<br>Chovynz<br><br><br><br><div class="gmail_quote">On Tue, May 4, 2010 at 1:11 PM, Francis Bond <span dir="ltr"><<a href="mailto:bond@ieee.org">bond@ieee.org</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">G'day,<br>
<br>
There are two issues here:<br>
<br>
(i) NSFW images --- I agree that we should flag them, and that they<br>
should not be shown by default.  On the other hand, I don't actually<br>
think that seeing a picture of a naked person is so traumatic, so I<br>
see no reason not to include NSFW pictures in the collection.<br>
However, to make the collection accessible to schools, I think it is<br>
fine to tag even borderline cases as nsfw.  My experience with schools<br>
and online dictionaries is that what will actually happen is that kids<br>
will search for everything tagged with nsfw, but that is their choice.<br>
  I think it is probably useful for things like the open-office<br>
clipart repackaging to be able to filter out the NSFW images.<br>
<br>
<br>
(ii) the particular image Naked Asian Lady 2 is a popular Japanese<br>
porn star (I can't recall her name, but I am sure I have seen the face<br>
before).   I very much doubt that the image creator has permission to<br>
use it, so it should be flagged as a probable copyright violation.<br>
I don't yet know how to do that, so could someone else please do so?<br>
The face is so obscured in Naked Asian Lady that I think it is<br>
probably OK,  but IANAL.<br>
<br>
Yours,<br>
<font color="#888888"><br>
--<br>
Francis Bond <<a href="http://www3.ntu.edu.sg/home/fcbond/" target="_blank">http://www3.ntu.edu.sg/home/fcbond/</a>><br>
Division of Linguistics and Multilingual Studies<br>
Nanyang Technological University<br>
</font></blockquote></div><br><br clear="all"><br>-- <br>Cheers<br>Chovynz<br>