sábado, 15 de septiembre de 2012

Curso de Búsquedas Académicas en la Web 2.0

Tareas de la Primera Semana:


ACTIVIDAD  R 1.2   DIEGO DEMARCO

 
Proceso de recolección de datos de un buscador:
Proceso de búsqueda bibliográfica para un determinado trabajo científico1.
Proceso de indización:
En el mencionado trabajo la construcción del índice del trabajo y la elección de las palabras clave, en español e inglés por ejemplo2.
Proceso de presentación:
Proceso de muestra de la búsqueda y de los  resultados bibliográficos, de cuadros, gráficos índices temáticos, entre otros y en donde la construcción de una interfaz se puede abordar desde diferentes perspectivas3.  

 
 
 
 
 
 
 


 
1El proceso de búsqueda es la etapa en la que se trata de ubicar a todos los representantes del universo definido. Los cambios permanentes, los tips para aumentar la figuración o para ser encontrado solamente por aquellos con los que uno desea vincularse, asociados a problemas técnicos casuales o provocados, el deseo de beneficio económico, el acceso restringido  de miembros, el  deseo de lucro, membrecía restringida, obsolescencia, abandono, son solo algunos elementos a considerar desde la perspectiva de la complejidad de la web.
De la lectura de la bibliografía obligatoria, se observan –al menos-  cuatro tipos de contenidos invisibles en la web: La web opaca, la web privada, la web propietaria y la web invisible. Entre las  razones que se pueden enumerar para que un rastreador (también llamado robot o spider) no ubique a una página web en su índice son varias y de diferente tipo se menciona:
-La acción deliberada del propietario para impedir la entrada de los robots que realizan la búsqueda en Internet, con páginas  protegidas por contraseña o por programas que impiden el ingreso.
-El acceso mediante algún código particular o registro puntual (denominada “web propietaria”).
-Restricciones deliberadas de búsqueda de los propios rastreadores. Los enlaces rotos impiden que el rastreador detecte la página; los formatos en los que están guardadas las páginas (por ejemplo .pdf o shockwave) no pueden ser indizados por todos los rastreadores.
-Algunos rastreadores tienen entre sus categorías el ranking de visitas o los links vinculados, por lo tanto, las páginas poco consultadas o linkeadas suelen no incluirse.
-Dificultades de rastreo producto de la forma en que están construidas las páginas. Páginas relacionadas con una base de datos interna no son detectadas por el rastreador. Esto no obsta que al tener el dato específico el navegador la localice.
-Frecuencia de trabajo del rastreador. Dado que el rastreador tiene un tiempo de recorrido no fijo, hay momentos en que la página puede no aparecer en el buscador.
-Los robots de búsqueda o arañas trabajan sobre la base de datos que ya posee el buscador. Por lo tanto, cuando un nuevo link se relaciona con la base existente, la base crece. Pero esto hace que la ubicación de la página en el índice puede variar según el linkeo reconocido. Si bien la página ha sido rastreada su ubicación en el índice y publicación posterior, tiene cierta dificultad en ser vinculada al pedido de búsqueda.
-Finalmente dificultades de geolocalización por la pobre extensión de las redes.

2-Una definición de “indización” comprendería la tarea de catalogar o describir los recursos a través de palabras clave que forman parte de un índice terminológico o vocabulario controlado. (Montero y Nuñez Peña, 2005) Una vez rastreados, el buscador necesita guardar los datos encontrados de alguna manera. La construcción de una forma particular de orden es fundamental a la hora de devolver la búsqueda a la persona que intenta localizar determinada información.
El propósito que organiza la construcción del índice mediante el cual el buscador encontrará lo pedido no es uniforme en todos los buscadores. La forma en que construye dicho índice variará según el propósito del buscador, sus intereses comerciales, la manipulación que los usuarios puedan intentar para figurar mejor posicionados en dicho índice y la obtención de una mayor frecuencia de aparición, entre otros aspectos.
Es común pensar para usuarios advenedizos que Google agrupa de de manera natural o por orden de aparición sus búsquedas. En realidad ella esta direccionadamente pautada, según o teniendo en cuenta los criterios que siguen los buscadores para ordenar sus resultados. Los motores de búsqueda de cada buscador guardan con recelo los secretos del posicionamiento, que además varían de uno a otro. Cada buscador tiene detrás una tecnología específica utilizada para sondear la Red, confeccionar una base de datos y presentar la lista de resultados. Por ejemplo, el corazón de Google es PageRank, un sistema que clasifica a las páginas Web basándose tanto en la cantidad de enlaces que reciben como en la importancia y tema de las páginas que las enlazan. Google va más allá de la cantidad de veces que un término aparece en una página Web y examina todos los aspectos del contenido de la página (y el contenido de las páginas vinculadas) para determinar si es una buena coincidencia para nuestra consulta. Google presupone, de este modo, que si nuestras páginas Web ofrecen contenidos atractivos y variados con una buena estructura y orden lógico, serán enlazadas por otras páginas Web. Además del número, tipo y calidad de los sitios Web que nos enlazan, Google y otros buscadores, también tienen en cuenta aspectos internos a nuestras páginas, aunque valorándolos con un peso relativo distinto en cada caso. Entre otras técnicas de optimización internas a la propia Web están: emplear adecuadamente ciertas etiquetas HTML (“title”, “description”, “keywords”, “alt”, “anchor text”, etc.), estructurar adecuadamente las páginas Web y ayudar a los robots de búsqueda a indexar el sitio (ficheros “sitemap” y “robots”), redactar el texto haciendo uso de las palabras clave, ofrecer contenidos atractivos, etc. Además de los buscadores tradicionales (Google, MSN Search, Yahoo! Search, Ask, etc.), desde hace cierto tiempo han aparecido los denominados buscadores de nueva generación o sociales (Hakia, Gennio, Duckduckgo, Wikia, Mahalo, etc.), con un componente más "humano" a la hora de posicionar los resultados de búsqueda. Hoy en día, dentro de los primeros resultados de búsqueda aparecen en muchas ocasiones páginas que están perfectamente diseñadas para mejorar su posicionamiento, pero que realmente son páginas de spam, sitios con contenidos mediocres o que nada tienen que ver con la búsqueda realizada. Estos buscadores tratan de romper con todo esto, promoviendo un modelo que ofrece a los usuarios resultados supervisados de calidad, eliminando los resultados que no son de interés. La principal característica de estos buscadores es que los resultados no dependen exclusivamente de un algoritmo, como en el resto de los principales motores de búsqueda, sino también de un grupo de editores que puntúan los enlaces según su calidad. Por lo tanto, para mejorar el posicionamiento cada vez tendrá más peso la calidad de los contenidos de la Web.

3 Los motores de búsquedas, deben presentar sus resultados al usuario, según los propósitos del buscador, con modalidades adoptadas diferentes, según sea –por ejemplo- catálogos de compras; los criterios de visibilidad de los resultados serán diferentes a una búsqueda general o una académica. Si se accede con una entrada general, se presentan opciones que abren menúes para refinar la búsqueda. Google permite abrir una ventana de rango para fijar los valores de búsqueda deseado y tiene una combinación con Google Maps para fijar los lugares de ubicación de sus oferentes. Si bien esta es la pantalla de devolución de los datos, no se debe soslayar la pantalla de búsqueda que nos ofrece el motor de búsqueda. Las vinculaciones del buscador con los usuarios se presentan en dos interfaces: “búsqueda” y “resultados”. Ambas presentan diferentes alternativas según el propósito de los buscadores y los criterios usados para construir las búsquedas.
Se presentan en el diseño de las páginas desafíos que fueron estudiados desde distintas perspectivas, entre ellas la heurística y la usabilidad.
-La heurística trata de abordar los problemas que se encierran en una búsqueda y el análisis de los caminos que se realizan para solucionarlos. Los problemas no son rigurosos ni en cuanto a la cantidad de los espacios de búsquedas, ni pensando en la posibilidad de su solución o descripción por lo que las posibilidades de solución son solo -de manera restringida- aproximativas.
La heurística puede pensarse desde el buscador (search engine) y desde el usuario, donde el abordaje se hará desde disciplinas diferentes como son la psicología y el aprendizaje, entre otros. En este sentido, las interfaces (pantallas de búsqueda y presentación) son el resultado que adoptan las empresas constructoras que tienen que manejar ambas perspectivas: por un lado, las necesidades organizativas y constructivas que derivan de los problemas de rastreo, indización, almacenamiento y la lógica general de los sistemas que hacen a la construcción de un motor de búsqueda; y, por el otro, las necesidades humanas y las posibilidades que establece el usuario.
-El análisis de usabilidad ofrece perspectivas que establecen enlaces con la experiencia cotidiana: facilidad de aprendizaje, percepción de los usuarios, utilidad. Algunos de los criterios vinculados con la usabilidad son: accesibilidad, visibilidad (de nada sirve que un buscador localice un material si lo que ofrece al usuario es difícil de utilizar o tiene escaso contenido); navegabilidad intuitiva (que el usuario no tenga que aprender el sistema cada vez que quiere utilizarlo); velocidad de descarga; diseño gráfico (aspectos estéticos que favorecen la confianza y la credibilidad de un sitio web).
En relación con las devoluciones se puede observar distintos formatos de salida de las interfaces de devolución relacionadas con la cantidad de datos presentados, la cantidad de datos hallados, el título de la obra o referencia encontrada, el autor, la fuente, el resumen, extensión y legibilidad del texto comentarios, entre otras variantes que establece una relación diferente con el usuario y con el objeto de búsqueda.

No hay comentarios:

Publicar un comentario