martes, 25 de septiembre de 2012

Curso de Búsquedas Académicas en la Web 2.0

Tareas de la Segunda Semana

DIEGO DEMARCO
ACTIVIDAD  R 2.1   ¿Qué ves cuándo me ves?
Objetivo: Tomar conciencia de nuestros hábitos y habilidades de búsqueda.
Actividad: Autores y tutores suponen que cada uno de los cursantes realiza búsquedas como parte de su vivir cotidiano o como parte de su quehacer docente o profesional. Para tomar conciencia de los pasos que realizamos, se les propone un ejercicio de autoobservación. El texto resultante será publicado en el blog.

Paso 1
- Se plantea una búsqueda acerca de las principales características de la distribución regional de la ganadería argentina en las diferentes zonas de producción. Este es un tema del curso de Producción de Bovinos de Carne en la Fac. de Ciencias Veterinarias (U.B.A.) 
- El texto a introducir es:  Zonas ganaderas argentinas (Zonas+ganaderas+argentinas)
- Se utiliza para la búsqueda el buscador semántico hakia www.hakia.com.
En base a la bibliografía leída en la clase anterior este buscador fue elegido, definiéndose su búsqueda al introducir directamente la frase del pto. b) con el propósito académico de reconocer las principales características de las zonas o regiones de mayor aptitud ganadera productiva económicamente en la argentina enmarcadas en el contexto socio-histórico, político, económico y cultural presentes en la actualidad. Finalmente la búsqueda se hizo en el idioma español   
Paso 2
- Al hacer click y espera el resultado se observa que al recorrer diversas entradas a otros tantos sitios web, el buscador trae mapas, presentaciones  de las regiones ganaderas argentinas pero no una descripción precisa de las características que hacen la distribución en si misma  

Paso 3

- Como no estamos satisfechos con la búsqueda porque no tenemos datos -principalmente de texto- acerca de las características distribucionales de la población vacuna nacional, se decide refinar la búsqueda introduciendo en el buscador  palabras específicas acerca de la búsqueda solicitada:
Distribución regional de la ganadería argentina (Distribución+regional+de+la+ganadería argentina)
Se decidió de este modo pues la sentencia primariamente colocada le pedía información al buscador no específica puesto que no fue clara la explicitación solicitada al buscador acerca de la distribución regional del ganada vacuno nacional y solo era una primera aproximación a lo buscado.
Entonces ahora si el buscador nos muestra información precisa y acotada.

- En síntesis, la adecuada capacitación -tanto del alumnado como los docentes en su quehacer docente o profesional- permite maximizar el rango de posibles investigaciones en lectura en Internet en función de la ecuación: éxito, confiabilidad, tiempo. Principalmente en situaciones de enseñanza es considerable y altamente necesario, ya que formar lectores críticos de los textos que circulan en la Web requiere de un abordaje didáctico específico vinculado con los diversos propósitos de búsqueda así como sostenido por una interacción que promueva la reflexión sobre las razones para -entre aspectos- filtrar, seleccionar, aceptar o rechazar la información de manera exitosa, confiable y en el menor período de tiempo.
Así la búsqueda en Internet se convierte en una herramienta de producción de conocimientos para los alumnos en determinadas condiciones didácticas. El soporte online impone a la actividad de leer un ritmo sumamente acelerado, pero el contexto académico puede convertirse en el espacio -casi ideal- para detener la acción, reflexionar colectivamente sobre ella y generar una práctica de búsqueda comprensiva y deliberada que contribuya a la formación de un estudiante autónomo y reflexivo.
Este proceso supone la tensión constante entre tener éxito y comprender, entre limitarse a constatar los resultados de la búsqueda y explicar las razones de esos resultados, entre quedarse en la periferia de las situaciones de interacción con el buscador y dominarlas en pensamiento hasta poder resolver los problemas que ellas plantean en cuanto al porqué y al cómo de las relaciones que involucran. El paso de la acción a la constatación de los resultados y de esta última a la comprensión de sus razones y a la posibilidad de anticipar los futuros hallazgos está lejos de ser lineal. Buscar información en la Web supone un doble desafío: comprender la lógica del contenido y la del buscador.


ACTIVIDAD  R 2.2  ¡Con esto me conformo! 
Objetivo: Escribir en el blog sobre los aprendizajes realizados en este tramo.
Actividad: La relación éxito, confiabilidad y tiempo se va construyendo con experticia, pero siempre está en variación dado que los elementos que la constituyen también se modifican.

Se podría afirmar que hasta el día de hoy no existen reglas respecto al número óptimo de referencias que deban encontrarse en el amplio y ancho mundo global de internet. Para acotar la presente reflexión, por ejemplo al momento de elegir referencias  bibliográficas que deban incluirse en un artículo o trabajo científico, podría decirse que cada profesional podría reconocer en qué medida la búsqueda de información fija límites suficiente para alcanzar los objetivos planteados. En un investigador formado, las búsquedas bibliográficas generalmente son más acotadas, ya que se dispone de un caudal de información de base que se reutiliza en cada publicación y que se enriquece con nuevas referencias actualizadas. En los investigadores principiantes o hasta inclusive en los alumnos, la búsqueda puede ser más extensa ya que deben conocerse en detalle los diferentes aspectos estudiados previamente sobre el tema a investigar. En este caso sin prácticamente dudas, se  requiere inicialmente de un mayor tiempo destinado a la búsqueda de información. De todos modos, a la hora de publicar un trabajo de investigación lo aconsejado es ser cautelosos con el número de citas que se incluyan, en donde si bien la búsqueda puede haber sido más extensa, en el momento de la redacción del trabajo debieran seleccionarse sólo aquellas referencias más actualizadas y relevantes, que tengan relación con el tema abordado de manera confiable.
 A modo de ejemplo algunas publicaciones biomédicas fijan un número máximo de referencias que puede oscilar entre 25 a no más de 40. De todas maneras, el proceso de selección de las citas que se incluirán en el artículo debe ser cuidadoso; por un lado no se debería incluir referencias importantes afecta la calidad de un manuscrito e induce a pensar que sus autores hicieron una revisión superficial de la literatura y por otra parte un lista muy extensa podría reflejar más inseguridad que dominio del tema tratado.
El tipo de artículo a publicar también condiciona el número de citas, pues en general en los artículos de revisión el número de referencias generalmente es mayor que en los trabajos originales.
En pocas palabras, para optimizar este -por variados momentos- fascinante camino de búsqueda de información se requiere de tiempo, dedicación, continuidad y sobre todo una gran cuota de curiosidad para explorar las cambiantes posibilidades de acceso a las publicaciones científicas que en la actualidad se presentan tanto en el espacio virtual como en las tradicionales bibliotecas especializadas. Al respecto el presente curso de BAW nos orienta hacia una oportunidad de potenciar sin dudas este atrapante proceso



 

sábado, 15 de septiembre de 2012

Curso de Búsquedas Académicas en la Web 2.0

Tareas de la Primera Semana:


ACTIVIDAD  R 1.2   DIEGO DEMARCO

 
Proceso de recolección de datos de un buscador:
Proceso de búsqueda bibliográfica para un determinado trabajo científico1.
Proceso de indización:
En el mencionado trabajo la construcción del índice del trabajo y la elección de las palabras clave, en español e inglés por ejemplo2.
Proceso de presentación:
Proceso de muestra de la búsqueda y de los  resultados bibliográficos, de cuadros, gráficos índices temáticos, entre otros y en donde la construcción de una interfaz se puede abordar desde diferentes perspectivas3.  

 
 
 
 
 
 
 


 
1El proceso de búsqueda es la etapa en la que se trata de ubicar a todos los representantes del universo definido. Los cambios permanentes, los tips para aumentar la figuración o para ser encontrado solamente por aquellos con los que uno desea vincularse, asociados a problemas técnicos casuales o provocados, el deseo de beneficio económico, el acceso restringido  de miembros, el  deseo de lucro, membrecía restringida, obsolescencia, abandono, son solo algunos elementos a considerar desde la perspectiva de la complejidad de la web.
De la lectura de la bibliografía obligatoria, se observan –al menos-  cuatro tipos de contenidos invisibles en la web: La web opaca, la web privada, la web propietaria y la web invisible. Entre las  razones que se pueden enumerar para que un rastreador (también llamado robot o spider) no ubique a una página web en su índice son varias y de diferente tipo se menciona:
-La acción deliberada del propietario para impedir la entrada de los robots que realizan la búsqueda en Internet, con páginas  protegidas por contraseña o por programas que impiden el ingreso.
-El acceso mediante algún código particular o registro puntual (denominada “web propietaria”).
-Restricciones deliberadas de búsqueda de los propios rastreadores. Los enlaces rotos impiden que el rastreador detecte la página; los formatos en los que están guardadas las páginas (por ejemplo .pdf o shockwave) no pueden ser indizados por todos los rastreadores.
-Algunos rastreadores tienen entre sus categorías el ranking de visitas o los links vinculados, por lo tanto, las páginas poco consultadas o linkeadas suelen no incluirse.
-Dificultades de rastreo producto de la forma en que están construidas las páginas. Páginas relacionadas con una base de datos interna no son detectadas por el rastreador. Esto no obsta que al tener el dato específico el navegador la localice.
-Frecuencia de trabajo del rastreador. Dado que el rastreador tiene un tiempo de recorrido no fijo, hay momentos en que la página puede no aparecer en el buscador.
-Los robots de búsqueda o arañas trabajan sobre la base de datos que ya posee el buscador. Por lo tanto, cuando un nuevo link se relaciona con la base existente, la base crece. Pero esto hace que la ubicación de la página en el índice puede variar según el linkeo reconocido. Si bien la página ha sido rastreada su ubicación en el índice y publicación posterior, tiene cierta dificultad en ser vinculada al pedido de búsqueda.
-Finalmente dificultades de geolocalización por la pobre extensión de las redes.

2-Una definición de “indización” comprendería la tarea de catalogar o describir los recursos a través de palabras clave que forman parte de un índice terminológico o vocabulario controlado. (Montero y Nuñez Peña, 2005) Una vez rastreados, el buscador necesita guardar los datos encontrados de alguna manera. La construcción de una forma particular de orden es fundamental a la hora de devolver la búsqueda a la persona que intenta localizar determinada información.
El propósito que organiza la construcción del índice mediante el cual el buscador encontrará lo pedido no es uniforme en todos los buscadores. La forma en que construye dicho índice variará según el propósito del buscador, sus intereses comerciales, la manipulación que los usuarios puedan intentar para figurar mejor posicionados en dicho índice y la obtención de una mayor frecuencia de aparición, entre otros aspectos.
Es común pensar para usuarios advenedizos que Google agrupa de de manera natural o por orden de aparición sus búsquedas. En realidad ella esta direccionadamente pautada, según o teniendo en cuenta los criterios que siguen los buscadores para ordenar sus resultados. Los motores de búsqueda de cada buscador guardan con recelo los secretos del posicionamiento, que además varían de uno a otro. Cada buscador tiene detrás una tecnología específica utilizada para sondear la Red, confeccionar una base de datos y presentar la lista de resultados. Por ejemplo, el corazón de Google es PageRank, un sistema que clasifica a las páginas Web basándose tanto en la cantidad de enlaces que reciben como en la importancia y tema de las páginas que las enlazan. Google va más allá de la cantidad de veces que un término aparece en una página Web y examina todos los aspectos del contenido de la página (y el contenido de las páginas vinculadas) para determinar si es una buena coincidencia para nuestra consulta. Google presupone, de este modo, que si nuestras páginas Web ofrecen contenidos atractivos y variados con una buena estructura y orden lógico, serán enlazadas por otras páginas Web. Además del número, tipo y calidad de los sitios Web que nos enlazan, Google y otros buscadores, también tienen en cuenta aspectos internos a nuestras páginas, aunque valorándolos con un peso relativo distinto en cada caso. Entre otras técnicas de optimización internas a la propia Web están: emplear adecuadamente ciertas etiquetas HTML (“title”, “description”, “keywords”, “alt”, “anchor text”, etc.), estructurar adecuadamente las páginas Web y ayudar a los robots de búsqueda a indexar el sitio (ficheros “sitemap” y “robots”), redactar el texto haciendo uso de las palabras clave, ofrecer contenidos atractivos, etc. Además de los buscadores tradicionales (Google, MSN Search, Yahoo! Search, Ask, etc.), desde hace cierto tiempo han aparecido los denominados buscadores de nueva generación o sociales (Hakia, Gennio, Duckduckgo, Wikia, Mahalo, etc.), con un componente más "humano" a la hora de posicionar los resultados de búsqueda. Hoy en día, dentro de los primeros resultados de búsqueda aparecen en muchas ocasiones páginas que están perfectamente diseñadas para mejorar su posicionamiento, pero que realmente son páginas de spam, sitios con contenidos mediocres o que nada tienen que ver con la búsqueda realizada. Estos buscadores tratan de romper con todo esto, promoviendo un modelo que ofrece a los usuarios resultados supervisados de calidad, eliminando los resultados que no son de interés. La principal característica de estos buscadores es que los resultados no dependen exclusivamente de un algoritmo, como en el resto de los principales motores de búsqueda, sino también de un grupo de editores que puntúan los enlaces según su calidad. Por lo tanto, para mejorar el posicionamiento cada vez tendrá más peso la calidad de los contenidos de la Web.

3 Los motores de búsquedas, deben presentar sus resultados al usuario, según los propósitos del buscador, con modalidades adoptadas diferentes, según sea –por ejemplo- catálogos de compras; los criterios de visibilidad de los resultados serán diferentes a una búsqueda general o una académica. Si se accede con una entrada general, se presentan opciones que abren menúes para refinar la búsqueda. Google permite abrir una ventana de rango para fijar los valores de búsqueda deseado y tiene una combinación con Google Maps para fijar los lugares de ubicación de sus oferentes. Si bien esta es la pantalla de devolución de los datos, no se debe soslayar la pantalla de búsqueda que nos ofrece el motor de búsqueda. Las vinculaciones del buscador con los usuarios se presentan en dos interfaces: “búsqueda” y “resultados”. Ambas presentan diferentes alternativas según el propósito de los buscadores y los criterios usados para construir las búsquedas.
Se presentan en el diseño de las páginas desafíos que fueron estudiados desde distintas perspectivas, entre ellas la heurística y la usabilidad.
-La heurística trata de abordar los problemas que se encierran en una búsqueda y el análisis de los caminos que se realizan para solucionarlos. Los problemas no son rigurosos ni en cuanto a la cantidad de los espacios de búsquedas, ni pensando en la posibilidad de su solución o descripción por lo que las posibilidades de solución son solo -de manera restringida- aproximativas.
La heurística puede pensarse desde el buscador (search engine) y desde el usuario, donde el abordaje se hará desde disciplinas diferentes como son la psicología y el aprendizaje, entre otros. En este sentido, las interfaces (pantallas de búsqueda y presentación) son el resultado que adoptan las empresas constructoras que tienen que manejar ambas perspectivas: por un lado, las necesidades organizativas y constructivas que derivan de los problemas de rastreo, indización, almacenamiento y la lógica general de los sistemas que hacen a la construcción de un motor de búsqueda; y, por el otro, las necesidades humanas y las posibilidades que establece el usuario.
-El análisis de usabilidad ofrece perspectivas que establecen enlaces con la experiencia cotidiana: facilidad de aprendizaje, percepción de los usuarios, utilidad. Algunos de los criterios vinculados con la usabilidad son: accesibilidad, visibilidad (de nada sirve que un buscador localice un material si lo que ofrece al usuario es difícil de utilizar o tiene escaso contenido); navegabilidad intuitiva (que el usuario no tenga que aprender el sistema cada vez que quiere utilizarlo); velocidad de descarga; diseño gráfico (aspectos estéticos que favorecen la confianza y la credibilidad de un sitio web).
En relación con las devoluciones se puede observar distintos formatos de salida de las interfaces de devolución relacionadas con la cantidad de datos presentados, la cantidad de datos hallados, el título de la obra o referencia encontrada, el autor, la fuente, el resumen, extensión y legibilidad del texto comentarios, entre otras variantes que establece una relación diferente con el usuario y con el objeto de búsqueda.