Anda di halaman 1dari 11

INFORMÁTICA

“BUSCAR INFORMACIÓN
EN LA WEB”

WIECZOREK, Claudia

YESICA GODOY

UTN Facultad Regional Villa María

2015
INDICE

CARÁTULA……………………………………………………………………………..1

ÍNDICE………………………………………………………………………………….2

INTRODUCCIÓN……………………………………………………………………..3

DESARROLLO………………………………………………………………………..4

1- INFOXICACIÓN
2- BUSCADORES DE INFORMACIÓN
3- OPERADORES LÓGICOS
4- WEB PROFUNDA O INVISIBLE
5- WEB SUPERFICIAL O VISIBLE

CONCLUSIÓN……………………………………………………………………….11

BIBLIOGRAFÍA………………………………………………………………………12

2
INTRODUCCION

El exceso de información es conocido como “Infoxicación“, o también llamado en


inglés “Information Overload“. Las personas más propensas a sufrir de este mal son
aquellas que reciben abundante información al día y prefieren la cantidad a la
calidad de lo recibido. Además de las personas que se conectan a la web con
síntomas de ansiedad.

Por otro lado, los buscadores tienen una clasificación de acuerdo a qué tipo de
información te brindan, o sea, que según que se necesite tenés buscadores,
directorios o metabuscadores.

Una manera de evitar la sobre información recibida, es utilizar un tipo de operadores


lógicos o booleanos. Estos te simplifican la búsqueda y solo se muestran los
resultados con respecto a lo que no se suprimió.

En esta monografía se realiza una descripción de lo antes mencionado, anexando


también como se clasifica la información conforme se utilice una web superficial o
una web profunda.

3
DESARROLLO

1- INFOXICACIÓN

Demasiada información limita nuestra capacidad para comprender. Para procesar


mucha información hay que saberla dominar. Sólo alguien que ha profundizado en
una materia, que ha leído mucho sobre el tema, puede procesar rápidamente
información: sabe lo que es cierto, lo que es probablemente cierto, y lo que es
obviamente falso. Para procesar con rapidez información hay que tener mucho
conocimiento previo sobre el tema. Si esto no resulta, es difícil manejar la
información disponible sin caer en un cierto pánico.

Se está infoxicado cuando no puede absorber más información, cuando todo lo que
se hace es remitir la información que recibe a otros, a sus amigos, a sus contactos
en las redes sociales. Pero hay un síntoma incluso más claro: se está infoxicado
cuando te resulta difícil leer un texto de forma pausada, palabra a palabra; cuando
se lee saltando palabras, porque se hace costumbre a leer así en diagonal. Se está
infoxicado cuando se lee sin entender lo que se lee.

Causas de la infoxicación

Las causas de la infoxicación son sencillas. Se debe al volumen inmanejable de


datos, informaciones, contenidos y conocimientos que podemos recibir y obtener de
Internet.

Si es cierto que la posibilidad de compartir y crear contenidos por parte de cualquier


usuario en Internet, está contribuyendo a ampliar el problema. Sobre todo en
algunas industrias relacionada con Internet.

El volumen de información y datos en Internet no va a parar de crecer. El problema


se agravará, no necesariamente para aquellos que aprendan a controlar el flujo de
informaciones.

El principal responsable de sufrir esta saturación de información es el mismo


usuario. Se está en una situación en la que tenemos acceso a infinidad de fuentes
de información, las noticias llegan de forma inmediata a todas partes, tenemos

4
medios tecnológicos para estar informados continuamente y sobre todo queremos
saber qué sucede en nuestro entorno.

Como consecuencia nos llegan miles de impactos informativos que no tenemos


capacidad de procesar. En ese momento actúa la infoxicación. Esto ocurre, por no
se sabe expresar bien en la web.

La solución es más o menos sencilla: Filtrar o curar los contenidos, datos e


informaciones de forma automatizada y sistematizada.

2- BUSCADORES DE INFORMACIÓN

DIRECTORIOS: Los directorios se basan fundamentalmente sobre el trabajo


realizado por humanos. Presentan la información sobre las webs registradas como si
de un catálogo se tratase, ordenadas en categorías y subcategorías. Solo registran
algunos de los datos de nuestra página. Como el título y la descripción del sitio web,
datos que nos solicitarán durante el proceso de petición de alta de nuestro sitio web.

Estos datos que suministremos son revisados por operadores humanos. Al buscar
en alguno de ellos, más que en función de los contenidos de la página, los
resultados son mostrados según la temática de la web.

Es decir, si buscamos "ordenadores", aparecerán webs que de una forma u otra


estén relacionados con la temática de ordenadores. Sus posibilidades de búsqueda
de contenidos, en la mayoría de los casos, son inexistentes. Son apropiados para
buscar categorías, más que informaciones específicas.

Algunos de los directorios más conocidos a nivel global son DOMOZ (directorio de
Google) o el Directorio de Yahoo.

Es una buena alternativa de búsqueda para ámbitos concretos y especializados,


como en los casos de directorios científicos, bibliográficos etc.

METABUSCADORES: Los meta buscadores, en realidad, no son buscadores, no


disponen de una base de datos propia, sino que lo que hacen, es realizar consultas
sobre las bases de datos de auténticos buscadores, robots y directorios, analizar los
resultados, y presentar los suyos propios, reordenándolos en según su criterio.

5
Uno de los metabuscadores más conocidos es metacrawler.

BUSCADORES: La mayoría de grandes buscadores internacionales que todos


usamos y conocemos son de este tipo. Todos estos buscadores, tienen uno o varios
robots encargados de ir visitando todos los sitios web existentes (Por ejemplo el
robot de Google es Googlebot, el de Altavista es scooter...) recopilando información
sobre los contenidos de las páginas. Fundamentalmente extraen información del
texto que en ellas aparece y de otros parámetros como el título de las páginas.

Al realizar una consulta sobre este tipo de buscadores, ellos consultan su base de
datos, con la información que han recogido de las páginas, y nos la presentan los
resultados en función de los algoritmos que utiliza cada uno de ellos, principalmente
utilizados para ordenar los resultados en función de su relevancia.

Una de las características más relevantes de los robots es que a partir de la página
de entrada de nuestra web (index), son capaces de rastrear e indexar el sitio
completo a partir de la estructura de enlaces interna. Cada cierto tiempo, los robots
revisan las webs, para actualizar los contenidos de su base de datos

Si buscamos por ejemplo "ordenadores". En los resultados que nos ofrecerá el motor
de búsqueda, aparecerán páginas que contengan esta palabra en alguna parte de
su texto, titulo etc. La calidad de los resultados obtenidos por cada buscador vendrá
determinada por sus parámetros de indexación, extracción de información de cada
web y algoritmos de búsqueda, análisis contextual etc. que cada uno de ellos haya
desarrollado.

Sin ninguna duda, el motor de búsqueda más sofisticado y eficiente de la actualidad


es Google.

3- OPERADORES LÓGICOS

Son palabras o símbolos que se utilizan para darle a una búsqueda un orden lógico.
Pueden utilizarse para evitar términos no deseados o por el contrario para establecer
qué términos deben aparecer en el vínculo.

Los operadores lógicos o booleanos nos facilitan el objetivo de búsqueda óptima.

 Y lógico ( AND )
6
Es la intersección de dos conjuntos de búsqueda. Apareciendo en el resultado
únicamente los elementos que aparecen en los dos conjuntos. Es un operador de
reducción. Ejemplo: estudiantes AND europeos Es decir los estudiantes europeos.
Sólo nos devolverá las páginas que contengan ambos elementos. No nos devolverá
las páginas que sólo contengan uno de los dos o ninguno.

 NO lógico ( NOT )

Excluye los elementos los elementos de uno de los dos conjuntos de la búsqueda.
Apareciendo en la búsqueda únicamente los elementos que no aparecen en el
conjunto indicado. Es un operador de reducción. Ejemplo: estudiantes AND NOT
europeos. Es decir los estudiantes que no sean europeos. Sólo nos devolverá las
páginas que contengan el primer elemento y no el segundo. No nos devolverá las
páginas en las que figure la palabra europeo.

 lógico ( OR )

Unión de los elementos de los dos conjuntos de la búsqueda. Apareciendo en la


búsqueda todos los elementos. Es un operador de ampliación. Ejemplo: estudiantes
OR europeos Es decir los estudiantes o europeos. Nos devolverá las páginas que
contengan algún elemento de los dos o los dos. No nos devolverá las páginas que
no contengan ningún elemento de los dos.

Cuando no indicamos ningún operador entre palabras los buscadores lo interpretan


como si hubiéramos colocado OR.

Es muy útil para buscar varias formas de escritura simultáneamente.

4- WEB PROFUNDA O INVISIBLE

Se conoce informalmente como internet profunda o internet invisible a una porción


presumiblemente muy grande de la internet que es difícil de rastrear o ha sido hecha
casi imposible de rastrear y deliberadamente, como lo es el caso del Proyecto Tor, el
cual fue creado de esta manera por medio de métodos poco convencionales, como
con la proxyficación con muchos proxys, el no utilizar direcciones de internet, sino
códigos, y el pseudodominio de nivel superior .onion, el cual fue creado por la
Armada de los Estados Unidos como una prueba, aunque ahora es aprovechada por

7
diversos grupos cibernéticos, tanto benevolentes como delincuentes, para proteger
su privacidad. Se conoce así a todo el contenido de internet que no forma parte de la
internet superficial, es decir, de las páginas indexadas por las redes de los motores
de búsqueda de la red. Esto se debe a las limitaciones que tienen las redes para
acceder a todos los sitios web por distintos motivos. La mayor parte de la
información encontrada en el internet profunda está enterrada en sitios generados
dinámicamente y para los motores de búsqueda tradicionales es difícil hallarla.
Fiscales y agencias gubernamentales han calificado a la internet profunda como un
refugio para la delincuencia debido al contenido ilícito que se encuentra en ella.

Como web profunda se destacan mega que sirve para descargar archivos mediante
una cuenta, Taringa. Y a parte de estos en un nivel más secreto todas las
direcciones de los gobiernos, bancos.

5- WEB SUPERFICIAL O VISIBLE

Se conoce como Internet superficial a la porción de Internet que es indexada por las
arañas de los motores de búsqueda. La parte que no es indexada se conoce como
Internet profunda.

Las arañas de los buscadores van recorriendo las páginas web, almacenando
información que contienen y buscando enlaces a otros sitios web para seguir
actualizando sus bases de datos. Con el tiempo acaban recorriendo todas las
páginas de Internet que tienen enlaces desde otras

La Web Superficial comprende todos aquellos sitios cuya información puede ser
indexada por los robots de los buscadores convencionales y recuperada casi en su
totalidad mediante una consulta en sus formularios de búsqueda.

Las características principales de los sitios de la Web visible son:

- Su información no está contenida en bases de datos


- es de libre acceso
- no se requiere la realización de un proceso de registro para acceder a la
información.
- mayoritariamente está formada por páginas Web estáticas, es decir páginas o
archivos con una URL fija y accesibles desde otro enlace.
8
9
CONCLUSION

Sabemos que la información en la web es abundante y nunca cesa, sin embargo


podemos recurrir a diversos métodos para filtrarla, como usar navegadores
especializados, buscar en sitios reconocidos y de prestigio, comparar la información
recibida, establecer sitios de confianza, curación de contenidos, entre otros. Creo
que una vez familiarizados con los conceptos aquí destacados nos resultara más
simple la búsqueda en la web.

Una de los caminos para no sentirse es infoxicado es saber que se va a buscar,


donde buscar y que elegir de los datos que se presentan en el resultado.

La utilización de los operadores lógicos es una herramienta eficiente a la hora de


simplificar resultados de datos obtenidos.

10
BIBLIOGRAFIA

- Sobrecarga informativa, https://es.wikipedia.org/wiki/Sobrecarga_informativa.


- Un sitio en internet, http://www.monografias.com/trabajos5/laweb/laweb.shtml.
- Qué es la infoxicación y cómo escapar de ella,
http://papelesdeinteligencia.com/que-es-la-infoxicacion/.
- Web superficial o visible y web profunda o invisible,
http://pasoapasoalfuturo.blogspot.com.ar/2015/06/web-superficial-o-visible-y-
web.html.
- Buscadores lógicos,
http://www.monografias.com/trabajos/buscadores/buscadores.shtml#logicos
- Internet profunda, https://es.wikipedia.org/wiki/Internet_profunda

11

Anda mungkin juga menyukai