11 abr 2010
Busquedas Básicas/Busquedas avanzadas mediante el uso de operadores (lógicos, de proximidad, de existencia, de exactitud)
Clasificación de Buscadores (Ejemplores de motores de busqueda, directorios e hibridos)
La mayoría de grandes buscadores internacionales de uso habitual y conocidos son de este tipo. Requieren muchos recursos para su funcionamiento. No están al alcance de cualquiera. Recorren las páginas recopilando información sobre los contenidos de las páginas. Cuando se busca una información en los motores, ellos consultan su base de datos y presentan resultados clasificados por su relevancia. De las webs, los buscadores pueden almacenar desde la página de entrada, a todas las páginas que residan en el servidor. Si se busca una palabra, por ejemplo, “ordenadores”. En los resultados que ofrecerá el motor de búsqueda, aparecerán páginas que contengan esta palabra en alguna parte de su texto. Si consideran que un sitio web es importante para el usuario, tienden a registrarlas todas. Si no la consideran importante, sólo almacenan una o más páginas. Cada cierto tiempo, los motores revisan los sitios, para actualizar los contenidos de su base de datos, por lo que no es infrecuente que los resultados de la búsqueda estén desactualizados. Los buscadores jerárquicos tienen una colección de programas simples y potentes con diferentes cometidos. Se suelen dividir en tres partes. Los programas que exploran la red -arañas (spiders)-, los que construyen la base de datos y los que utiliza el usuario, el programa que explota la base de datos. Si se paga, se puede aparecer en las primeras páginas de resultados, aunque los principales buscadores delimitan estos resultados e indican al usuario que se trata de resultados esponsorizados o patrocinados. Hasta el momento, aparentemente, esta forma de publicidad, es indicada explícitamente. Los buscadores jerárquicos se han visto obligados a este tipo de publicidad para poder seguir ofreciendo a los usuarios el servicio de forma gratuita.
Directorios
Una tecnología barata, ampliamente utilizada por gran cantidad de scripts en el mercado. No se requieren muchos recursos de informática. En cambio, se requiere más soporte humano y mantenimiento. Los algoritmos son mucho más sencillos, presentando la información sobre los sitios registrados como una colección de directorios. No recorren los sitios web ni almacenan sus contenidos. Solo registran algunos de los datos de nuestra página, como el título y la descripción que se introduzcan al momento de registrar el sitio en el directorio. Los resultados de la búsqueda, estarán determinados por la información que se haya suministrado al directorio cuando se registra el sitio. En cambio, a diferencia de los motores, son revisadas por operadores humanos, y clasificadas según categorías, de forma que es más fácil encontrar páginas del tema de nuestro interés. Más que buscar información sobre contenidos de la página, los resultados serán presentados haciendo referencia a los contenidos y temática del sitio. Su tecnología es muy barata y sencilla.
Permite lanzar varias búsquedas en motores seleccionados respetando el formato original de los buscadores. Lo que hacen, es realizar búsquedas en auténticos buscadores, analizan los resultados de la página, y presentan sus propios resultados, según un orden definido por el sistema estructural del metabuscador
FFA - Enlaces gratuitos para todos
FFA (acrónimo del inglés "Free For All"), Cualquiera puede inscribir su página durante un tiempo limitado en estos pequeños directorios. Los enlaces no son permanentes.
Buscadores verticales
Buscadores especializados en un sector concreto, lo que les permite analizar la información con mayor profundidad, disponer de resultados más actualizados y ofrecer al usuario herramientas de búsqueda avanzadas.Es importante resaltar que utilizan indices especializados de esta manera acceder a la información de una manera más específica y fácil. (Nélida Colina). Ejemplos de este tipo de buscadores son: Trovit,Nestoria.
¿Qué es un Buscador?
Un motor de búsqueda es un sistema informático que busca archivos almacenados en servidores web gracias a su «spider» (o Web crawler). Un ejemplo son los buscadores de Internet (algunos buscan sólo en la Web pero otros buscan además en noticias, servicios como Gopher,FTP, etc.) cuando se pide información sobre algún tema. Las búsquedas se hacen con palabras clave o con árboles jerárquicos por temas; el resultado de la búsqueda es un listado de direcciones Web en los que se mencionan temas relacionados con las palabras clave buscadas.
Como operan en forma automática, los motores de búsqueda contienen generalmente más información que los directorios. Sin embargo, estos últimos también han de construirse a partir de búsquedas (no automatizadas) o bien a partir de avisos dados por los creadores de páginas (lo cual puede ser muy limitante). Los buenos directorios combinan ambos sistemas. Hoy en día Internet se ha convertido en una herramienta, para la búsqueda de información, rápida, para ello han surgido los buscadores que son un motor de búsqueda que nos facilita encontrar información rápida de cualquier tema de interés, en cualquier área de las ciencias, y de cualquier parte del mundo.
¿Qué es el cifrado y para qué sirve?
La criptografía (del griego κρύπτω krypto, «oculto», y γράφω graphos, «escribir», literalmente «escritura oculta») es el arte o ciencia de cifrar y descifrar informaciónmediante técnicas especiales y se emplea frecuentemente para permitir un intercambio de mensajes que sólo puedan ser leídos por personas a las que van dirigidos y que poseen los medios para descifrarlos.
Con más precisión, cuando se habla de esta área de conocimiento como ciencia, se debería hablar de criptología, que a su vez engloba tanto las técnicas de cifrado, es decir, la criptografía propiamente dicha, como sus técnicas complementarias, entre las cuales se incluye el criptoanálisis, que estudia métodos empleados para romper textos cifrados con objeto de recuperar la información original en ausencia de las claves.
Certificado Digital
Un certificado digital es un documento digital mediante el cual un tercero confiable (una autoridad de certificación) garantiza la vinculación entre la identidad de un sujeto o entidad y su clave pública.
Si bien existen variados formatos para certificados digitales, los más comúnmente empleados se rigen por el estándar UIT-T X.509. El certificado contiene usualmente el nombre de la entidad certificada, número de serie, fecha de expiración, una copia de la clave pública del titular del certificado (utilizada para la verificación de su firma digital) y la firma digital de la autoridad emisora del certificado de forma que el receptor pueda verificar que esta última ha establecido realmente la asociación.
Un certificado emitido por una entidad de certificación autorizada, además de estar firmado digitalmente por ésta, debe contener por lo menos lo siguiente:
- Nombre, dirección y domicilio del suscriptor.
- Identificación del suscriptor nombrado en el certificado.
- El nombre, la dirección y el lugar donde realiza actividades la entidad de certificación.
- La clave pública del usuario.
- La metodología para verificar la firma digital del suscriptor impuesta en el mensaje de datos.
- El número de serie del certificado.
- Fecha de emisión y expiración del certificado.
FTP (Protocolo de transferencia de archivos)
FTP (sigla en inglés de File Transfer Protocol - Protocolo de Transferencia de Archivos) en informática, es un protocolo de red para la transferencia de archivos entre sistemas conectados a una red TCP (Transmission Control Protocol), basado en la arquitectura cliente-servidor. Desde un equipo cliente se puede conectar a un servidor para descargar archivos desde él o para enviarle archivos, independientemente del sistema operativo utilizado en cada equipo.
El Servicio FTP es ofrecido por la capa de Aplicación del modelo de capas de red TCP/IP al usuario, utilizando normalmente el puerto de red 20 y el 21. Un problema básico de FTP es que está pensado para ofrecer la máxima velocidad en la conexión, pero no la máxima seguridad, ya que todo el intercambio de información, desde el login y password del usuario en el servidor hasta la transferencia de cualquier archivo, se realiza en texto plano sin ningún tipo de cifrado, con lo que un posible atacante puede capturar este tráfico, acceder al servidor, o apropiarse de los archivos transferidos.
Para solucionar este problema son de gran utilidad aplicaciones como scp y sftp, incluidas en el paquete SSH, que permiten transferir archivos pero cifrando todo el tráfico.
Hyperlink (Vínculo)
URL (Dirección de Internet)
Un localizador uniforme de recursos, más comúnmente denominado URL (sigla en inglés de uniform resource locator), es una secuencia de caracteres, de acuerdo a un formato modélico y estándar, que se usa para nombrar recursos en Internet para su localización o identificación, como por ejemplo documentos textuales, imágenes, videos, presentaciones digitales, etcétera.
Los localizadores uniformes de recursos fueron una innovación fundamental en la historia de la Internet. Fueron usadas por primera vez por Tim Berners-Lee en 1991, para permitir a los autores de documentos establecer hiperenlaces en la World Wide Web. Desde 1994, en los estándares de la Internet, el concepto de URL ha sido incorporado dentro del más general de URI (uniform resource identifier, en español identificador uniforme de recurso), pero el término URL aún se utiliza ampliamente.
Aunque nunca fueron mencionadas como tal en ningún estándar, mucha gente cree que las iniciales URL significan universal resource locator(localizador universal de recursos). Esta interpretación puede ser debida al hecho de que, aunque la U en URL siempre ha significado "uniforme", la U de URI significó en un principio "universal", antes de la publicación del RFC 2396.
El URL es la cadena de caracteres con la cual se asigna una dirección única a cada uno de los recursos de información disponibles en laInternet. Existe un URL único para cada página de cada uno de los documentos de la World Wide Web, para todos los elementos de Gopher y todos los grupos de debate USENET, y así sucesivamente.
El URL de un recurso de información es su dirección en Internet, la cual permite que el navegador la encuentre y la muestre de forma adecuada. Por ello el URL combina el nombre del ordenador que proporciona la información, el directorio donde se encuentra, el nombre del archivo, y el protocolo a usar para recuperar los datos.
HTTP (Protocolo de transferencia de Hipertexto)
Hypertext Transfer Protocol o HTTP (en español protocolo de transferencia de hipertexto) es el protocolo usado en cada transacción de la World Wide Web. HTTP fue desarrollado por elWorld Wide Web Consortium y la Internet Engineering Task Force, colaboración que culminó en 1999 con la publicación de una serie de RFC, siendo el más importante de ellos el RFC 2616, que especifica la versión 1.1. HTTP define la sintaxis y la semántica que utilizan los elementos de software de la arquitectura web (clientes, servidores, proxies) para comunicarse. Es un protocolo orientado a transacciones y sigue el esquema petición-respuesta entre un cliente y un servidor. Al cliente que efectúa la petición (un navegador web o un spider) se lo conoce como "user agent" (agente del usuario). A la información transmitida se la llama recurso y se la identifica mediante un localizador uniforme de recursos (URL). Los recursos pueden ser archivos, el resultado de la ejecución de un programa, una consulta a una base de datos, la traducción automática de un documento, etc.
HTTP es un protocolo sin estado, es decir, que no guarda ninguna información sobre conexiones anteriores. El desarrollo de aplicaciones web necesita frecuentemente mantener estado. Para esto se usan las cookies, que es información que un servidor puede almacenar en el sistema cliente. Esto le permite a las aplicaciones web instituir la noción de "sesión", y también permite rastrear usuarios ya que las cookies pueden guardarse en el cliente por tiempo indeterminado.
Diferencia entre Internet y World Wide Web (WWW)
World Wide Web, cuya traducción podría ser Red Global Mundial o "Red de Amplitud Mundial", es un sistema de documentos de hipertexto y/o hipermedios enlazados y accesibles a través de Internet. Con unnavegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener texto, imágenes,videos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.
La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee y el belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas web), y en los últimos años ha abogado por su visión de una Web Semántica.
ISP (INTERNET SERVICE PROVIDER, PROVEEDOR DE SERVICIOS DE INTERNET)
En México el acceso a Internet por banda ancha predominantemente es a través de ADSL y Cable.
- ADSL: las compañías que ofrecen esta modalidad son: Telmex, Alestra, Terra y Maxcom. Telmex lo ofrece con su servicio Prodigy Infinitum, Alestra y Terra usan la red de Telmex para dar su servicio. Las velocidades de conexión van desde 512 Kbps hasta 5 Mb/s.
- Cable: Las compañías que ofrecen el servicio son: Cablecom, Cablemas, con Cablered, Cablevisión, Cablevisión Monterrey con Intercable, Megacable con Megared y Telecable con Cybercable. Las velocidades van desde 256 Kb/s hasta los 50 Mb/s.
- A través de celular: Movistar ofrece el servicio mediante UMTS/HSDPA, Telcel por medio de WCDMA/UMTS y Iusacell por medio deCDMA/EVDO.
- Conexión 3G a través de la computadora: Iusacell ofrece servicio de Internet 3G en su red CDMA por EVDO desde hace 5 años a una velocidad máxima de 3.1 Mb/s. Telcel también pero en su red UMTS desde el 2008 con una velocidad máxima de 1.8 Mb/s. Movistaranunció la disponibilidad de su red UMTS/HSDPA en Noviembre del 2008 con una velocidad máxima de 14.4 Mb/s.2 3
- A través de Satélite: Jaba Networks Comunicaciones Satelitales en Situaciones Criticas red global, y Pegaso Banda Ancha.
- Internet inalámbrico: E-Go de MVS ofrece el servicio de Internet inalámbrico; además, tiene acuerdos con Alestra (Masternet) y Axtel (antesAvantel con su servicio Netvoice) para usar su infraestructura. WideLAN da servicio de Internet inalámbrico en la ciudad de Tepic, en el estado de Nayarit. Accesa Comunicaciones es una empresa que ofrece el servicio de Internet inalámbrico en la ciudad de Mérida, en el estado de Yucatán, México.
- WiMax: El proveedor de TV de paga por cable coaxial, Ultravisión fue el primero en ofrecer WiMax en México, desde 2006.4 Actualmente se ofrece en las ciudades de Aguascalientes, Coatzacoalcos, Matamoros, Puebla, Tampico y Veracruz. Sin embargo, Axtel es el proveedor de Servicios Wimax más grande de México con cobertura en 39 ciudades a nivel Nacional.
Requerimientos para una conexión de red
Historia del internet
Fue en 1969 cuando DARPA (Defense Advanced Research Projects Agency) y Rand Corporation desarrollaron una forma de enviar y recibir información basada en paquetes conmutados.
Esta red, que únicamente comunicaba unas pocas computadoras, se bautizó como DARPANET, para pasar a llamarse en 1972 ARPANET.
Ese mismo año investigadores del prestigioso MIT dieron a luz el germen de lo que sería el sistema de transferencia de archivos FTP.
Una de las primeras referencias a una red electrónica similar a Internet es el 'Memex', citado en el artículo 'As We May Think' (como podríamos pensar), publicado en 1945 por el Director de la estadonidense Oficina de Investigación Científica y Desarrollo Vannevar Bush.
Mucho más tarde, en 1962, el profesor J.C.R. Licklider del MIT in August 1962 lanza la idea de la 'Galactic Network', que promociona desde su posterior puesto de director del programa de ordenadores en DARPA, una agencia de investigación avanzada del Pentágono.
De hecho el primer artículo sobre conmutación de paquetes (la técnica basal de Internet) lo había publicado ya Leonard Kleinrock, del MIT, en julio de 1961.