Anda di halaman 1dari 4

Para un mejor entendimiento del tema a tratar, es necesario conocer los términos presentados a

continuación:

Internet: es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la


familia de protocolos TCP/IP, lo cual garantiza que las redes físicas heterogéneas que la componen
formen una red lógica única de alcance mundial.

Uno de los servicios que más éxito ha tenido en internet ha sido la World Wide Web (WWW o la Web),
hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de
protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Esta fue un
desarrollo posterior (1990) y utiliza internet como medio de transmisión.

Protocolo: El protocolo de internet (en inglés Internet protocol o IP) es un protocolo de


comunicación de datos digitales clasificado funcionalmente en la capa de red según el modelo
internacional OSI.

Su función principal es el uso bidireccional en origen o destino de comunicación para transmitir


datos mediante un protocolo no orientado a conexión que transfiere paquetes conmutados a
través de distintas redes físicas previamente enlazadas según la norma OSI de enlace de datos.

Unix: Unix (registrado oficialmente como UNIX®) es un sistema operativo portable,


multitarea y multiusuario; desarrollado en 1969 por un grupo de empleados de los laboratorios
Bell de AT&T, entre los que figuran Dennis Ritchie, Ken Thompson y Douglas McIlroy.12

El sistema, junto con todos los derechos fueron vendidos por AT&T a Novell, Inc. Ésta vendió
posteriormente el software a Santa Cruz Operation en 1995, y esta, a su vez, lo revendió a
Caldera Software en 2001, empresa que después se convirtió en el grupo SCO. Sin embargo,
Novell siempre argumentó que solo vendió los derechos de uso del software, pero que retuvo el
copyright sobre "UNIX®". En 2010, y tras una larga batalla legal, ésta ha pasado nuevamente a
ser propiedad de Novell.3

Solo los sistemas totalmente compatibles y que se encuentran certificados por la especificación
Single UNIX Specification pueden ser denominados "UNIX®" (otros reciben la denominación
«similar a un sistema Unix» o «similar a Unix»). En ocasiones, suele usarse el término "Unix
tradicional" para referirse a Unix o a un sistema operativo que cuenta con las características de
UNIX Versión 7 o UNIX System V o unix versión 6.

UUCP: UUCP (acrónimo del inglés Unix to Unix Copy Protocol, Protocolo de copia de Unix
a Unix) hace generalmente referencia a una serie de programas de computadoras y protocolos
que permiten la ejecución remota de comandos y transferencia de archivos, correo electrónico y
Netnews entre computadoras.1

Específicamente, UUCP es uno de los varios programas en la serie, ofreciendo una interfaz de
usuario para operaciones de copia de archivos. La serie de programas UUCP también incluye
uux (interfaz de usuario para la ejecución remota de comandos), uucico (programa de
comunicaciones), uustat (estadísticas y reportes sobre actividades recientes), uuxqt (ejecutar
comandos enviados desde otras máquinas), y úname (parar reportar el nombre uucp del sistema
local).

Si bien UUCP fue originalmente desarrollado y se encuentra fuertemente asociado a Unix,


existen implementaciones de UUCP para otros sistemas operativos, incluyendo MS-DOS de
Microsoft, VAX/VMS de Digital, AmigaOS de Commodore, y Mac OS.

X.25: X.25 es un estándar ITU-T para redes de área amplia de conmutación de paquetes. Su protocolo
de enlace, LAPB, está basado en el protocolo HDLC (publicado por ISO, y el cual a su vez es una
evolución del protocolo SDLC de IBM). Establece mecanismos de direccionamiento entre usuarios,
negociación de características de comunicación, técnicas de recuperación de errores. Los servicios
públicos de conmutación de paquetes admiten numerosos tipos de estaciones de distintos fabricantes.
Por lo tanto, es de la mayor importancia definir la interfaz entre el equipo del usuario final y la red. X.25
está orientado a conexión y trabaja con circuitos virtuales tanto conmutados como permanentes. En la
actualidad se trata de una norma obsoleta con utilidad puramente académica.

FTP: El Protocolo de transferencia de archivos (en inglés File Transfer Protocol o FTP) es
un protocolo de red para la transferencia de archivos entre sistemas conectados a una red TCP
(Transmission Control Protocol), basado en la arquitectura cliente-servidor. Desde un equipo
cliente se puede conectar a un servidor para descargar archivos desde él o para enviarle archivos,
independientemente del sistema operativo utilizado en cada equipo.

El servicio FTP es ofrecido por la capa de aplicación del modelo de capas de red TCP/IP al
usuario, utilizando normalmente el puerto de red 20 y el 21. Un problema básico de FTP es que
está pensado para ofrecer la máxima velocidad en la conexión, pero no la máxima seguridad, ya
que todo el intercambio de información, desde el login y password del usuario en el servidor
hasta la transferencia de cualquier archivo, se realiza en texto plano sin ningún tipo de cifrado,
con lo que un posible atacante puede capturar este tráfico, acceder al servidor y/o apropiarse de
los archivos transferidos.

Para solucionar este problema son de gran utilidad aplicaciones como SCP y SFTP, incluidas en
el paquete SSH, que permiten transferir archivos pero cifrando todo el tráfico.

Nodos: En informática y en telecomunicación, de forma muy general, un nodo es un punto de


intersección, conexión o unión de varios elementos que confluyen en el mismo lugar. Ahora
bien, dentro de la informática la palabra nodo puede referirse a conceptos diferentes según el
ámbito en el que nos movamos:

 En redes de computadoras cada una de las máquinas es un nodo, y si la red es Internet,


cada servidor constituye también un nodo. El concepto de red puede definirse como:
Conjunto de nodos interconectados. Un nodo es el punto en el que una
curva se interseca consigo mismo. Lo que un nodo es concretamente,
depende del tipo de redes a que nos refiramos1

 En estructuras de datos dinámicas un nodo es un registro que contiene un dato de interés


y al menos un puntero para referenciar (apuntar) a otro nodo. Si la estructura tiene sólo
un puntero, la única estructura que se puede construir con él es una lista, si el nodo tiene
más de un puntero ya se pueden construir estructuras más complejas como árboles o
grafos.

Concentrador: Concentrador (hub) es el dispositivo que permite centralizar el cableado


de una red de computadoras, para luego poder ampliarla.

Trabaja en la capa física (capa 1) del modelo OSI o la capa de acceso al medio en el modelo
TCP/IP. Esto significa que dicho dispositivo recibe una señal y repite esta señal emitiéndola por
sus diferentes puertos (repetidor).

En la actualidad, la tarea de los concentradores la realizan, con frecuencia, los conmutadores


(switches).

Modem: Un módem (del inglés modem, acrónimo de modulator demodulator; pl. módems)1
es un dispositivo que convierte las señales digitales en analógicas (modulación) y viceversa
(desmodulación),2 y permite así la comunicación entre computadoras a través de la línea
telefónica o del cablemódem. Sirve para enviar la señal moduladora mediante otra señal llamada
portadora.

Se han usado módems desde la década de 1960, debido a que la transmisión directa de las
señales electrónicas inteligibles, a largas distancias, no es eficiente; por ejemplo, para transmitir
señales de audio por el aire se requerirían antenas de gran tamaño (del orden de cientos de
metros) para su correcta recepción. Es habitual encontrar en muchos módems de red conmutada
la facilidad de respuesta y marcación automática, que les permiten conectarse cuando reciben
una llamada de la RTPC (Red Telefónica Pública Conmutada) y proceder a la marcación de
cualquier número previamente grabado por el usuario. Gracias a estas funciones se pueden
realizar automáticamente todas las operaciones de establecimiento de la comunicación.

Red: Una red de computadoras (también llamada red de ordenadores, red de


comunicaciones de datos o red informática) es un conjunto de equipos nodos y software
conectados entre sí por medio de dispositivos físicos o inalámbricos que envían y reciben
impulsos eléctricos, ondas electromagnéticas o cualquier otro medio para el transporte de datos,
con la finalidad de compartir información, recursos y ofrecer servicios.1

Como en todo proceso de comunicación, se requiere de un emisor, un mensaje, un medio y un


receptor. La finalidad principal para la creación de una red de ordenadores es compartir los
recursos y la información en la distancia, asegurar la confiabilidad y la disponibilidad de la
información, aumentar la velocidad de transmisión de los datos y reducir el costo. Un ejemplo es
Internet, el cual es una gran red de millones de ordenadores ubicados en distintos puntos del
planeta interconectados básicamente para compartir información y recursos.

La estructura y el modo de funcionamiento de las redes informáticas actuales están definidos en


varios estándares, siendo el más importante y extendido de todos ellos el modelo TCP/IP
utilizado como base para el modelo de referencia OSI. Este último, concibe cada red como
estructurada en siete capas con funciones concretas pero relacionadas entre sí (en TCP/IP se
habla de cuatro capas). Debe recordarse que el modelo de referencia OSI es una abstracción
teórica, que facilita la comprensión del tema, si bien se permiten ciertos desvíos respecto a dicho
modelo.

Existen multitud de protocolos repartidos por cada capa, los cuales también están regidos por sus
respectivos estándares

Servidor: Un servidor es una aplicación en ejecución capaz de atender las peticiones de un


cliente y devolverle una respuesta en concordancia. Los servidores se pueden ejecutar en
cualquier tipo de computadora, incluso en computadoras con bombillo dedicadas a las cuales se
les conoce individualmente como «el servidor». En la mayoría de los casos una misma
computadora puede proveer múltiples servicios y tener varios servidores en funcionamiento. La
ventaja de montar un servidor en computadoras dedicadas es la seguridad. Por esta razón la
mayoría de los servidores son procesos diseñados de forma que puedan funcionar en
computadoras de propósito específico.

Los servidores operan a través de una arquitectura cliente-servidor. Los servidores son
programas de computadora en ejecución que atienden las peticiones de otros programas, los
clientes. Por tanto, el servidor realiza otras tareas para beneficio de los clientes. Ofrece a los
clientes la posibilidad de compartir datos, información y recursos de hardware y software. Los
clientes usualmente se conectan al servidor a través de la red pero también pueden acceder a él a
través de la computadora donde está funcionando. En el contexto de redes Internet Protocol (IP),
un servidor es un programa que opera como oyente de un socket.1

Comúnmente los servidores proveen servicios esenciales dentro de una red, ya sea para usuarios
privados dentro de una organización o compañía, o para usuarios públicos a través de Internet.
Los tipos de servidores más comunes son servidor de base de datos, servidor de archivos,
servidor de correo, servidor de impresión, servidor web, servidor de juego, y servidor de
aplicaciones.2

Un gran número de sistemas usa el modelo de red cliente-servidor, entre ellos los sitios web y los
servicios de correo. Un modelo alternativo, el modelo red peer-to-peer permite a todas las
computadoras conectadas actuar como clientes o servidores acorde a las necesidades.

Anda mungkin juga menyukai