Logo Studenta

RESUMEN SEGUNDO PARCIAL

¡Este material tiene más páginas!

Vista previa del material en texto

UNIDAD 5 - PROTOCOLO
Conjunto de reglas preestablecidas que regulan la interacción entre computadoras. Estas reglas definen la sintaxis y la sincronización de la comunicación, así como posibles métodos de recuperación de errores. Los protocolos pueden ser implementados por hardware, software o una combinación de ambos.
Protocolos no orientados y orientados a la conexión 
Un protocolo no orientado a la conexión es un método de comunicación en el cual el equipo remitente envía datos sin avisarle al equipo receptor, y este recibe los datos sin enviar una notificación de recepción al remitente. Los datos se envían entonces como bloques. 
Un protocolo orientado a la conexión, la transmisión de datos durante una comunicación establecida entre dos máquinas estará controlada. 
Red de comunicaciones
 Existen dos formas básicas de comunicación en la red: por conmutación de circuitos o Circuit switching o por conmutación de paquetes o Paquet Switching. 
-Circuit Switching En esta forma, los dos puntos de una conexión mantienen un fluido de información continuo. Los dos extremos de la comunicación mantienen el canal de comunicación en forma exclusiva, mientras que desean estar comunicados. Un ejemplo muy conocido de esta forma es la comunicación telefónica tradicional.
- Paquet switching o conmutación de paquetes A partir de un protocolo que transfiere paquetes conmutados, el intercambio de información entre dos puntos se realizará en bloques de información con un tamaño específico. En el origen, extremo emisor, la información se divide en «paquetes» a los cuales se les indica la dirección del destinatario. Cada paquete contiene, además de los datos, un encabezado con la siguiente información: prioridad (número de orden), direcciones de origen y dirección de destino.
Las ventajas de la conmutación de paquetes son:
 a) La eficiencia de la línea es mayor, ya que el canal de comunicación puede ser usado por múltiples comunicaciones simultáneamente. En conmutación de circuitos, la línea se utiliza exclusivamente para una conexión, aunque no haya datos para enviar. 
b) Se permiten conexiones entre estaciones de velocidades diferentes, esto es posible ya que los paquetes se irán guardando en cada nodo conforme lleguen. 
c) No se bloquean llamadas, ya que todas las conexiones se aceptan, aunque si hay muchas, se producen retardos en la transmisión
El modelo de familias de protocolos TCP/IP Las capas del modelo TCP/IP son 4: 
a) Capa de Aplicación b) Capa de Transporte c) Capa de Internet d) Capa de Acceso a la Red (NAL) Este modelo se basa en separar todas las actividades que se requieren realizar en una comunicación en cuatro capas. Cada una de las capas tiene un propósito específico y bien diferenciado de la otra. La separación conceptual en capas es una forma de facilitar la incorporación de diversas tecnologías y de múltiples proveedores en un conjunto único de comunicación
Conjunto de protocolos TCP/IP 
Los primeros protocolos que desarrolló DARPA fueron TCP e IP. TCP e IP es la base de Internet y sirve para enlazar computadoras tanto en redes LAN como sobre redes WAN. Permiten la comunicación entre máquinas con diferentes arquitecturas de hardware y sistemas operativos diferentes. Además, las especificaciones no pertenecen a ningún fabricante, son del dominio público
Protocolos de la capa de aplicación 
Proporciona la interfaz del usuario con la red. Esta es una capa visible para el usuario. Entre los más conocidos se pueden destacar: 
FTP: el Protocolo de Transferencia de Archivos se utiliza para transferir archivos entre hosts. 
TELNET: este es un protocolo de red que permite viajar a otra máquina para manejarla remotamente como si se estuviera sentados en frente de ella. Telnet solo sirve para acceder en modo terminal, es decir, sin la posibilidad de manejar gráficos, solo caracteres
HTTP: el Protocolo de Transferencia de Hipertexto es el sistema mediante el cual se transfiere información entre los servidores y los clientes. Además, es el método más común de intercambio de información en la World Wide Web mediante el cual se transfieren las páginas web a una computadora. 
SMTP: el Protocolo para la Transferencia simple de Correo Electrónico se utiliza para el intercambio de mensajes de correo electrónico entre dispositivos. 
POP3: El Protocolo de Oficina de Correo se utiliza para obtener los mensajes de correo electrónico almacenados en un servidor de correo electrónico
Protocolos de transporte 
El nivel de transporte o capa de transporte es el segundo nivel del modelo TCP/IP. Es el encargado de la transferencia libre de errores de los datos entre el emisor y el receptor (aunque no estén directamente conectados), así como de mantener el flujo de la red. La tarea de esta capa es proporcionar un transporte de datos confiable y económico de la máquina de origen a la máquina destino, independientemente de la red o redes físicas que deban atravesarse. 
Para permitir que las aplicaciones accedan al servicio de transporte, la capa de transporte debe proporcionar algunas operaciones a los programas de aplicación, es decir, una interfaz del servicio de transporte a las que se llaman primitivas. 
Protocolo TCP 
El Protocolo de Control de Transmisión TCP (Transmission Control Protocol) es un protocolo orientado a la conexión (documentado en la RFC 793). Es uno de los principales protocolos de la capa de transporte del modelo TCP/IP. Muchos programas dentro de una red de datos pueden usar este protocolo para generar conexiones entre sí. El protocolo garantiza que los datos serán entregados en su destino sin errores y en el mismo orden en que se transmitieron. Además, proporciona un mecanismo para diferenciar aplicaciones dentro de una misma máquina, a través del concepto de puerto. 
Protocolo UDP
User Datagram Protocol (UDP) es un protocolo no orientado a conexión. Está definido por la RFC 768. Se utiliza en reemplazo de TCP cuando la velocidad es importante y la confiabilidad no representa una inquietud.
Protocolo de la capa de Internet (IP) 
Internet Protocol (Protocolo de Internet, IP) es un protocolo de comunicación de datos digitales que se ubica en la capa de Internet según el modelo de familia de protocolos TCP/IP. Su función principal es el uso bidireccional en origen o destino de comunicación para transmitir datos mediante un protocolo no orientado a conexión que transfiere paquetes conmutados a través de distintas redes físicas. El protocolo IP no transporta bits de un lugar a otro, de eso se encargan los protocolos como IEEE 802.3, ATM, Frame Relay, DOCSIS, etcétera (de la capa de acceso a red). Este protocolo se encarga de la identificación y el ruteo:
Dirección IP 
Existen dos versiones de protocolos IP: la versión IPv4 y la IPv6. El IPv6 es una versión diseñada para reemplazar a IPv4. El protocolo IPv4 es el que actualmente utiliza, mayoritariamente, Internet. Lentamente las redes de Internet están teniendo que pasar a IPv6 para superar las limitaciones al crecimiento que significa IPv4. La limitación principal de IPv4 es la cantidad de dispositivos que pueden conectarse a la red. IPv4 permite conectar 4.294.967.296 ( 32 2 ) de dispositivos, mientras que IPv6 permite conectar 340.282.366.920.938.463.463.374.607.431.768.211.456 ( 128 2 o 340 sextillones de direcciones).
IPv4 
Una computadora que desea comunicarse con otra computadora dentro de una red que utiliza el protocolo IP debe saber el número IP de la computadora de destino y el número IP propio. Cada computadora dentro de una red debe tener una dirección única. Esto es muy similar a cuando una persona quiere llamar por teléfono a otra, primero debe saber el número telefónico de la persona que desea llamar. Las direcciones IPv4 están formadas por cuatro octetos binarios. Por ejemplo, una dirección IPv4 puede ser la siguiente: 11000000101010000000000100001000. Las direcciones IPv4 se muestran con un punto que separa cada octeto: 11000000.10101000.00000001.00001000. Para que esta dirección sea más comprensible para los humanos, la computadoralas muestra en decimal, por ejemplo: 192.168.1.8, que es la expresión decimal del octeto anteriormente descripto, por ejemplo: 192 es igual al número binario 11000000. La organización responsable del otorgamiento de las direcciones IP es la Corporación de Internet para la Asignación de Nombres y Números (ICANN). El protocolo IP intercambia información conmutando paquetes (también llamados datagramas). Cada paquete IP contiene en su cabecera la dirección IP de destino y la dirección IP de origen. Estas direcciones IP están construidas de esta forma para poder conectar computadoras de distintas redes y que estas se localicen rápidamente.
Router IP 
Un router IP –también conocido como enrutador o encaminador de paquetes– es un dispositivo que envía o encamina datagramas de datos de una red a otra, es decir, interconecta subredes. En este caso, por tratarse de dos redes ubicadas en el mismo lugar físico, puede utilizarse un solo router. En el caso de redes a distancia, es necesario utilizar un router en cada red.
Los routers deben cumplir dos tareas principales: 
a) Reenvío de paquetes (forwarding): cuando un paquete llega a un ruteador, este tiene que pasar el paquete a la salida apropiada, pero ya a nivel de puerto físico. 
b) Encaminamiento de paquetes (routing): mediante el uso del protocolo RIP, tiene la capacidad de construir las tablas de información (dentro del router) que permiten que este pueda determinar la ruta que deben seguir los paquetes (es decir, por qué puerto físico se deben enviar los paquetes).
IPv6 
Como ya se dijo, la principal necesidad de crear un nuevo protocolo para reemplazar IPv4 fue el agotamiento de las direcciones IPv4. IPv6 es absolutamente compatible con IPv4, por lo que pasar de IPv4 a IPv6 no implica la necesidad de una fecha determinada para su migración, esta puede ir haciéndose durante el transcurso del tiempo. Las direcciones IPv4 pueden ir incrustadas dentro de la dirección IPv6. Los ruteadores deben tener la capacidad de manejar ambos protocolos hasta que se decida discontinuar el uso del IPv4
Formato de IPv6 
Ya se ha dicho que IPv6 permite generar 340.282.366.920.938.463.463.374.607.431.768.211.456 ( 128 2 o 340 sextillones) de direcciones IP. Las direcciones están formadas por 128 bits. La dirección IP se representa por 8 valores de 16 bits cada uno (x.x.x.x.x.x.x.x). Este espacio de 16 bits permite 65.535 valores que en IPv6 se expresa en hexadecimal (FFFF). La dirección IPv6 se ve como 8 valores separados por un punto de cuatro dígitos hexadecimales, por ejemplo: 2001:0db8:0000:0000:0000:0000:1428:57ab
Protocolos de la capa de red 
IEEE 802.3 
El primer antecedente de una red IEEE 802.3 fue la red ALOHA creada en la Universidad de Hawái, en 1970. Al igual que el grupo ARPANET, la red ALOHA se construyó con fondos de DARPA. ALOHA usaba una transmisión de radio, esto se debía a que los diferentes centros de investigación estaban repartidos en varias islas, por lo que se buscaba un sistema de transmisión de datos inalámbrico. La característica más importante de esta red fue que usaban un medio compartido para la transmisión. ALOHA usaba para todos los nodos la misma frecuencia. Esto suponía la necesidad de algún tipo de sistema para controlar quién podían emitir y en qué momento. El esquema de ALOHA era muy simple: cuando dos estaciones trataban de emitir al mismo tiempo, ambas transmisiones colisionaban, y los datos tenían que ser reenviados nuevamente. ALOHA demostró que es posible tener una red útil sin necesidad de una intermediación.
Los dos principios de la red ALOHA fueron: 
➢ Si tienes datos que enviar, envíalos. 
➢ Si el mensaje colisiona con otra transmisión, intenta reenviarlos más tarde. 
El concepto de ALOHA fue tomado, en el año 1980, por la empresa Xerox, que desarrolló esta idea bajo el nombre de Ethernet. Luego se unió a Digital e Intel y juntas desarrollaron la especificación Ethernet en un conjunto de normas que denominaron Ethernet Blue Book 1. Después emitieron una nueva especificación denominada Ethernet Blue Book 2, que más tarde, en 1983, fueron desarrolladas como normas estándar por el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE, The Institute of Electrical and Electronics Engineers). Esta norma fue llamada IEEE 802.3 de Acceso Múltiple con Detección de Portadora y Detección de Colisiones (CSMA/CD, Carrier Sense; Multiple Access; Collision Detect). Igualmente, este tipo de redes siguieron siendo denominadas como Ehternet. El estándar IEEE 802.3 define la gama de tipos de cables que pueden ser usados en la red. Incluye pares de cables trenzado, cable coaxial, fibra óptica y circuitos impresos. Además, especifica el tipo de señal y la velocidad. Con el correr de los años, se han ido desarrollando distintas variantes de la norma IEEE 802.3 para adaptarse a las nuevas tecnologías, agregándole funcionalidades y mejorando su rendimiento
En forma genérica, las reglas del protocolo IEEE 302.3… son: 
➢ Si el medio de transmisión está libre, se puede transmitir. 
➢ Si el medio está ocupado, entonces se espera hasta que se libere para poder transmitir. 
➢ Si se encuentra el medio de transmisión libre, se intenta la transmisión. Si al transmitir se produce una colisión, enseguida se detiene la transmisión, y entonces se envía una señal de JAM a todos los miembros de la red, después de la cual todos detienen la transmisión completamente por un tiempo seleccionado aleatoriamente para cada nodo de la red. 
➢ Si al volver a tratar de transmitir ocurriera de nuevo una colisión, entonces se recurre al retardo exponencial binario, el cual consiste en duplicar el tiempo de espera inicial. Y si aun así se repitiera la colisión, de nuevo se duplica el tiempo anterior, y así sucesivamente hasta que se pueda transmitir la trama o se llegue al límite de reintentos parametrizados en la red después del cual la trama se descarta. 
Este protocolo se implementa por intermedio de unos circuitos impresos denominados Tarjetas de Interfaz de Red (NIC, del inglés network interfaz card). Cada NIC tiene un identificador único denominado dirección MAC (Media access control). Esta dirección está formada por 48 bits (seis octetos). Los primeros tres octetos identifican al fabricante de la NIC y se lo llama identificador de organización único (OUI, Organizationally Unique Identifier). Los otros tres octetos son otorgados por la organización que fabrica la NIC.
Topologías IEEE 802.3 
En esencia la topología de IEEE 802.3 es de bus, pero la forma de implementarla, en la mayoría de los casos, asemeja a una topología estrella. Cuando se utiliza un cable coaxial, la topología se puede describir, inconfundiblemente, como de bus. En esta forma, los dispositivos son conectados a un único tramo de cable. Este cable es el medio común para todos los dispositivos conectados y transporta todas las transmisiones entre los dispositivos. El problema más común de esta configuración es que una falla en cualquier parte del cable coaxial va a interrumpir la comunicación de todo el sistema. Cuando se utilizan pares trenzados o de fibra óptica, los dispositivos son dispuestos en una topología estrella; aunque, como se dijo antes, esencialmente es una topología bus. En esta topología, los dispositivos individuales son conectados a un concentrador (hub o switch) central, formando un segmento. Las tramas de cada dispositivo son enviadas al concentrador y, dentro de él, se difunden a los otros dispositivos conectados. Este diseño permite operar lógicamente como un bus, pero físicamente el bus solo existe en el concentrador. Esta forma de conectar los dispositivos simplifica la administración de la red, ya que cada tramo de cable conecta solo una NIC al concentrador. Si una NIC no puede comunicarse exitosamente con simplemente conectarla a otra salida del concentrador, es posible identificar si el problema es del dispositivo o del concentrador. Por la baja performance de los hubs, debido a la gran cantidad de colisiones que dentro de él se producen, se han reemplazado por el switchque se asemeja mucho a los hubs, pero que están pensados para evitar las colisiones de las tramas.
IEEE 802.11 (Wireless LAN) 
La variante inalámbrica del protocolo Ethernet es el estándar IEEE 802.11, también llamada WIFI. Esta tecnología es muy similar a IEEE 802.3 en muchos aspectos. El método de acceso al medio de IEEE 802.11, a diferencia con IEEE 802.3, es MACAW. El problema de las líneas inalámbricas es que las colisiones se producen en el aire y, por lo tanto, no pueden ser escuchadas. Las transmisiones se realizan mediante señales de radio frecuencias. Pero, a diferencia de una red en forma de bus donde el medio es absolutamente compartido, las redes inalámbricas son más parecidas a una red en forma de estrella, donde existe un nodo coordinador, cuya figura está representada por el Wireless Access Point (WAP).
UNIDAD 6 
Gestión de la seguridad 
Se puede definir la Seguridad Informática como cualquier medida que impida la ejecución de operaciones no autorizadas sobre un sistema o red informática, cuyos efectos puedan conllevar daños sobre la información, comprometer su confidencialidad, autenticidad e integridad, disminuir el rendimiento de los equipos o bloquear el acceso de usuarios autorizados al sistema. 
Para cumplir con los objetivos de seguridad informática una empresa debe contemplar las siguientes líneas de actuación: 
Técnica: en las vertientes física (hardware) y lógica (software). 
Legal: las leyes obligan a implantar determinadas medidas de seguridad. 
Humana: formación del personal de la empresa. 
Organizativa: definición e implantación de políticas, normas y procedimientos de seguridad, y llevar a cabo buenas prácticas de actuación en seguridad
Vulnerabilidades 
Una vulnerabilidad es cualquier debilidad en el sistema informático que pueda permitir a las amenazas causarle daños y producir pérdidas para la empresa. Cualitativamente se valoran como baja, media y alta. Una amenaza es cualquier evento accidental o intencionado que puede ocasionar algún daño en el sistema informático, provocando pérdidas materiales, financieras o de otro tipo a la empresa. Suelen clasificarse, cualitativamente, como muy baja, baja, media, alta, muy alta.
Los hackers: los hackers son personas que acceden sin autorización a una red de computadoras, para lucrar, causar daños o por placer personal. 
El spoofin es el re-direccionamiento de un enlace Web a una dirección diferente de la que se pretende. 
Un sniffer es un tipo de programa de espionaje que vigila la información que viaja a través de una red 
Los Spyware son aplicaciones que recopilan información sobre una persona u organización sin su conocimiento. A diferencia de los virus no infectan a otros dispositivos o software. 
El denial-of-Service (DoS) son ataques a los servidores Web con muchos miles de comunicaciones a efectos de dejarlos fuera de servicio.
El robo de identidad es un delito en el que un impostor obtiene información personal como ser claves de acceso, tarjetas de créditos, etc. 
➢ El phishing implica el establecimiento de sitios Web falsos para solicitar al usuario datos personales y confidenciales. También utilizan mensajes de correo electrónico con el mismo propósito 
➢ Los evil twins son redes inalámbricas que fingen ofrecer conexiones Wi-Fi confiables. 
➢ El pharming redirige a los usuarios a una página Web falsa mediante el acceso y modificación no autorizadas de los DNS de los proveedores de Internet. 
➢ El spamming es el envío de correo electrónico no solicitado.
El Troyano es un malware que se presenta al usuario como un programa aparentemente legítimo e inofensivo, pero que, al ejecutarlo, le brinda a un atacante acceso remoto al equipo infectado o infecta la computadora con un virus o un spyware o realiza alguna acción maliciosa en el equipamiento instalado. 
Virus 
Programas de software fuera de control que son difíciles de detectar y que se propagan rápidamente por los sistemas de información, destruyendo datos, programas y perturbando el procesamiento y la memoria. Generalmente se introducen en los dispositivos por la vía de un troyano.
Herramientas defensivas 
Cortafuego 
Un cortafuegos es la parte de un sistema o una red informáticos que está diseñada para bloquear el acceso no autorizado, permitiendo al mismo tiempo comunicaciones autorizadas. Los cortafuegos pueden ser implementados en hardware o software, o en una combinación de ambos. Los cortafuegos se utilizan con frecuencia para evitar que los usuarios de Internet no autorizados tengan acceso a redes privadas conectadas a Internet, especialmente intranets. Todos los mensajes que entren o salgan de la intranet pasan a través del cortafuegos, que examina cada mensaje y bloquea aquellos que no cumplen los criterios de seguridad especificados.
Antivirus 
Los antivirus son programas cuyo objetivo es detectar y eliminar virus informáticos. Con el transcurso del tiempo, los antivirus han evolucionado hacia programas más avanzados que además de buscar y detectar virus informáticos consiguen bloquearlos, desinfectar archivos y prevenir una infección de los mismos. Actualmente son capaces de reconocer otros tipos de malware como spywares y troyanos. 
Antispam 
Es software que se instala en los servicios de correo electrónico para evitar la recepción de correo electrónico no deseado.
Recomendaciones básicas para evitar ser víctimas de ataques informáticos. 
1-No ingresar a enlaces sospechosos: evitar hacer clic en hipervínculos o enlaces de procedencia dudosa para prevenir el acceso a páginas web que posean amenazas informáticas. Recuerde que este tipo de enlaces pueden estar presentes en un correo electrónico, una ventana de chat o un mensaje en una red social. 
2-No acceder a sitios web de dudosa reputación: a través de técnicas de Ingeniería Social, muchos sitios web suelen promocionarse con datos que pueden llamar la atención del usuario – como descuentos en la compra de productos (o incluso ofrecimientos gratuitos), primicias o materiales exclusivos de noticias de actualidad, material multimedia, etc. Se recomienda estar atento a estos mensajes y evitar acceder a páginas web con estas características. 
3-Actualizar el sistema operativo y aplicaciones: se recomienda siempre mantener actualizados los últimos parches de seguridad y software del sistema operativo para evitar la propagación de amenazas a través de las vulnerabilidades que posea el sistema. 
4-Aceptar sólo contactos conocidos: tanto en los clientes de mensajería instantánea como en redes sociales, es recomendable aceptar e interactuar sólo con contactos conocidos. De esta manera se evita acceder a los perfiles creados por los atacantes para comunicarse con las víctimas y exponerlas a diversas amenazas informáticas. 
5-Instalar aplicaciones de fuente seguras: Es recomendable que al momento de descargar aplicaciones lo haga siempre desde las páginas web oficiales. Esto se debe a que muchos sitios simulan ofrecer programas populares que son alterados, modificados o suplantados por versiones que contienen algún tipo de malware y descargan el código malicioso al momento que el usuario lo instala en el sistema 
6-Evitar la ejecución de archivos sospechosos: la propagación de malware suele realizarse a través de archivos ejecutables. Es recomendable evitar la ejecución de archivos a menos que se conozca la seguridad de este y su procedencia sea confiable. 
7-Utilizar tecnologías de seguridad: las soluciones antivirus, firewall y antispam representan las aplicaciones más importantes para la protección del equipo ante las principales amenazas que se propagan por Internet. Utilizar estas tecnologías disminuye el riesgo y exposición ante amenazas. 
8-Evitar el ingreso de información personal en formularios dudosos: cuando el usuario se enfrente a un formulario web que contenga campos con información sensible (por ejemplo, usuario y contraseña), es recomendable verificar la legitimidad del sitio. Una buena estrategia es corroborar el dominio y la utilización del protocolo HTTPS para garantizar la confidencialidadde la información. 
9-Tener precaución con los resultados arrojados por los buscadores web: a través de técnicas de Black Hat SEO, los atacantes suelen posicionar sus sitios web entre los primeros lugares en los resultados de los buscadores, especialmente en los casos de búsquedas de palabras clave muy utilizadas por el público. Ante cualquiera de estas búsquedas, el usuario debe estar atento a los resultados y verificar a qué sitios web está siendo enlazado
10-Utilizar contraseñas fuertes: Se recomienda la utilización de contraseñas fuertes, con distintos tipos de caracteres y una longitud no menor a los 8 caracteres.
Plan de contingencia 
Podríamos decir que un plan de contingencia es el proceso para desarrollar, comunicar y mantener documentados y probados los planes de continuidad de operaciones y procesos de SI. Los planes de continuidad vienen a ser los procedimientos para poder restablecer el funcionamiento de los sistemas informáticos con el menor impacto para la organización. 
Hay 3 áreas que un plan de contingencia ha de ser capaz de cubrir: 
1. Contar con planes de respaldo y recuperación capaces de asegurar la reanudación del proceso normal del procesamiento de la información en caso de cualquier tipo de interrupción o de la necesidad de re-arrancar algún proceso. 
2. Tener la habilidad suficiente para continuar suministrando capacidades de procesamiento de la información en caso de que las instalaciones habituales no estén disponibles. 
3. Tener la habilidad de asegurar la continuidad del negocio en caso de una interrupción del mismo.
Elaboración de un plan de contingencia
 Identificar y priorizar los procesos y recursos vitales. 
Han de conocerse los puntos críticos dentro de la organización. Los responsables de la elaboración de un plan de contingencia han de ser capaces de establecer un orden y ponderar de forma correcta la criticidad tanto de procesos como de sistemas e información. 
Análisis de Riesgo e Impacto
Un buen plan de contingencia debe tener en cuenta todos los tipos de situaciones que puedan impactar en instalaciones o en las operaciones del negocio
Podemos clasificar los desastres en: 
• Desastres naturales como por ejemplo un terremoto, incendios o inundaciones. 
• Desastres por falta de servicio como puedan ser falta de energía, corte de comunicaciones… 
• Situaciones de alto riesgo como pueda ser un ataque de denegación de servicio, borrado de información, infección de virus... es necesario analizar el impacto que tendrían en la organización, para lo cual hay que tener un buen conocimiento de la organización, procesos del negocio y recursos de TI con los que cuenta
Recomendaciones de Protección 
Cuando sabemos cuáles son nuestros puntos críticos y las consecuencias que supondría el fallo de alguno de ellos, es importante establecer algunas recomendaciones sobre la protección de estos recursos, información que aparecerá en el documento de seguridad de la organización. 
Estrategias y alternativas de recuperación 
Una estrategia de recuperación identifica la mejor manera de recuperar un sistema en caso de desastre y provee una guía para el desarrollo de los procedimientos de recuperación.
Establecimiento de los equipos de trabajo y funciones de cada persona 
Para poder llevar a cabo una recuperación lo más eficaz y eficiente posible, es necesario que estén bien establecidos los grupos de trabajo, las funciones de cada persona y cómo se han de llevar a cabo las acciones de recuperación. 
Ejecución de una prueba real del mismo plan
Es importante comentar la posibilidad de realizar pequeñas pruebas de contingencia en diferentes áreas para poder tomar conciencia de la situación en pequeñas partes del todo. 
Elaboración del manual de contingencia 
El plan de contingencia debe quedar formalizado en un documento escrito en un lenguaje simple capaz de ser entendido por todos y en el que no puede faltar: 
a) Situación previa al desastre. 
b) Cómo declarar una situación de desastre. 
c) Una identificación de procesos y recursos de TI que se deben recuperar. 
d) Identificación clara de responsabilidades. 
e) Plan de acción.
 f) Lista detallada de los recursos requeridos para la recuperación y continuidad de la organización
Retroalimentación del plan de acción
 Las empresas evolucionan y con ellas los procesos de negocio, es necesario una continua revisión de los planes establecidos. Se deben actualizar aquellos puntos que puedan haber cambiado o evolucionado desde la última revisión del plan de contingencia
Copias de seguridad 
Para adaptarnos a las exigencias de un plan de contingencia, hemos de contar con una planificación de copias de seguridad. La necesidad de hacer copias de seguridad: mantener la continuidad del negocio ante cualquier pérdida de datos. El hardware falla, eso es obvio. Si falla un teclado, una pantalla, un ratón, nos basta con sustituirlos por otro y problema resuelto. Pero cuando lo que falla es el disco duro, el problema no tiene tan fácil solución. Existen empresas capaces de recuperar información de discos duros dañados, pero hoy en día el costo que supone en muchos casos hace que no sea la opción más aconsejable. En otras ocasiones la pérdida de información no se debe a un fallo de disco duro, sino a algún despiste por parte de usuarios, a ataques hacker, etc. Entre los motivos más comunes que producen una pérdida de datos están: 
• Mal funcionamiento de los sistemas. 
• Error humano. 
• Mal funcionamiento del software.
• Virus. 
• Desastres naturales.
¿Qué debemos exigir a una copia (backup)? 
Tener una mínima probabilidad de error. 
Hay que tener en cuenta 2 factores. Por un lado, la integridad de los datos guardados, ya que hacer una copia de seguridad de datos corruptos no sirve de nada. Y por otro lado utilizar soportes de almacenamiento en buen estado
Estar en un lugar seguro y bajo acceso autorizado 
Es conveniente que el soporte o soportes utilizados para la copia estén desconectados del sistema del cual se han sacado los datos e inmediatamente sean guardados en un lugar seguro. Cuando se habló de lugar seguro nos referimos a un lugar con acceso restringido y protegido de ciertos peligros como incendios o inundaciones. Rápida y eficiente recuperación de la información.
Una vez hecho un backup debemos estar seguros de que ante una posible necesidad de recuperar la información que almacena, se va a poder realizar en el menor tiempo posible y que después de la restauración tengamos todos los datos previstos
Diferentes tipos de copias de seguridad 
Copia de seguridad completa (full backup) 
Cuando haces una copia de seguridad completa todos los archivos y carpetas del sistema se copian. Tu sistema de copias de seguridad almacena una copia completa que es igual a la fuente de datos del día y hora en que se hace la copia de seguridad. Aunque el tiempo que se necesita para hacer esta copia de seguridad es mayor y requiere más espacio de almacenamiento, tiene la ventaja de que con una copia de seguridad completa la restauración es más rápida y simple. 
Copia de seguridad incremental (backup incremental) Cuando te decides por este tipo de copias de seguridad, la única copia completa es la primera. A partir de ahí, las copias de seguridad posteriores sólo almacenan los cambios realizados desde la copia de seguridad anterior. En este caso el proceso de restauración es más largo porque tienes que utilizar varias copias diferentes para restaurar completamente el sistema, pero en cambio el proceso de hacer la copia de seguridad es mucho más rápido. Además, ocupa menos espacio de almacenamiento. 
Copia de seguridad diferencial Igual que las incrementales, con una copia de seguridad diferencial, la primera copia de seguridad es la única completa. La diferencia con la incremental viene del hecho de que aquí cada copia de seguridad posterior tiene todos los cambios respecto a la primera copia completa, y no respecto a la copia de seguridad anterior, como era el caso de la incremental. Requiere más espacio de almacenamiento que las incrementales, pero con la ventajade que el tiempo de restauración es menor. 
Copia de seguridad en espejo Con una copia de seguridad en espejo estás haciendo una copia exacta de los datos originales. Se hace “en directo”, a la vez que trabajas con los datos reales, se hace una copia espejo en un disco alternativo. La ventaja de una copia en espejo es que la copia de seguridad no contiene archivos antiguos o en desuso. Pero esto también puede ser un problema ya que, si un archivo se elimina accidentalmente en el sistema original, el sistema espejo lo elimina también.
Controles de los sistemas de información 
Los controles de los sistemas de información pueden ser manuales y automatizados; consisten tanto de controles generales como de aplicación. Los controles generales gobiernan el diseño, la seguridad y el uso de los programas de computadora, además de la seguridad de los archivos de datos en general, a lo largo de toda la infraestructura de tecnología de la información de la organización. En conjunto, los controles generales se asignan a todas las aplicaciones computarizadas y consisten en una combinación de hardware, software y procedimientos manuales que crean un entorno de control en general.
Controles de aplicación 
Los controles de aplicación son controles específicos únicos para cada aplicación computarizada, como nómina o procesamiento de pedidos. Implican procedimientos tanto automatizados como manuales, los cuales aseguran que la aplicación procese de una forma completa y precisa sólo los datos autorizados. Los controles de aplicación se pueden clasificar como (1) controles de entrada, (2) controles de procesamiento y (3) controles de salida. 
Los controles de entrada verifican la precisión e integridad de los datos cuando éstos entran al sistema. Hay controles de entrada específicos para autorización de la entrada, conversión de datos, edición de datos y manejo de errores. Los controles de procesamiento establecen que los datos sean completos y precisos durante la actualización. Los controles de salida aseguran que los resultados del procesamiento de computadora sean precisos, completos y se distribuyan de manera apropiada
UNIDAD 7
Diseño
Objetivos de la etapa de diseño 
Esta etapa tiene por objetivo lograr un modelo que reinterprete los procesos para dar solución a los problemas. Una de las causas comunes de malas implementaciones de Sistemas ERP se debe, en gran medida, a que no se trató de obtener una solución de negocio, sino que simplemente se puso un sistema en marcha. Por ello es trascendental que el proceso de diseño sea totalmente coherente con las estrategias organizacionales. Por lo tanto, los objetivos de la etapa de diseño deben enmarcarse en los planes estratégicos de la organización y ser medidos y ponderados adecuadamente en un proceso de gestión global.
Para su mejor entendimiento, se divide la etapa de diseño en las subetapas de diseño estratégico y de diseño operativo
En la etapa de diseño estratégico, deberán desarrollarse las siguientes actividades: 
1. Selección de módulos a implementar (establecer los límites de cada iteración)
2. Seleccionar y contratar la consultoría 
3. Preparación del presupuesto de cada etapa. 
4. Designación del comité de dirección.
5. Planificación de la segunda etapa de diseño
Una vez designado el comité de dirección, comienza la etapa de diseño operativo, en la que se desarrollarán las siguientes actividades:
1. Designar el equipo de diseño. 
2. Definir y gestionar los requerimientos de tecnología e instalaciones para la etapa de diseño. 
3. Capacitar al equipo de diseño. 
4. Reinterpretar el proceso. 
5. Diseñar las interfaces necesarias. 
6. Diseñar las necesidades adicionales de información. 
7. Preparar un piloto (modelo de prueba en computadora de baja escala).
1-Selección de módulos a implementar 
La tarea que debe realizarse para implantar un Sistemas ERP en la organización es muy grande. Los Sistemas ERP se implementan por módulos, con excepción que se trate de una organización nueva. El motivo que se implemente por módulos es que la organización debe continuar su actividad normalmente mientras se implementa el nuevo sistema. Sería caótico e incontrolable implementar todos los módulos del sistema simultáneamente. Por lo tanto, una de las primeras actividades que debe realizarse es decidir cuál será el orden de implementación de los módulos.
2-Selección y contratación de la consultora
La complejidad y variedad de alternativas que permiten los Sistemas ERP exigen la contratación de personal altamente especializado en ellos.
Los aspectos a tener en cuenta en la contratación de la consultoría son los siguientes: 
➢ Que la consultora tenga cobertura suficiente en todas las ubicaciones geográficas en que se la requiera. 
➢ La consultora, como empresa (no solo el consultor), debe tener experiencia en el software a implementar. El consultor es la cara visible que debe tener un equipo que apoye su trabajo cuando el proyecto lo requiera. Esto es importante, ya que puede presentarse la necesidad de ampliar el proyecto o de subdividirlo en equipos, en cuyo caso será necesario el apoyo de más consultores capacitados. 
➢ Los contratos deben ser muy claros en cuanto a las horas-hombre contratadas, las que deben estar abiertas por la categoría y la especialidad del consultor. Hay que especificar cómo se cotizarán las horas adicionales en caso de tener que ampliar el proyecto.
➢ Si los consultores tienen que viajar largas distancias, deberá especificarse la modalidad de contratación de los transportes, los alojamientos y los viáticos. Cuando estos puntos no están bien aclarados, siempre se termina discutiendo cosas como: la categoría del hotel, si son habitaciones separadas o no, si en el avión se viaja en turista, business o primera, etcétera. Esto desgasta inútilmente la relación.
3-Preparación del presupuesto de cada etapa 
Para la confección del presupuesto, se debe trabajar codo a codo con los proveedores del sistema y de la consultoría. Es una tarea que demandará considerable esfuerzo. Entre muchos otros datos, habrá que estimar: 
➢ Funcionalidades del sistema a ser utilizadas. 
➢ Cantidad de usuarios totales por función. 
➢ Cantidad de usuarios concurrentes por función (máximo y promedio). 
➢ Cantidad de operaciones por función (órdenes de compras, facturas, devoluciones, etcétera.). 
➢ Picos de operaciones por función. 
➢ Volúmenes de datos (cantidad de productos, materias primas, proveedores, clientes, etcétera.)
No hay que olvidarse de presupuestar las posibles necesidades de programación de cada interfaz, reportes y conversión de datos. 
4-Designación del comité de dirección 
El comité de dirección es el nexo entre la alta dirección de la empresa y el proceso de implementación del Sistema ERP. El comité debe posicionar el proyecto entre los objetivos del negocio y, a su vez, transmitir al equipo de diseño la visión de la dirección sobre la marcha del proyecto. Estará a cargo del control presupuestario y de la verificación del cumplimiento de los objetivos. El comité de dirección deberá designar al gerente de proyectos, quien tendrá que rendir cuenta de sus actos ante este cuerpo. Este comité, junto al gerente de proyectos, nombrará a los integrantes del equipo de diseño.
Este comité estará integrado por: 
➢ Gerentes responsables de las áreas involucradas en el proceso que será implementado. 
➢ El gerente de proyectos (gerente de procesos). 
➢ El gerente de sistemas. 
➢ El consultor especializado (por invitación). 
➢ Los usuarios clave (por invitación). 
➢ El coach
5-Actividades de la etapa de diseño operativo
Las actividades generales de la etapa de diseño (operativo) son: 
1-Designación del equipo de diseño
 La designación del equipo de diseño será responsabilidad del comité de dirección. La cantidad de gente involucrada en el equipo dependerá del alcance del proyecto y de la carga de novedad que signifique. Cuanto mayor es la novedad, más difícil será su implementación y más gente se necesitará. En forma general, la composición del equipo de diseño sería lasiguiente: 
➢ Gerente de proyectos. 
➢ Representante de sistemas. 
➢ Usuarios clave. 
➢ Consultores
2-Definir y gestionar los requerimientos de tecnología informática e instalaciones físicas
En función de la magnitud del proyecto, se requerirá: 
➢ Espacio físico para que trabaje el equipo de diseño. 
➢ Hardware y software necesario para las tareas de confección del piloto. 
➢ Considerar herramientas de office y de gestión de proyectos. 
➢ Las grandes empresas de Sistemas ERP ofrecen productos para diseñar la solución y para facilitar la construcción del piloto. Estas últimas requieren de un gran conocimiento sobre cómo utilizarlas, y muchas veces significan una complicación adicional, más que una herramienta efectiva.
3-Capacitar al equipo de diseño
 En este punto, la capacitación debe estar orientada en dos sentidos: uno de ellos es técnico y el otro es funcional. La capacitación técnica debe orientarse a enseñar la tecnología subyacente del Sistema ERP. Los destinatarios de este curso son los usuarios del área de IT, quienes deberán aprender, entre otras cosas, las siguientes tareas: 
➢ Instalar el sistema y los nuevos releases o patches. 
➢ Administrar la base de datos. 
➢ Resguardar los datos. 
➢ Administrar la seguridad. La capacitación funcional se realiza para que todos los miembros del equipo de diseño obtengan el conocimiento de las funciones del sistema.
4-Reinterpretar el proceso 
El proceso de diseño implica muchos días de trabajo; todo lo que se habla debe quedar documentado, incluso hay que guardar todos los papeles de trabajo que se usen para no volver una y otra vez sobre lo mismo. Conociendo bien la nueva herramienta y los procesos de la organización, la tarea se simplifica notablemente. En esta etapa no hay método que pueda establecerse. Esta etapa es, fundamentalmente, un proceso creativo donde la experiencia de los consultores es fundamental.
5-Diseñar cada interfaz
La confiabilidad de las interfaces es un factor crítico para que el sistema tenga buena aceptación en la organización. Se manejan dos variantes técnicas: Una interfaz suele fracasar por múltiples causas. Se enumerarán algunas de ellas: 
➢ Se ejecutó la exportación o la importación en el momento incorrecto. 
➢ Se perdió el archivo de intermediación. 
➢ Fracasó el traspaso del archivo de intermediación. 
➢ Se importó varias veces el mismo archivo. 
➢ En la importación, se rechazaron transacciones y no se levantaron los rechazos. 
➢ Hubo modificaciones no contempladas en alguno de los dos sistemas. La lista antecedente es la razón por la que, en todo proyecto de implementación de Sistemas ERP, es necesario minimizar la necesidad de interfaces a lo estrictamente imprescindible. 
Para mitigar los riesgos de una interfaz, es muy aconsejable utilizar los productos denominados Enterprise application integration (EAI) que son específicos para manejar las interfaces. Permiten que estas se desenvuelvan dentro de un ambiente controlado por software.
6-Diseñar las necesidades adicionales de información
 En general, la base de datos de los Sistemas ERP contiene la información requerida, pero la expone de forma inadecuada para el diseño informático elaborado. Estos requerimientos de información adicional pueden agruparse de la siguiente manera: 
➢ Los que necesitarán especialistas en programación para su confección. 
➢ Los que el usuario podrá desarrollar con herramientas de software de usuario final, como planillas de cálculos. 
Las herramientas de usuario final requieren de cierto conocimiento para su utilización, que no siempre forma parte del bagaje de conocimientos con los que cuentan los usuarios. Por lo tanto, dentro de los proyectos de implementación de Sistemas ERP, es conveniente capacitar al usuario en el uso de software de usuario final. 
Cuando la información no resulte de fácil obtención mediante las herramientas de usuario final, será preferible invertir más dinero en programación antes que desperdiciar tiempo de usuarios sin garantías de buenos resultados. La prueba del piloto debe incluir la aprobación del diseño de los reportes adicionales. Siempre hay que tener presente que con tener los datos en el sistema no alcanza; lo importante es que el usuario los pueda utilizar adecuadamente en el proceso. 
Estrategia para la puesta en marcha
Una vez aprobado el piloto, tiene que planificarse cómo se pondrá en marcha el sistema. Se deberá dar respuesta a las siguientes preguntas: 
➢ ¿En qué momento? 
➢ ¿En qué lugar? 
➢ ¿Se mantendrá un paralelo?
¿En qué momento?
Las premisas al seleccionar el momento deben ser: 
➢ Minimizar las necesidades de conversión de datos. Por ejemplo: si se decide implementar las funcionalidades contables a mitad de mes, es seguro que se necesitará migrar todos los asientos contables ingresados hasta el momento del start-up, más todos los saldos de las cuentas para que en el nuevo sistema se puedan emitir los informes de gestión, los reportes legales y, además, se pueda ejecutar el cierre del mes. Si el arranque se hiciera a principios de mes, es posible que, traspasando únicamente los saldos, fuera suficiente. 
➢ Elegir un momento de baja actividad. Como los usuarios deberán realizar un gran esfuerzo para adquirir las nuevas formas de trabajo, lo ideal es hacerlo cuando ellos dispongan de tiempo libre. Por ejemplo: si se trata de una empresa de temporada, como una agencia de turismo, lo ideal sería realizar los cambios en temporada baja.
➢ Evitar los períodos de vacaciones. Es posible que el período de vacaciones sea coincidente con la temporada baja. Pero, en lo posible, no hay que cambiar el período a causas del nuevo sistema. Postergar las vacaciones puede generar un malestar innecesario.
¿En qué lugar? 
Se debe comenzar siempre por el lugar que menos dificultad presente. Hay que considerar tanto las dificultades funcionales como las culturales. Este criterio de selección apunta a darles a los implementadores mayor tiempo para adquirir experiencia y efectuar los ajustes con mayor tranquilidad. 
¿Se mantendrá un paralelo?
Se habla de implementación en paralelo cuando se mantiene en uso el viejo sistema y, simultáneamente, se realizan las operaciones en el nuevo. Es decir que se redunda el trabajo. El objetivo del paralelo es disminuir los riesgos de problemas, dando al sistema un período de prueba real. En general, resulta muy difícil realizar el trabajo en dos sistemas simultáneamente; implica un gran desgaste y un malestar generalizado que poco contribuyen a una buena implementación. Por lo tanto, siempre que se pueda, se debe tratar de evitar un paralelo. 
Migración de datos: 
conversión y traspaso 
La conversión de datos es la transformación simbólica de los datos del viejo sistema en la simbología del nuevo sistema. Por ejemplo: cambiar la codificación de los productos, la codificación de las cuentas contables, las unidades de medidas de las materias primas, etcétera. El traspaso es el traslado de los datos del sistema viejo al nuevo. El objetivo de ambas funciones es ayudar a cargar los datos al nuevo sistema mediante la utilización de programas especialmente preparados. La conversión y el traspaso de datos suelen efectuarse en el mismo proceso al que se denomina migración de datos. 
La capacitación 
La capacitación a la que aquí se hace referencia tiene como objetivo enseñar a los usuarios el Sistema ERP, ya adecuado a la solución de negocio definida (nuevo diseño). Cuando se toca el tema de capacitación para la implantación de un sistema, se debe considerar que la capacitación consta de dos etapas: la primera es previa al start-up y la segunda se desarrolla a partir del start-up y ocupa las primeras semanas de operación del sistema. La realizan los usuarios claves trabajando codo a codo con sus compañeros de trabajo.
El seguimiento
El seguimiento es una etapa que abarca desde la finalización de la puesta en marcha del sistema hasta que un nuevo ciclo de gestión de los Sistemas ERP da comienzo. La finalización de la etapa de puesta en marcha es un tanto difusa, ya que implica unjuicio valorativo. Cuando el usuario ha adquirido el hábito del manejo del sistema y se encuentra en un estadio de aceptación del cambio, puede decirse que la puesta en marcha ha concluido. La finalización de esta etapa significa que el cambio está instalado y no tiene posibilidad de regreso. La etapa de seguimiento finaliza cuando las necesidades de cambio son tan importantes que se requiere el inicio de un nuevo proceso de diseño. Los disparadores de un nuevo proceso de diseño pueden ser: la aparición de una nueva versión del sistema, cambios en el contexto que implican grandes movimientos internos, cambios organizativos, una nueva ubicación geográfica, la adquisición de otra compañía, la implementación de otros procesos o módulos, etcétera. 
Las actividades de esta etapa son: 
➢ Verificar el grado de cumplimiento de los objetivos definidos en el diseño y analizar el resultado de los indicadores. 
➢ Controlar que los elementos tecnológicos funcionen adecuadamente. 
➢ Comprobar que las interfaces funcionen adecuadamente. 
➢ Ejercer un buen control sobre los datos. 
➢ Efectuar ajustes al sistema para su adaptación a los cambios. 
➢ Recopilar información sobre problemas no resueltos o nuevos. 
➢ Benchmarking. 
➢ Contacto permanente con los proveedores del software
Customer Relationship Management CRM
El desarrollo de las telecomunicaciones, y en particular Internet, ha facilitado la comunicación entre las personas, ha reducido el tiempo y la distancia a casi un valor de cero; las expectativas de los consumidores se han elevado a su más alta expresión y el balance del poder se ha inclinado desde el proveedor hacia el consumidor (cliente). De esta manera, es ahora el cliente quien decide a quién, dónde, cuándo y qué compra y, al disponer de más información, incluso a qué precio. Es evidente que la única manera de sobrevivir en el mercado y mantener una ventaja competitiva es establecer y mantener unas relaciones de alto nivel de calidad con los clientes. Por lo tanto, la decisión de lanzar una estrategia de CRM (Customer Relationship Management) para mejorar las relaciones con el cliente se ha vuelto parte integral y obligada de cualquier estrategia corporativa.
El CRM te permite almacenar toda la información obtenida de nuestros clientes y realizar un seguimiento. Sus principales funciones son: 
▪ Gestión de ventas 
▪ Gestión de ingresos
▪ Análisis de campañas de marketing
▪ Comunicación interna
▪ Gestión y resolución de reclamaciones, consultas… 
▪ Presupuesto y facturación
CRM es una estrategia de negocios (no es solo un programa de software) para seleccionar y manejar individualmente a los clientes, a efectos de optimizar su valor para la compañía en el largo plazo, y debe involucrar unos principios básicos: 
•Alinear la estrategia corporativa alrededor de los clientes (en lugar de los productos y los canales de distribución). 
•El intercambio dinámico de la información de los clientes en todos los niveles de la empresa, centralizada y administrada de manera consistente y actual. 
•Analizar la información obtenida para entender, anticipar y satisfacer las necesidades del cliente, más allá de su propia iniciativa, con el fin de generar fidelidad. 
CRM es más que solo software, CRM es un modelo de gestión que pone al cliente en el centro de los procesos y prácticas de la compañía. El concepto CRM se basa en el uso de las más avanzadas herramientas de la tecnología de información, porque integra las técnicas y herramientas de marketing más avanzadas, con el fin de construir relaciones internas y externas que incrementen los márgenes de rentabilidad de cada cliente y, de esta manera, valorar la relación que se establece con ese cliente en el largo plazo, para incrementar la rentabilidad y competitividad de una compañía.
Los pilares de CRM
Existe un acuerdo general entre los analistas de la industria sobre los principales pilares sobre los que se maneja un proyecto de CRM: son las Ventas, el Marketing y el Servicio. 
El área de servicios
es probablemente la más crucial cuando se habla de las relaciones con los clientes. La habilidad con que se presta el servicio al cliente de una compañía es la clave principal para manejar la fidelidad de ese cliente. Este servicio debe ir más allá de un Call Center, por lo que debe evolucionar hacia centros de contacto e interacción, con una estrategia enfocada al manejo del canal de comunicación con el cliente. La interacción telefónica se debe coordinar con el correo directo, correo electrónico, fax, Internet y cualquier otro medio de comunicación que el cliente prefiera o le sea más cómodo de usar. 
En el área de ventas, las innovaciones tecnológicas para la automatización de la fuerza de ventas, utilizando Internet como red de comunicación global y de fácil uso, son las de mayor crecimiento. La interacción de la fuerza de ventas con los posibles clientes para convertirlos, finalmente, en cliente y después mantener con él una relación de fidelidad es el secreto para el éxito en los negocios. 
En el campo del Marketing, la automatización busca capturar y manejar cambios y tendencias, manejar campañas y mejorar la coordinación del telemarketing. Hoy en día se sigue haciendo un telemarketing masivo para generar los primeros contactos y, sobre estos, realizar una primera segmentación que permita continuar el contacto de una manera más específica hacia el objetivo escogido. La personalización se está volviendo una norma de interacción, basado principalmente en las preferencias y hábitos de consumo ya conocidos. Las actividades de marketing continúan evolucionando y han incluido Internet y el uso del correo electrónico. Para obtener el máximo valor posible, el seguimiento de las campañas se debe hacer con la colaboración de la fuerza de ventas para identificar las tendencias y evaluar su éxito o fracaso.
Características de una herramienta CRM
El objetivo de la filosofía CRM es individualizar la relación con el cliente tanto como sea posible y adaptarse a las necesidades y gustos de cada uno. Esto es lo que se conoce como marketing O2O (One to One). Esta nueva filosofía empresarial se basa en cuatro principios básicos:
•Multicanalidad: hace referencia a la capacidad de comunicarse con el cliente a través de múltiples canales (presencial, portal web, portal vocal, etc.) y que sea el propio cliente el que escoja la opción que prefiera.
•Fidelización: recordemos que el coste de un nuevo cliente es mucho mayor que el de mantener uno ya existente. Conviene realizar a menudo programas de fidelización. Un ejemplo son los programas de puntos en los que los clientes van acumulando puntos por la compra de cada producto y servicio que luego podrán canjear por un descuento o similar. 
•Intercambio de información con los clientes: la herramienta debe ser capaz de recoger toda la información que el cliente genere en cada compra y debe permitir especificar qué información se le desee hacer llegar. 
•Autoservicio: proveer mecanismos que permitan que el cliente se atienda a sí mismo. Un ejemplo, sería un portal de voz para la consulta de información relacionada con un determinado producto o servicio
Principales razones para implantar una solución CRM 
 Incrementar el nivel de satisfacción de los clientes 
 Retener a los clientes actuales 
 Ampliar los ciclos de venta 
 Proveer de información estratégica a la empresa 
 Atraer nuevos clientes 
 Ahorrar costes
Business Intelligent (BI) 
Si hay algo peor que no tener información es tenerla y no saber qué hacer con ella. Los BI dan una solución a este problema con herramientas que permiten explotar los datos y tomar decisiones dentro de un marco de mayor certidumbre. Estas herramientas no son nuevas; vienen de los años 80. Pero hoy se han integrado y complementado unas con otras dentro de un set al que se denomina BI. Por ejemplo: una cadena de supermercados que pueda registrar a sus clientes y obtener datos sobre todas sus compras podrá luego, con herramientas de BI, obtener información sobre cuáles son los hábitos de compra de sus clientes;saber a qué hora concurren al supermercado, cuántos días a la semana, qué tipo de productos consumen, si compran siempre la misma marca o cambian de marca, si compran los productos más baratos o los más caros, etc. Obviamente, los BI no podrán obtener buenos resultados si los sistemas transaccionales no cuentan con la información necesaria y desagregada adecuadamente.
Los sistemas BI están integrados por las siguientes herramientas: 
1-Bases de Datos Multidimensionales 
Esta herramienta tiene por finalidad poder explotar los mismos datos desde múltiples dimensiones con un manejador gráfico y una parametrización sencilla y flexible. Con las herramientas multidimensionales es posible construir estos cubos y rotarlos con gran facilidad para obtener distintas visiones de la misma información, tales como: total de ventas por productos-sucursales, ventas por clientes-productos, ventas por clientes-sucursales
2-Agentes
 Los agentes son programas que residen en los sistemas, que trabajan con autonomía y que son capaces de adaptarse según las necesidades. Los robots de búsqueda de páginas web en Internet son un ejemplo de agentes. Estos agentes pueden elaborar tareas en función de los datos obtenidos en los sistemas transaccionales y adaptarse, según un conjunto de reglas, a los cambios que en ellos se produzcan. 
3-Data Warehouse 
Se trata de un repositorio de fuentes heterogéneas de datos, integrados y organizados bajo un esquema unificado para facilitar su análisis y dar soporte a la toma de decisiones.
El data warehouse es una base de datos en la que residen los datos transaccionales de los Sistemas ERP, pero con una visión distinta. Los Sistemas ERP manejan sus bases de datos con la preocupación puesta en las necesidades operacionales de la organización. Por ejemplo: los datos se aglutinan en función de la orden de compra, de la factura, de la orden de producción, etc. En el Data Warehouse la información se centra en clientes, productos, proveedores, vendedores, etc. Es decir que están orientados en función temática con destino a la toma de decisiones. Además, se construyen con un criterio de selectividad y significatividad. En el data warehouse, los datos tienen una mayor necesidad de temporalizarse para identificar tendencias y efectuar proyecciones. De modo que la variable tiempo es uno de los componentes organizativos y de nucleamiento de estas bases de datos.
4-Data Mining
 Son productos que tienen por objetivo identificar tendencias y comportamientos de los numerosos datos que contienen los sistemas transaccionales. Además, pueden descubrir relaciones entre datos que, sería imposible hallar. Las técnicas más comunes de los Data Mining son las redes neuronales, los árboles de decisión, los algoritmos genéticos, el método del vecino más cercano y el uso de reglas de inducción.
Minería de datos 
En muchas situaciones, el método tradicional de convertir los datos en conocimiento consiste en un análisis e interpretación realizada de forma manual. Por ejemplo, un grupo de médicos puede analizar la evolución de enfermedades infectocontagiosas entre la población para determinar el rango de edad más frecuente de las personas afectadas. Este conocimiento, validado convenientemente, puede ser usado en este caso por la autoridad sanitaria competente para establecer políticas de vacunaciones. Esta forma de actuar es lenta, cara y altamente subjetiva. Consecuentemente, muchas decisiones importantes se realizan, no sobre la base de la gran cantidad de datos disponibles, sino siguiendo la propia intuición del usuario al no disponer de las herramientas necesarias. Este es el principal cometido de la minería de datos: resolver problemas analizando los datos. La minería de datos es una técnica que permite obtener conocimiento en bases de datos, mediante un proceso de extracción no trivial de información implícita, previamente desconocida y potencialmente útil.
La minería de datos es necesaria porque: 
• Las herramientas de captura automática de datos y las tecnologías maduras de base de datos permiten que grandes cantidades de datos sean almacenados. 
• Los sistemas de captura de datos son usados intensamente y no existe tiempo para analizar los datos de otra forma.
Tipos de modelos de minería de datos
Los modelos predictivos pretenden estimar valores futuros o desconocidos de variables de interés, que denominamos variables objetivo o dependientes usando otras variables o campos de la base de datos, a las que nos referiremos como variables independientes o predictivas. Por ejemplo, aquel que permite estimar la demanda de un nuevo producto en función del gasto en publicidad. Los modelos descriptivos, explican o resumen los datos, sirven para explorar las propiedades de los datos examinados, no para predecir nuevos datos. Por ejemplo, una agencia de viaje desea identificar grupos de personas con unos mismos gustos, con el objeto de organizar diferentes ofertas para cada grupo y poder así remitirles esta información; para ello analiza los viajes que han realizado sus clientes e infiere un modelo descriptivo que caracteriza estos grupos. Algunas tareas de minería de datos que producen modelos predictivos son la clasificación y la regresión, y las que dan lugar a modelos descriptivos son el agrupamiento, las reglas de asociación el análisis correlacional.
Knowledge Discovery in Databases, KDD
El proceso no trivial de identificar patrones válidos, novedosos, potencialmente útiles y, en última instancia, comprensibles a partir de los datos. Válido: hace referencia a que los patrones deben seguir siendo precisos para datos nuevos y no sólo para aquellos que han sido usados en su obtención. Novedoso: que aporte algo desconocido tanto para el sistema y preferiblemente para el usuario. Potencialmente útil: la información debe conducir a acciones que reporten algún tipo de beneficio para el usuario. Comprensible: la extracción de patronos no comprensibles dificulta o imposibilita su interpretación, revisión, validación y uso en la toma de decisiones.
Etapas del KDD
Es interactivo porque el usuario, o más generalmente, un experto en el dominio del problema, ayudar en la preparación de los datos, validación del conocimiento extraído, etc.
a) Recopilación. Desde diversas fuentes: BD, datamarts, texto, imágenes, video, sonido, etc. Uso de almacenes de datos multidimensionales organizados y estructurados. 
b) Selección de Datos. Selección de atributos relevantes. Selección de muestras. 
c) Limpieza. Mejora de la calidad de los datos, eliminación de atributos irrelevantes o eliminación de datos extremos, tratamiento de datos faltantes. 
d) Minería de Datos. Generación de modelos desde lo datos recopilados y seleccionados. Uso de varios modelos. 
e) Interpretación y evaluación
Modelos de la minería de datos
Modelos predictivos
Clasificación: La clasificación es quizá la tarea más utilizada. En ella, cada instancia pertenece a una clase, la cual se indica mediante el valor de un atributo que llamamos la clase de la instancia. Este atributo puede tomar diferentes valores discretos cada uno de los cuales corresponde a una clase. El resto de los atributos de la instancia (los relevantes a la clase) se utilizan para predecir la clase. El objetivo es predecir la clase de nuevas instancias. Más concretamente, el objetivo del algoritmo es maximizar la razón de precisión de la clasificación de las nuevas instancias, la cual se calcula como el cociente entre las predicciones correctas y el número total de predicciones correctas e incorrectas. Ejemplo: Consideremos un oftalmólogo que desea disponer de un sistema que le sirva para determinar la conveniencia o no de recomendar la cirugía ocular a sus pacientes. 
Regresión: Intenta determinar la función que mapea un conjunto de variables de entrada X (independiente), en una (o más) variables de salida Y (dependiente).
Ejemplo: Un empresario quiere conocer cuál es el costo de un nuevo contrato basándose en los datos correspondientes a contratos anteriores. Para ello usa una fórmula de regresiónlineal, ajustando con los datos pasados la función lineal y usándola para predecir el costo en el futuro. Agrupamiento: Es la tarea descriptiva por excelencia y consiste en obtener grupos naturales a partir de los datos. Hablamos de grupos y no de clases porque a diferencia de la clasificación, en lugar de analizar datos etiquetados con una clase, los analiza para genera estas etiquetas. Los datos son agrupados basándose en el principio de maximizar la similitud entre los elementos de un grupo minimizando la similitud entre los distintos grupos. Ejemplo: Una librería que ofrece sus servicios a través de la red usa el agrupamiento para Identificar grupos de clientes en base a sus preferencias de compras que le permita dar un servicio más personalizado. Así, cada vez que un cliente se interesa por un libro, el sistema identifica a qué grupo pertenece y le recomienda otros libros comprados por clientes de su mismo grupo.
Correlación: Es una tarea descriptiva que se usa para examinar el grado de similitud de los valores de dos variables numéricas. Con el análisis de un coeficiente de correlación se puede inferir si dos variables están altamente correlacionadas o no. Ejemplo: Un inspector de incendios que desea obtener información útil para su prevención probablemente esté interesado en conocer correlaciones entre empleo de distintos grosores de protección del material eléctrico y la frecuencia de ocurrencia de incendios
Asociación: Es una tarea descriptiva muy similares a las correlaciones, que tiene como objetivo identificar relaciones no explícitas entre atributos. La diferencia con la correlación es que no hay una causa efecto entre las variables. Ejemplo: Una compañía de asistencia sanitaria desea analizar las peticiones de servicios médicos solicitados por sus asegurados. Cada petición contiene información sobre pruebas médicas que fueron realizadas al paciente durante una visita. Toda esta información se almacena en una base de datos en la que cada petición es un registro cuyos atributos expresan si se realiza o no cada una de las posibles pruebas médicas que pueden ser realizadas a un paciente. Mediante reglas de asociación, un sistema encontraría aquellas pruebas médicas que frecuentemente se realizan juntas, por ejemplo: que un 70 por ciento de las veces que se pide un análisis de orina también se solicita uno de sangre, y esto ocurre en dos de cada diez pacientes. La precisión de esta regla es del 70 por ciento y el soporte del 20 por ciento.
UNIDAD 8
Internet 
En 1973, la Agencia de Proyectos de Investigación Avanzada de Defensa de EE. UU. (DARPA), investiga sobre técnicas de envío de paquetes de datos de una computadora a otra a través de múltiples redes. Este proyecto de investigación de denominó Internet. 1980: En este año se publica el protocolo TCP/IP que fue el resultado de la investigación del proyecto Internet. En 1986, la Fundación Nacional de Ciencias de los EE. UU. (NSF) inició el desarrollo de NSFNET (bajo el protocolo TCP/IP) proporcionó un importante servicio de comunicación troncal para Internet. El primer objetivo de NSFNET fue conectar las universidades y centro de investigación de los EE.UU. Internet no está dirigida por un gobierno como si de un país se tratara. Desde los inicios existieron una serie de grupos liderados meritocráticamente que han crecido o desaparecido en función de las necesidades de cada etapa. El control de los recursos centrales de la red es algo que está en constante evolución. El espíritu con el que han sido desarrollados los diferentes elementos de la familia de protocolos TCP-IP, ha sido desde siempre altamente abierto y cooperativo. La filosofía que conlleva inherentemente asociada Internet es la de compartir y ofrecer el acceso de forma libre y gratuita a los documentos y especificaciones técnicas. Así como la posibilidad de participación de todo aquel que esté interesado y trabaje por la causa común. 
Instituciones que participan del ecosistema de Internet 
El ecosistema de Internet es un tramado de organizaciones (en su mayoría no gubernamentales y sin fines de lucro) vinculadas entre sí de difícil comprensión si no se está dentro de ellas. A continuación, se hará una breve síntesis de las más importantes: ISOC, IAB, IETF e IANA. 
ISOC: Internet Society - es una organización global unida por una causa común y regida por una variada junta de fideicomisarios dedicada a asegurar que Internet siga siendo abierta y transparente. Se encarga de: 
• Desarrollo de estándares. 
• Organizar eventos y oportunidades que reúnen a las personas para compartir información y opiniones 
• Promueve la innovación en conectividad 
IAB: Internet Architecture Board – Supervisión y aprobación de normas. 
IETF: Internet Engineering Task Force – Especificación de estándares técnicos. 
ICANN: Corporación de Internet para la Asignación de Nombres y Números – ICANN es una organización que opera a nivel multinacional/internacional y es la responsable de asignar las direcciones del protocolo IP, de los identificadores de protocolo y de las funciones de gestión del sistema de dominio
Internet, red de redes 
Internet consiste en miles de redes de computadoras interconectadas por medio de ruteadores. Cada computadora se conecta con una de las redes individuales. Cuando una computadora dentro de una red se comunica con otra computadora dentro de otra red, envía paquetes a través de un ruteador. 
Dominios 
Cada computadora en la red pública de Internet tiene una dirección numérica única (similar a la exclusividad de los números de teléfono) que consiste en una cadena de números que a la mayoría de las personas les resulta difícil recordar. Esta cadena se denomina “dirección IP”.
Para facilitar la búsqueda de una ubicación determinada en Internet, se creó el Sistema de nombres de dominio o DNS. El DNS (es un software que utilizan los prestadores de servicios de Internet) traduce el nombre de dominio a una dirección IP. El nombre de dominio es una dirección alfanumérica única, que es más fácil de recordar que una dirección IP numérica. Si, por ejemplo, desea visitar el sitio web de AFA (Asociación del Futbol Argentino), ¿preferiría recordar la dirección IP 192.0.34.163 o ingresar “www.afa.org.ar”? Al asociar una cadena de letras conocida (el nombre de dominio) con una dirección IP, el DNS hace que sea mucho más fácil para el usuario de Internet recordar sitios web y direcciones de correo electrónico. En el ejemplo anterior, la sección “afa.org.ar” de la dirección es el nombre de dominio. Si utilizamos una analogía con el sistema telefónico, al marcar un número, suena el teléfono en una ubicación en particular porque hay un plan de numeración central que garantiza que cada número de teléfono sea único. El DNS funciona de manera similar. Tanto el nombre de dominio como la dirección IP detrás de este son únicos. El DNS permite que su correo electrónico llegue al destinatario deseado (nombre2019@afa.org.ar, por ejemplo) y no a otra persona con un nombre de dominio similar. También le permite ingresar “www.afa.or.ar”, sin tener que escribir una extensa dirección IP para llegar al sitio web correcto. El nombre de dominio puede permanecer intacto aun cuando el sitio web se traslade a otro equipo o servidor porque se puede indicar al DNS que vincule un nombre de dominio existente a una nueva dirección IP.
Un nombre de dominio usualmente consiste en dos o más partes (técnicamente «etiquetas»), separadas por puntos. Por ejemplo, www.afa.org.ar. 
• A la etiqueta ubicada más a la derecha se le llama dominio de nivel superior. Como ar. En el ejemplo. 
• Cada etiqueta a la izquierda especifica una subdivisión o subdominio. En teoría, esta subdivisión puede tener hasta 127 niveles, y cada etiqueta puede contener hasta 63 caracteres, pero restringidos a que la longitud total del nombre del dominio no exceda los 255 caracteres, aunque en la práctica los dominios son casi siempre mucho más cortos. 
• Finalmente, la parte más a la izquierda del dominio suele expresar el nombre de la máquina. El hostnameno es una máquina física en particular, es un nombre que se le asigna a una maquina en un momento determinado.
La terminación de esta dirección se denomina dominio de nivel superior (top-level domain TLD). Los country code Top Level Domains (ccTLD), en español dominio de nivel superior de código de país, hacen referencia a un país o región específica (por ejemplo .es para España o .eu para la Unión Europea), por lo que también se conocen como dominios geográficos.Los primeros de esta especie, establecidos en la década de los 80´ nos pueden resultar familiares: “.com”, “.org”, “.net”, “.edu”, “.mil” y “.gov”. Cada uno tiene un propósito distinto - “.com” para negocios, “.org” para organizaciones, “.edu” para instituciones educativas y “.gov” para gobiernos, etc. Conocer cuál es el propósito de cada uno es importante a la hora de elegir el nombre de dominio para nuestra organización. Pero los nombres de dominio no terminan ahí y tenemos que saber que cada vez veremos más. En 2015, la Corporación de Internet para la Asignación de Nombres y Número (ICANN) estableció el “Nuevo Programa de gTLDs”. Esta política permite que pueda requerirse el establecimiento de TLDs más específicos, como nombres de marcas (“.coke”), ciudades (“.paris”) y prácticamente cualquier otra cosa (“.music”, “.law”, .”pizza”).
Un URL ó Uniform Resource Locator (Localizador Uniforme de Recurso) es un medio estándar de identificar direcciones internet en la Web. 
Tiene dos partes, separadas por dos puntos: 
• Tipo de protocolo: Indica el servicio de internet que se desea usar. 
• Dominio 
• Directorio o archivo: Al acceder a un dominio podemos, opcionalmente, indicar un archivo o un directorio y de ser necesario el camino de cómo llegar a él.
DNS 
Los usuarios generalmente no se comunican directamente con el servidor DNS: la resolución de nombres se hace de forma transparente por las aplicaciones del cliente (por ejemplo, navegadores, clientes de correo y otras aplicaciones que usan Internet). Al realizar una petición que requiere una búsqueda de DNS, la petición se envía al servidor DNS local del sistema operativo. El sistema operativo, antes de establecer alguna comunicación, comprueba si la respuesta se encuentra en la memoria caché. En el caso de que no se encuentre, la petición se enviará a uno o más servidores DNS,8 el usuario puede utilizar los servidores propios de su ISP, puede usar un servicio gratuito de resolución de dominios o contratar un servicio avanzado de pago que por lo general son servicios contratados por empresas por su rapidez y la seguridad que estos ofrecen
En informática, la World Wide Web (WWW) o red informática mundial es un sistema de distribución de documentos de hipertexto o hipermedia interconectados y accesibles a través de Internet. Con un navegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener textos, imágenes, vídeos u otros contenidos multimedia, y navega a través de esas páginas usando hiperenlaces. 
Página Web
Una página web, o página electrónica, página digital, o ciberpágina es un documento o información electrónica capaz de contener texto, sonido, vídeo, programas, enlaces, imágenes y muchas otras cosas, adaptada para la llamada World Wide Web (WWW) y que puede ser accedida mediante un navegador web. Esta información se encuentra generalmente en lenguaje HTML, y puede proporcionar acceso a otras páginas web mediante enlaces de hipertexto. Frecuentemente también incluyen otros recursos como pueden ser hojas de estilo en cascada, guiones (scripts), imágenes digitales, entre otros. Las páginas web pueden estar almacenadas en un equipo local o en un servidor web remoto. El servidor web puede restringir el acceso únicamente a redes privadas, por ejemplo, en una intranet corporativa, o puede publicar las páginas en la World Wide Web. El acceso a las páginas web es realizado mediante una transferencia desde servidores, utilizando el protocolo de transferencia de hipertexto (HTTP).
Páginas estáticas versus páginas dinámicas
 En el caso de las páginas estáticas, al acceder el usuario, el servidor descarga simplemente un simple archivo con un contenido codificado en HTML que se visualiza a continuación en su navegador. Un proceso muy similar a la descarga de cualquier fichero, por ejemplo: un documento PDF. El principal problema de estas páginas es que no permiten la interacción con el usuario, es equivalente a una colección de documentos invariables, como un libro, en la web. Las páginas dinámicas que se generan al momento de la visualización. No son un simple documento HTML, sino que son creadas en algún lenguaje interpretado. El ejemplo más popular es PHP que es el lenguaje en el que están programadas aplicaciones muy populares como WordPress o MediaWiki. Aquí la web interactúa con el usuario y es necesario que componga las páginas de manera dinámica. Por ejemplo: cuando un usuario busca determinados productos, la aplicación realiza una consulta a su base de datos, obtiene los resultados y compone con ellos "sobre la marcha" el HTML que corresponde a la lista de los productos. Una vez compuesto dinámicamente el HTML de la página entera, se devuelve al navegador exactamente igual que si hubiese sido una página HTML estática. Por otra parte, existe la posibilidad de introducir dinamismo en el lado cliente a través del lenguaje JavaScript, diseñado específicamente para navegadores web. Habitualmente los controles de interfaz de usuario como árboles o tablas con funciones de paginación están creados en JavaScript.
Navegador Web
Un navegador web (en inglés, web browser) es un software, aplicación o programa que permite el acceso a la Web, interpretando la información de distintos tipos de archivos y sitios web para que estos puedan ser visualizados. La funcionalidad básica de un navegador web es permitir la visualización de documentos de texto, posiblemente con recursos multimedia incrustados. Además, permite visitar páginas web y hacer actividades en ella, es decir, enlazar un sitio con otro, imprimir, enviar y recibir correo, entre otras funcionalidades más.
Los documentos que se muestran en un navegador pueden estar ubicados en la computadora donde está el usuario y también pueden estar en cualquier otro dispositivo conectado en la computadora del usuario o a través de Internet, y que tenga los recursos necesarios para la transmisión de los documentos (un software servidor web). Tales documentos, comúnmente denominados páginas web, poseen hiperenlaces o hipervínculos que enlazan una porción de texto o una imagen a otro documento, normalmente relacionado con el texto o la imagen
Servidor Web
La principal función de un servidor Web es almacenar los archivos de un sitio y emitirlos por Internet para que las páginas que aloja puedan ser visitadas por los usuarios. Básicamente, un servidor Web es una gran computadora que guarda y transmite datos vía el sistema de redes llamado Internet. Cuando un usuario entra en una página de Internet, su navegador se comunica con el servidor, enviando y recibiendo datos que determinan qué es lo que verá en su pantalla. Por esto, podemos sintetizar el concepto: los servidores Web existen para almacenar y transmitir páginas web de un sitio según son solicitados por el navegador visitante.
Correo electrónico
El correo electrónico es un servicio de red que permite a los usuarios enviar y recibir mensajes (también denominados mensajes electrónicos o cartas digitales) mediante redes de comunicación electrónica. El término «correo electrónico» proviene de la analogía con el correo postal: ambos sirven para enviar y recibir mensajes, y se utilizan «buzones» intermedios (servidores de correo). Por medio del correo electrónico se puede enviar no solamente texto, sino todo tipo de archivos digitales, si bien suelen existir limitaciones al tamaño de los archivos adjuntos. Los sistemas de correo electrónico se basan en un modelo de almacenamiento y reenvío, de modo que no es necesario que ambos extremos se encuentren conectados simultáneamente.

Continuar navegando