Logo Studenta

ACD U2 - SISTEMAS DE INFORMACIÓN WIKI (2) (1) (1)_compressed

¡Este material tiene más páginas!

Vista previa del material en texto

ADMINISTRACIÓN DE EMPRESAS 
SISTEMA DE INFORMACION 
RONNY MAURICIO CUEVA DAVILA 
FABIAN ALEXANDER GUIRACOCHA JIMENEZ 
PAOLA SILVANA VALVERDE VASQUEZ 
NALLELY MAYLI ZAMBRANO GÓMEZ 
ING. EDISON TOAPANTA 
6TO “B” 
LOJA-ECUADOR 
 
 
DESAFÍOS DE 
INTERNET 
PARA LA 
PRIVACIDAD 
SEMANA 6 
Plantea Laudon & Laudon (2012),“La tecnología de Internet ha impuesto nuevos 
desafíos para la protección de la privacidad individual. La información que se envía a 
través de esta enorme red de redes puede pasar por muchos sistemas computacionales 
distintos antes de llegar a su destino final” (p. 134). 
Arellano & Ochoa (2012) menciona que: 
La privacidad es un derecho importante y un facilitador fundamental de la 
autonomía personal, la dignidad y la libertad de expresión. Aunque no existe una 
definición de privacidad universalmente aceptada, en el contexto de Internet en 
general se conviene que privacidad es el derecho de determinar cuándo, cómo y en 
qué medida los datos personales pueden ser compartidos con terceros. 
• Los sitios Web pueden conocer las identidades de sus visitantes si éstos se 
registran de manera voluntaria en el sitio para comprar un producto o servicio, o 
para obtener un servicio gratuito, como cierta información. 
• Los sitios Web también pueden capturar información sobre los visitantes sin que 
éstos lo sepan, mediante el uso de la tecnología de cookies. 
Para García (2013) “Las cookies son dispositivos de almacenamiento y 
recuperación de datos que se descargan en el equipo terminal de un usuario con la finalidad 
de almacenar datos que podrán ser actualizados y recuperados por la entidad responsable de 
su instalación” (236) 
Pues según la política de cookies, esta es un fichero o archivo de texto que un 
servidor web puede guardar en el disco duro de un equipo para almacenar información 
sobre los usuarios y solo puede ser leída por el sitio web que lo envió al equipo. 
Tipos de cookies 
Cookies Persistentes:
Permanecen en el disco duro de la 
terminal hasta que el usuario las 
elimina o expiran.
Cookies de sesión:
Este tipo de cookies están diseñadas 
para recabar y almacenar datos 
mientras el usuario accede a una 
página web.
Según el plazo de tiempo que permanecen activadas 
Según su finalidad 
• Actualmente los sitios web que utilizan la tecnología de cookies no pueden obtener 
de manera directa direcciones o nombres de quienes visiten la página. 
• A pesar de ello si una persona se registra en tal sitio se puede combinar esa 
información con los datos que existan en las cookies para poder identificar a la 
persona que esté visitando la página. 
• Muchas veces los propietarios de las páginas web combinan los datos que recopilan 
las cookies con otras ciertas herramientas de monitoreo de estos sitios para obtener 
información personal y con aquellos datos recolectados desarrollan perfiles más 
detallados para sus visitantes. 
Cookies técnicas:
Son aquéllas que 
permiten al usuario la 
navegación a través 
de una página web, 
plataforma o 
aplicación y la 
utilización de las 
diferentes opciones o 
servicios que en ella 
existan.
Cookies de 
personalización:
Son aquéllas que 
permiten al usuario 
acceder al servicio 
con algunas 
características de 
carácter general 
predefinidas en 
función de una serie 
de criterios en el 
terminal del usuario.
Cookies de análisis:
Son las cookies que 
bien tratadas por 
nosotros o por 
terceros, nos 
permiten cuantificar 
el número de usuarios 
y así realizar la 
medición y análisis 
estadístico de la 
utilización que hacen 
los usuarios del 
servicio ofertado.
Cookies de publicitarias:
Son aquéllas que permiten la 
gestión, de la forma más eficaz 
posible, de los espacios publicitarios
Cookiesde publicidad 
comportamental:
Estas cookies almacenan 
información del comportamiento de 
los usuarios obtenida a través de la 
observación continuada de sus 
hábitos de navegación.
Señala Laudon y Traver ( 2011), “La mayoría de las empresas en Internet hacen 
poco por proteger la privacidad de sus clientes, y los consumidores no hacen todo lo que 
deberán por protegerse” 
 Actualmente los comercializadores usan herramientas para monitorear el 
comportamiento en línea, a continuación, se observa un cuadro con ciertas herramientas de 
monitoreo: 
Los bugs Web, también conocidos como bichos. 
Web, son pequeños objetivos incrustados de manera invisible en los mensajes de 
correo electrónico y las páginas Web, los cuales están diseñados para monitorear el 
comportamiento del usuario que visita un sitio o envía un correo electrónico. 
El spyware se puede instalar de manera secreta a sí mismo en la computadora de un 
usuario de Internet, para lo cual se aprovecha de las aplicaciones más grandes. Una vez 
instalado, se contacta con los sitios Web para que envíen anuncios tipo pancarta y diversos 
tipos de material no solicitado al usuario, y también puede informar sobre los movimientos 
del usuario en Internet a otras computadoras. 
Google ha estado utilizando el marketing dirigido con base en el comportamiento 
para que le ayude a mostrar anuncios más relevantes basados en las actividades de 
búsqueda de los usuarios. 
Las empresas individuales como AOL, Yahoo! y Google adoptaron hace poco sus 
propias políticas, en un esfuerzo por lidiar con la opinión pública acerca del rastreo de las 
personas en línea. 
CLICK TALE 
 
Se trata de una herramienta de analítica web que muestra el 
comportamiento de los usuarios dentro de un sitio web. La 
herramienta se encarga de grabar vídeos y analizar las sesiones de 
los visitantes dentro del sitio web. Por tanto, es una herramienta 
ideal para controlar las conversiones, la forma de comportarse ante 
los formularios de los usuarios y analizar cómo navegan por tus 
landing pages o sitios corporativos. 
WOORANK 
 Woorank facilita datos sobre el estado del sitio web, así como listas 
de consejos y recomendaciones a implementar. Estos datos son de 
una gran ayuda para el posicionamiento en buscadores lo que te 
permitirá poder convertir más visitas en clientes, obtener un mejor 
ROI y monitorizar a tus competidores. 
IMPROVELY 
Improvely es una herramienta para visualizar el comportamiento 
de los usuarios en tu sitio web que permite rastrear clics, aspectos 
y ventas a través de los anuncios online. 
 
 
Según Laudon & Laudon (2012): 
 Además de la legislación, hay nuevas tecnologías disponibles para proteger la 
privacidad de los usuarios durante las interacciones con los sitios Web. 
 Muchas de estas herramientas se utilizan para encriptar correo electrónico, para 
hacer que las actividades de enviar/recibir correo electrónico o navegar en Web 
parezcan anónimas, para evitar que las computadoras cliente acepten cookies o para 
detectar y eliminar el spyware. 
Según Laudon & Laudon (2012) “Internet Explorer permite a los usuarios ajustar 
sus computadoras para rechazar todas las cookies o permitir cookies seleccionadas con base 
en niveles específicos de privacidad” (p. 139).
Menciona K. C. Laudon (2009): 
P3P es un estándar diseñado para comunicar a los usuarios de Internet la directiva 
de privacidad de un sitio Web, y comparar esa directiva con las propias preferencias 
de cada usuario, o con otros estándares como los lineamientos de FIP de la FTC, o 
la Directiva de Protección de Datos de la Unión Europea 
Recalca Laudon & Laudon(2012): 
En la actualidad existen herramientas que ayudan a los usuarios a determinar el tipo 
de datos personales que los sitios web desean extraer y una de esas plataformas más 
utilizadas es la de preferencias de privacidad, que también es conocida como P3P, 
Críticos señalan que un 
pequeño porcentaje de los sitios 
Web más populares usan P3P 
La mayoría de los usuarios de 
privacidad de su navegador y 
no hay forma de hacer cumplir 
los estándares P3P 
La P3P permite la 
comunicación automática de 
las directivas de privacidad 
entre los sitiosde comercio 
electrónico y los 
consumidores. 
dentro de esta plataforma se permite la comunicación de manera automática de las 
políticas de privacidad entre un sitio de comercio electrónico y de los usuarios 
visitantes. 
 
 
Menciona (Laudon & 
Laudon,2012). 
• El estándar P3P permite a 
los sitios Web publicar 
políticas de privacidad - En 
un formato que las 
computadoras puedan 
comprender. 
• Una vez que se codifica de 
acuerdo con las reglas del 
estándar P3P, la política de 
privacidad se vuelve parte 
del software para las 
páginas Web individuales 
 
Desde la perspectiva de K. C. 
Laudon (2009): 
funciona a través del navegador 
Web de un usuario 
permite a los sitios traducir sus 
directivas de privacidad en un 
formato XML estandarizado 
Las máquinas puedan leer ya sea 
mediante el navegador o 
utilizando complementos de 
software instalados. 
En el lado del cliente usuario, el 
navegador obtiene 
automáticamente la directiva de 
privacidad de un sitio Web e 
informa al usuario. 
Se integra en los navegadores 
como Firefox e Internet Explorer 
6.0/7.0. (p.504) 
 
Cañon López (2006) considera que: 
Un sitio web que contemple la utilización del standard P3P declararía que tipo de 
información almacena y para qué es almacenada: esto no es más que definir su 
política de privacidad. Lo que ocurre es que esta información es almacenada tal y 
como nos indica el standard, de forma que un navegador con la capacidad P3P 
activada puede decidir qué hacer comparando la política del sitio web visitado con 
las preferencias del usuario.
La propiedad intelectual se considera como la propiedad intangible creada por 
individuos o corporaciones. La tecnología de la información ha dificultado el proceso de 
proteger la propiedad intelectual, ya que es muy fácil copiar o distribuir la información 
computarizada en las redes. 
Según Santa (2006) “La propiedad intelectual (PI) cubre distintas categorías de 
derechos y comprende instrumentos legales e institucionales que protegen, bajo 
determinados requisitos, las creaciones del intelecto o de objetos vinculados a una actividad 
creativa” (07). 
Desde el punto de vista Laudon & Laudon(2012) “La propiedad intelectual está 
sujeta a una variedad de protecciones bajo tres tradiciones legales distintas: secretos 
comerciales, derechos de autor y ley de patentes” (pp. 138-139). 
 
 
 
 
 
 
 
 
 
 
La Propiedad Intelectual otorga al autor, creador e inventor el derecho de ser 
reconocido como titular de su creación o invento y, por consiguiente, ser beneficiario del 
mismo. 
En Ecuador, el Servicio Nacional de Derechos Intelectuales (SENADI) es el 
organismo encargado de proteger, fomentar, divulgar y conducir el buen uso de la 
Propiedad Intelectual desde el enfoque de tres áreas distintas: propiedad industrial, derecho 
de autor y derechos conexos y obtenciones vegetales y conocimientos tradicionales. 
Los derechos 
intelectuales se refieren a las 
creaciones de la mente, tales 
como obras literarias, artísticas, 
invenciones científicas e 
industriales, así como los 
símbolos, nombres e imágenes 
utilizadas en el comercio. 
(SENADI, s.f.) 
El derecho de autor es independiente, compatible y acumulable con: 
 
Objetivo de la ley de propiedad intelectual 
Menciona K. C. Laudon (2009),” Es equilibrar dos intereses en conflicto: el público 
y el privado” (p.508). 
 
 
 
 
 
Menciona K. C. Laudon (2009), “La tecnología de la información ha 
dificultado el proceso de proteger la propiedad intelectual, ya que es muy fácil 
copiar o distribuir la información computarizada en las redes” (p.508) 
Se da servicio al interés público 
mediante la creación y 
distribución de invenciones, 
obras de arte, música, literatura y 
otras formas de expresión 
intelectual. 
Se da servicio al interés privado 
al recompensar a las personas 
que crearon estas obras, 
mediante la conformación de un 
monopolio de tiempo limitado 
por el que se otorga el uso 
exclusivo al creador
La propiedad y otros 
derechos que tengan por 
objeto la cosa material a la 
que esté incorporada la 
obra;
Los derechos de propiedad 
industrial que puedan 
existir sobre la obra
Los otros derechos de 
propiedad intelectual 
reconocidos por la ley.
• La propiedad intelectual está sujeta a una variedad de protecciones bajo tres 
tradiciones legales distintas: secretos comerciales, derechos de autor y ley de 
patentes 
 
- 
 
 
 
 
 
 
 
 
 
 
 
 
 
VARIEDAD DE 
PROTECCIONES 
Secretos comerciales
Normalmente las leyes de 
los secretos comerciales 
conceden un tipo monopolio 
sobre las ideas detrás de un 
producto de trabajo, pues 
contiene un software con 
elementos, procedimientos o 
complicaciones nuevas y 
únicas que se puede incluir 
como un secreto comercial. 
Existe la ley de los secretos 
comerciales que protege las 
ideas actuales de un 
producto de trabajo y no solo 
su manifestación.
Derechos de autor
Los derechos de autor, o 
copyright, son una concesión 
legal que protege a los 
creadores de propiedad 
intelectual contra la copia por 
parte de otras personas para 
cualquier fin durante la vida 
del autor y durante 70 años 
más después de su muerte.
Patentes
Una patente otorga al 
propietario un monopolio 
exclusivo sobre las ideas 
detrás de una invención 
durante 20 años.
Según Laudon & Laudon (2012), “Cualquier producto del trabajo intelectual , una 
fórmula, dispositivo, patrón o compilación de datos ,que se utilice para un fin comercial se 
puede clasificar como secreto comercial, siempre y cuando no se base en información en el 
dominio público (p.139). 
 
Newman (2006) menciona que: 
En cuanto los secretos comerciales la Organización Mundial de la Propiedad 
Intelectual (OMPI) consideran incluida en esta categoría a toda la información 
confidencial que confiera una empresa una ventaja competitiva. Así, la materia 
objeto de los secretos comerciales incluye métodos de venta y de distribución, 
perfiles de consumidor tipo, estrategias de publicidad, lista de proveedores y 
clientes y en general todo tipo de información no divulgada que pueda tener 
importancia para su propietario, que por lo general no es de conocimiento público. 
(405) 
En general, las leyes de secretos comerciales 
conceden un monopolio sobre las ideas detrás 
del producto de un trabajo, pero puede ser un 
monopolio muy poco claro.
La limitación de la protección de los secretos 
comerciales es que, aunque casi todos los programas 
de software de cualquier complejidad contienen 
elementos únicos de alguna clase, es difícil evitar que 
las ideas en la obra caigan en el dominio público 
cuando el software se distribuya de manera amplia.
Laudon & Laudon (2012): 
Los derechos de autor, o copyright, son una concesión legal que protege a los 
creadores de propiedad intelectual contra la copia por parte de otras personas para 
cualquier fin durante la vida del autor y durante 70 años más después de su muerte. 
Para las obras que pertenecen a corporaciones, la protección de los derechos de 
autor dura 95 años a partir de su creación inicial.( pp. 138-139) 
Menciona K. C. Laudon (2009), “Ley de derechos de autor protege las 
formas originales de expresión, como escritos, arte, dibujos, fotografías, música, 
películas, actuaciones y programas de computadora, para evitar que otros hagan 
copias de ellas durante un mínimo de 70 años” (p.509) 
Menciona K. C. Laudon (2009):
Los derechos de autor protegen
contra la copia de programas
completos o una de sus partes.
Las compensaciones por los
daños se obtienen con rapidez
al momento de una infracción
(p.509)
La desventaja de la protección
de los derechos de autor es que
no se protegen las ideas
subyacentes detrás de una obra,
sólo su manifestación en ésta.
Un competidor puede usar su
software, comprender cómo
funciona y crear nuevo software
que siga los mismos conceptos
sin infringir los derechos de
autor.
Pulido, Palma, & Aguado (2016)Indican que: 
La función de los derechos de autor es remunerar e incentivar la creatividad, la cual 
lleva a idear nuevos conocimientos, bienes y servicios. Las primeras nociones 
económicas sobre derechos de autor giraban en torno al monopolio legal y a la 
posibilidad que esta modalidad de propiedad intelectual brindaba a los titulares para 
limitar el uso y el acceso a los bienes y servicios. 
Análisis Económico De Los Derechos De Autor 
Para Pulido, Palma, & Aguado (2016) los elementos clave para el análisis económico 
fueron los siguientes: 
• La expectativa de recompensa directa mediante derechos de autor solo explicaba 
parte de la producción literaria. 
• El monopolio de estos derechos permite que los autores aumenten sus ingresos 
limitando la oferta. 
• Estos derechos hacen posible que los autores escriban más, pero existe un menor 
número de copias. 
• Estos derechos alientan la divergencia de intereses entre autor y editor. El autor está 
más interesado que el editor en fijar un precio cercano al de monopolio. 
• El carácter no discriminatorio de los derechos, sin importar el riesgo que asuma 
cada autor/creador. En lo que sigue, el análisis de los derechos de autor se centra en 
tres aspectos: su justificación económica, la naturaleza del poder de mercado y las 
doctrinas económicas. 
Para Icaza (2007) “Una patente es un documento oficial otorgado a un inventor por 
un gobierno. Ese documento suele dar el derecho al inventor de impedir que alguien copie, 
utilice, distribuya o venda la invención sin su permiso” (18). 
Plantea K. C. Laudon (2009), 
“Una patente otorga al propietario un 
monopolio exclusivo sobre las ideas 
detrás de una invención durante 20 años. 
Las patentes son muy distintas a los 
derechos reservados, en cuanto a que 
protegen las ideas en sí y no sólo la 
expresión de las mismas” 
Los conceptos clave en la ley de patentes son, novedad e invención. 
 
 
La solidez de la protección de 
las patentes es que concede un 
monopolio sobre los conceptos 
y las ideas subyacentes del 
software.
La dificultad es aprobar los 
rigurosos criterios de la no 
evidencia (es decir, la obra 
debe reflejar cierta 
comprensión y contribución 
especial), originalidad y 
novedad, así como los años de 
espera para recibir protección.
Las patentes motivan a los 
inventores a idear nuevas 
formas únicas de obtener la 
misma funcionalidad que las 
patentes existentes
Hay cuatro tipos de inventos para las que se otorgan patentes 
¿Por qué son importantes las patentes? 
Según Icaza (2007) la importancia de las patentes radica en los siguientes aspectos: 
Las invenciones son el resultado de un arduo trabajo. Tras largas investigaciones y 
experimentos para convertir esa idea en una invención útil y viable. 
Los inventores merecen una recompensa por el tiempo que han dedicado a desarrollar 
sus ideas. Necesitan esa seguridad de que al compartir su invención no sea robada, la 
utilice o la copie sin su consentimiento. 
Máquinas, productos 
fabricados por el 
hombre, composiciones 
de materia y métodos 
de procesamiento. 
Para poder recibir una 
patente, el solicitante 
debe mostrar que la 
invención es nueva, 
original, novedosa
Los inventores no 
patentaron la mayoría 
de las invenciones que 
hacen posible el 
funcionamiento de 
Internet y el comercio 
electrónico
Las patentes ofrecen una recompensa y una protección a los inventores, pero también 
benefician a la sociedad. A cambio de su protección por patente, los inventores aceptan 
revelar toda la información técnica sobre su invención. (18)
La proliferación de las redes electrónicas, incluyendo Internet, ha dificultado aún 
más la acción de proteger la propiedad intelectual. Mediante las redes, la información se 
puede reproducir y distribuir con mucha más amplitud. 
Laudon & Laudon (2012)”Internet se diseñó para transmitir información libremente 
alrededor del mundo, aún la que tiene derechos de autor. La información se puede copiar de 
manera ilícita de un lugar y distribuirse por otros sistemas y redes, aun cuando estas partes 
no participen de manera consciente en la infracciónp” (141). 
 Laudon & Laudon ( 2012,) “Además de las leyes de privacidad y de propiedad, las 
nuevas tecnologías de la información desafían las leyes de responsabilidad legal existentes 
así como las prácticas sociales de rendición de cuentas de los individuos y las instituciones 
p. 141) 
Pues todos los sistemas y las instituciones en las que es imposible averiguar 
quién tomó tal acción, son por naturaleza e incapaces de un análisis ético o de 
alguna acción ética. 
Laudon & Laudon, 2012: 
La responsabilidad legal se extiende a un concepto de responsabilidad hasta el área 
de ley. Debido a esto existen características que se relacionan a estas sociedades 
gobernadas por leyes en donde los procesos de normas se conocen y se comprenden, 
debido a esto existe la habilidad de apelar a las autoridades de nivel superior para 
asegurar a que todas las leyes sean aplicadas de manera correcta ( p. 141). 
Dentro de estos conceptos básicos se forman los fundamentos de análisis éticos de 
los sistemas de información y de quiénes lo administran: 
Problemas de responsabilidad legal relacionados con las computadoras 
P
un
to
s 
fu
nd
am
en
ta
le
s
En primer lugar, las tecnologías de la información se filtran a través de instituciones 
sociales, organizaciones e individuos. Los sistemas no tienen impactos por sí solos. Los 
impactos que existan de los sistemas de información son productos de acciones y 
comportamientos institucionales, organizacionales e individuales.
En segundo lugar, la responsabilidad de las consecuencias de la tecnología recae sin 
duda en las instituciones, organizaciones y gerentes individuales que eligen usar la 
tecnología. Utilizar la tecnología de la información de una manera socialmente 
responsable significa que, quien la usa puede ser y será considerado responsable de las 
consecuencias de sus acciones
En tercer lugar, en una sociedad ética y política, los individuos y otras entidades 
pueden recuperarse de los daños sufridos por medio de un conjunto de leyes 
caracterizadas por el debido proceso.
En la medida en que el software sea parte de una máquina, y ésta provoque daños 
físicos o económicos, el productor del software y el operador se pueden hacer responsables 
legales de los daños. 
En general, es muy difícil (si no imposible) responsabilizar de manera legal a los 
productores de software por sus productos que se consideran parecidos a los libros, sin 
importar el daño físico o económico que resulte.
Según Laudon & Laudon (2012) 
Es posible hacer responsables a los individuos y las organizaciones por 
consecuencias que se puedan evitar y prever, lo cual tienen el deber de percibir y 
corregir. 
- Y el área gris es que algunos errores de sistemas son predecibles y corregibles sólo 
mediante un costo muy alto, tan alto que no es económicamente viable buscar este 
nivel de perfección; nadie podría costear el producto. 
- Las tres principales fuentes de un mal desempeño del sistema son 
Laudon & Laudon (2012), “Hay una barrera tecnológica que impide lograr el 
software perfecto y los usuarios deben estar conscientes del potencial de una falla 
Dada la centralidad del software en cuanto a la vida diaria, hay excelentes 
probabilidades de que la ley de responsabilidad legal extienda su alcance 
para incluirlo, aun y cuando tan sólo provea un servicio de información.
catastrófica. La industria del software aún no ha ideado estándares de prueba para producir 
software con un desempeño aceptable pero no perfecto (p. 143) 
Según Morales (2018) 
“aparte de las leyes de privacidad y 
de propiedad, las nuevas 
tecnologías de la información 
desafían las leyes de 
responsabilidad legal existentes, 
así como las prácticas sociales de 
rendición de cuentas de los 
individuos y las instituciones”. 
La calidadde sistemas de 
información no es una cuestión de 
data Quality únicamente, sino que 
también depende del entorno empresarial y la forma en que los procesos de negocio y los 
propios usuarios emplean los datos. 
. 
 
 
Piñate (2019) Un dato de calidad es aquél 
que se ajusta al uso para el que se destina y 
cumple con los requisitos de exactitud, 
fiabilidad, completitud, actualización y 
consistencia. Pero, para salvaguardarlos, 
es necesario que la organización dicte las 
políticas necesarias al respecto. 
Bugs y errores de 
software
Fallas de hardware o 
de las instalaciones 
provocadas por 
casusas naturales o de 
otro tipo
Mala calidad de los 
datos de entrada.
Las tres 
principales 
fuentes de un 
mal desempeño 
del sistema son
Resulta conveniente el proponer un estándar de calidad del sistema de información 
en base a cinco dimensiones, desde el punto de vista del usuario: 
Aunque es probable que los errores o bugs de software y las catástrofes en las 
instalaciones se informen de manera extensa en la prensa, hasta ahora la fuente más común 
de falla en los sistemas de negocios es la calidad de los datos. 
Para Laudon & Laudon (2012) “Las computadoras y las tecnologías de la 
información pueden llegar a destruir elementos valiosos de nuestra cultura y sociedad, 
incluso aunque nos brinden beneficios” (p. 143) 
A/ Disponibilidad: es el grado de comodidad para los usuarios a la hora 
de obtener datos e información relacionada. Para su evaluación, puede 
descomponerse en tres elementos: accesibilidad, autorización y 
puntualidad.
B/ Facilidad de uso: alude al grado de utilidad de los datos, en función 
de la idoneidad con que sean capaces de cumplir con las necesidades de 
los usuarios.
C/ Fiabilidad: se refiere al potencial del dato para resultar confiable, en 
base a su precisión, consistencia, integridad y suficiencia.
D/ Pertinencia: se utiliza para describir el grado de correlación entre el 
contenido de los datos y las expectativas o demandas de los usuarios. La 
adaptabilidad sería considerada como un valor.
E/ Calidad de la presentación: se refiere al modo en que se describen 
los datos y la manera en que el usuario los percibe. Debe tratarse de una 
presentación que permita a los usuarios comprenderlos y puede 
evaluarse en función de variables como la legibilidad y la estructura.
 
 
 
 
 
 
 
 
 
A continuacion se encuentran detallados cada uno de los puntos señalados: 
Balanceo del poder: centralizado vs. periférico 
Afirma Laudon & Laudon (2012), “Uno de los primeros temores de la era de las 
computadoras fue que las enormes computadoras mainframe centralizarían el poder en las 
oficinas corporativas y en la capital de la nación”(143) 
Rapidez del cambio: tiempo de respuesta reducido para la competencia 
El cambio hacia una computación muy descentralizada, acoplado con una 
ideología de otorgamiento de poderes a miles de trabajadores, junto con la 
descentralización de la toma de decisiones hacia niveles más bajos en la 
organización, han reducido los temores de la centralización del poder en las 
instituciones.
Perdida de 
empleo
Dependencia 
y 
Vulnerabilid
ad
Equidad y 
Acceso
Rapidez al 
Cambio
Balanceo de 
poder
Riesgos de 
Salud:RSI, 
CVS Y 
tecnoestres
Mantenimien
to de los 
límites
Crimen por 
Computador
a y abuso de 
la 
computadora
La competencia basada en tiempo tiene un lado malo: la empresa para la que usted 
trabaja tal vez no tenga suficiente tiempo para responder a los competidores globales y 
quede fuera del camino en un año, junto con su empleo. 
Mantenimiento de los límites: familia, trabajo y diversión 
Desde la perspectiva de Laudon & Laudon (2012): 
El peligro de la computación ubicua, el teletrabajo, la computación nómada y el 
entorno de computación tipo “haga cualquier cosa en cualquier parte” es que en 
realidad se está volviendo verdad. Los límites tradicionales que separan el trabajo 
de la familia y la diversión simple y pura se han debilitado. (, p. 144) 
Dependencia y vulnerabilidad 
 
 
 
 
 
Incluso el tiempo libre 
invertido en la 
computadora amenaza 
estas relaciones sociales 
estrechas. 
El uso intensivo de 
Internet, incluso para 
fines de entretenimiento 
o recreativos, aleja a las 
personas de su familia y 
amigos.
Entre los niños de edad 
escolar media y los 
adolescentes, puede 
conducir a un 
comportamiento 
antisocial dañino, como 
el reciente aumento en el 
fenómeno del 
“cyberbullying”.
Ahora que los sistemas son tan ubicuos como el 
sistema telefónico, es asombroso recordar que no 
hay fuerzas regulatorias o normalizadoras vigentes 
que sean similares a las tecnologías telefónica, 
eléctrica, de la radio, la televisión o cualquier otra 
tecnología de servicios públicos. 
Es probable que la ausencia de estándares y la 
criticidad de ciertas aplicaciones de sistemas 
requieran la presencia de estándares nacionales y tal 
vez de una supervisión regulatoria. 
Crimen por computadora y abuso de la computadora 
Laudon & Laudon (2012), “El crimen por computadora es la acción de cometer 
actos ilegales a través del uso de una computadora, o contra un sistema 
computacional”(p.145). 
 
A los crímenes de computadora se los denomina como delitos informáticos: 
Tipos de delitos informativos 
• Piratería informática 
(hacking) 
• Robo cibernético 
• Uso no autorizado en el 
trabajo 
• Piratería de software 
• Piratería de la propiedad 
intelectual 
• Virus y gusanos 
informáticos 
Representa un reto importante para el uso ético de las TI. Ya que estos constituyen 
una grave amenaza para la integridad, seguridad y supervivencia de la mayoría de los 
sistemas de información y esto hace que sea prioritario el desarrollo de métodos de 
seguridad eficaces. (O´Brien & Marakas, 2006, p. 439) 
Las computadoras o 
sistemas 
computacionales 
pueden ser el objeto 
del crimen, así como el 
instrumento del 
mismo. 
El simple hecho de 
acceder a un sistema 
computacional sin 
autorización o con la 
intención de hacer 
daño, incluso por 
accidente, se considera 
ahora un delito federal. 
(p. 145) 
La popularidad de 
Internet y del correo 
electrónico ha 
convertido una forma 
de abuso de la 
computadora (el correo 
basura, o “spamming”) 
es un grave problema 
tanto para individuos 
como para las 
empresas. 
Empleo: tecnología de derrame y pérdida de empleos de reingenieria 
Desde el punto de vista de Rifkin (1993): 
El trabajo de reingeniería es aclamado en la comunidad de los sistemas de 
información como un importante beneficio de la nueva tecnología de la información. Un 
economista ha externado la posibilidad de que vamos a crear una sociedad operada por una 
pequeña “elite de profesionales corporativos de alta tecnología en una nación de los 
desempleados permanentes”. 
Otros economistas creen que liberar a los trabajadores brillantes y educados de los 
empleos de reingeniería provocará que éstos avancen a mejores empleos en industrias de 
rápido crecimiento. 
 
Equidad y acceso: incremento de las divisiones raciales y de clase sociales 
Lo que se sabe es que la información, el conocimiento, las computadoras y el acceso 
a estos recursos por medio de las instituciones educativas y las bibliotecas públicas se 
distribuyen a lo largo de las líneas étnicas y de las clases sociales, al igual que muchos otros 
recursos de información. 
Los grupos de interés público quieren reducir esta brecha digital al poner los 
servicios de información digital (que abarcan Internet) a disposición de casi cualquier 
persona, de la misma forma que el servicio telefónico en la actualidad. 
La planificación cuidadosa y la sensibilidad para con las 
necesidades de los empleados pueden ayudar a las compañías 
a rediseñar el trabajo para minimizar las pérdidas de 
empleos. 
Riesgos de salud: RSI, CVS y tecnoestrés 
La RSI ocurre cuando se fuerzan grupos de músculos debido a acciones repetitivas 
con cargas de alto impacto,o a decenas de miles de repeticiones con cargas de bajo impacto 
 
Señala Beck (2010), “Los elementos que contribuyen a una postura apropiada y a 
reducir la RSI son; el diseño de estaciones de trabajo para una posición neutral de la 
muñeca (mediante el uso de un descanso de muñeca para apoyarla), las bases apropiadas 
para los monitores y descansos para los pies” 
Para finalizar se desarrolla un conclusion final del aprendizaje adquirido en la tarea 
investigativa. 
La enfermedad 
ocupacional más común en 
la actualidad es la lesión 
por esfuerzo repetitivo 
(RSI). 
Es posible evitar las RSI 
con uso teclados 
ergonómicos.
Estas medidas deben 
complementarse con 
descansos frecuentes y la 
rotación de los empleados 
en distintos trabajos.
El síndrome de visión de 
computadora (CVS) se 
refiere a cualquier 
condición de fatiga ocular 
relacionada con el uso de 
las pantallas en las 
computadoras de 
escritorio, laptops, lectores 
electrónicos, teléfonos 
inteligentes y videojuegos 
portátiles. 
La enfermedad más 
reciente relacionada con 
las computadoras es el 
tecnoestrés: el estrés 
inducido por el uso de las 
computadoras. Los 
síntomas incluyen fastidio, 
hostilidad hacia los 
humanos, impaciencia y 
fatiga. 
Además de estas 
enfermedades, la 
tecnología de las 
computadoras puede estar 
dañando nuestras 
funciones cognitivas. 
Arellano, W., & Ochoa, A. M. (03 de 09 de 2012). Scielo. Obtenido de Scielo: 
https://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1870-
21472013000100010 
Beck, M. (2010). Becoming a Squinter Nation. New York: The Wall Street Journal. 
Cañon López, M. (2006). Plataforma de Preferencias de Privacidad: Un caso pr´actico, el 
mundo. 
Falconí, D. J. (16 de junio de 2011). Ecuador y su primera Ley Orgánica de Protección de 
Datos Personales. Obtenido de Ecuador y su primera Ley Orgánica de Protección 
de Datos Personales: https://dpd.aec.es/ecuador-y-su-primera-ley-organica-de-
proteccion-de-datos-personales/ 
FUNDACIÓN PRO-RAE. (2019). Real Academia Española. Obtenido de Real Academia 
Española: https://www.rae.es/ 
García, F. J. (2013). Las cookies en los principales cibermedios generalistas de España. 
Mhcj, 233 a 261. 
Icaza, M. (2007). Aprender del pasado para crear el futuro: invenciones y pantentes. 
Organización Mundial de la Propiedad Intelectual. 
Laudon, K. C. (2012). Sistemas de información gerencial. México: Pearson. 
Laudon, K. C., & Laudon, J. P. (2012). Sistemas de información gerencial. México: 
Pearson. 
Laudon, K., & Guercio, C. (2011). E-Commerce: Business, Technology, Society. New York: 
Pearson. 
Morales, M. (2018). Universidad Ecotec. Obtenido de ecotec.edu.ec: https://bit.ly/3ia1FEN 
Newmann, E. M. (2009). Los Secretos Comerciales y el Know How en las Iniciativas 
Privadas de Inversión. Dialnet, 397 - 406. 
O´Brien, J. A., & Marakas, G. M. (2006). Sistemas de Información Gerencial (Séptima 
ed.). México: Mc Graw Hill. 
Piñate, M. (2019). Comunicacion y gerencia. UNIVERSIDAD BICENTENARIA DE 
ARAGUA. 
Pulido, N., Palma, L., & Aguado, L. (2016). Derechos de Autor. Enfoque económico, 
evolución y perspectiva. Revista de Economía Institucional, 151 - 169. 
Rifkin, J. (1993). Watch Out For Trickle-Down Technology. New York: The New York 
Times Archives. 
Santa, M. (2006). Los derechos de propiedad intelectual en los acuerdos de libre comercio 
celebrados por países de América Latina con países desarrollados. Santiago de 
Chile: Naciones Unidas. 
SENADI. (s.f.). Derechos Intelectuales. Obtenido de Derechos Intelectuales: 
http://www.sice.oas.org/int_prop/nat_leg/ecuador/l320a.asp#:~:text=El%20derech
o%20de%20autor%20es,intelectual%20reconocidos%20por%20la%20ley. 
Velasco Burgos, B. (2022). Tecnologías de Información y Comunicación y su apropiación 
en instituciones educativas. Zulia: Revista Venezolana De Gerencia. Obtenido de 
https://produccioncientificaluz.org/index.php/rvg/article/view/38801/43252 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
SEMANA 7 
 
 
 
 
Según Laudon & Laudon (2012), “Todas estas tecnologías, junto con las personas 
requeridas para operarlas y administrarlas, representan recursos que se pueden compartir en 
toda la organización y constituyen la infraestructura de tecnología de la información (TI) de 
la empresa” (p.21) 
 
La infraestructura de TI incluye la inversión en: 
 
La infraestructura de TI provee la base, o 
plataforma, sobre la que una empresa puede crear 
sus sistemas de información específicos. 
Cada organización 
debe diseñar y 
administrar
con cuidado su 
infraestructura de 
TI, de modo que 
cuente con el 
conjunto de 
servicios 
tecnológicos que 
necesita para el 
trabajo que desea 
realizar con los 
sistemas de 
información.
Hardware
Software
Servicios como consultoría, educación y capacitación 
que se comparten a través de toda la empresa o de 
unidades de negocios completas en ésta.
La infraestructura de TI de una empresa provee la base 
para dar servicio a los clientes, trabajar con los 
distribuidores y gestionar los procesos de negocios 
internos 
Según el autor Laudon & Laudon (2012), “definen la infraestructura de tecnología 
de la información (TI) como los recursos de tecnología compartidos que proveen la 
plataforma de TI para las aplicaciones de sistemas de información específicas para la 
empresa” (p.165). 
 
 
 
 
Según el autor Laudon & Laudon (2012): 
La infraestructura de TI consiste en un conjunto de dispositivos físicos y 
aplicaciones de software requeridas para operar toda la empresa. (p.166) 
 
. 
 
 
 
Sin embargo, esta infraestructura 
también es un conjunto de 
servicios a nivel empresarial 
presupuestado por la gerencia, 
que abarca las capacidades tanto 
humanas como técnicas 
Mencionan Laudon & Laudon (2012), “La infraestructura de TI en las 
organizaciones actuales es el fruto de más de 50 años de evolución en las 
plataformas de computadora” (p.166). 
Plantean Laudon & Laudon (2012), “cinco etapas en esta evolución, cada 
una de las cuales representa una distinta configuración de poder de cómputo y 
elementos de la infraestructura” (p.166). 
Las tecnologías que caracterizan una era también se pueden usar en otro 
periodo de tiempo para otros fines. 
. 
 
 
 
 
 
computación 
con 
mainframes y 
minicomputad
oras
microcomputa
doras mejor 
conocidas 
como 
computadoras 
personales
las redes 
cliente/servido
r
la 
computación 
empresarial
la 
computación 
en la nube y 
móvil.
Por ejemplo, algunas compañías 
todavía utilizan sistemas mainframe 
tradicionales o usan computadoras 
mainframe como servidores 
masivos para dar soporte a sitios 
Web grandes y aplicaciones 
empresariales corporativas
 
Mencionan Laudon & Laudon (2012), La introducción de las máquinas 
transistorizadas IBM 1401 y 7090 en 1959 marcó el principio del uso comercial 
extendido de las computadoras mainframe. 
En 1965, la computadora mainframe llegó a su momento máximo con la 
introducción de la serie IBM 360. 
La cual fue la primera computadora comercial con un poderoso sistema 
operativo que podía proveer: 
IBM dominó el área de las computadoras mainframe desde este punto en 
adelante. 
tiempo 
compartido multitareas
memoria 
virtual en 
modelosmás 
avanzados
• Estas computadoras tenían el suficiente poder como para dar soporte a miles 
de terminales remotas en línea, conectadas a la mainframe centralizada 
mediante el uso de protocolos de comunicación y líneas de datos 
propietarios. 
 
 
Desde la perspectiva de Laudon & Laudon (2012): 
Era de la 
mainframe 
fue un periodo 
de computación 
con alto grado 
de 
centralización 
bajo el control 
de 
programadores
y operadores 
de sistemas 
profesionales 
(por lo general 
en un centro 
de datos 
corporativo)
la mayoría de los 
elementos de la 
infraestructura los 
proveía un solo 
distribuidor, el fabricante 
del hardware y del 
softwareEste patrón 
empezó a 
cambiar con la 
llegada de las 
minicomputado
ras producidas 
por Digital 
Equipment 
Corporation 
(DEC) en 1965. 
la minicomputadora 
evolucionó en una 
computadora o 
servidor de medio 
rango y forma parte 
de una red.
La aparición de la IBM PC en 1981 se considera como el inicio de la era de la PC, 
ya que esta máquina fue la primera que se adoptó de manera extendida en las 
empresas estadounidenses. 
La proliferación de las PCs en la década de 1980 y a principios de la de 1990 desató 
un torrente de herramientas de software personales de productividad de escritorio 
tanto domésticos como corporativos. 
 
Computadora 
Wintel PC 
sistema operativo 
Windows en una 
computadora con un 
microprocesador 
Intel
Al inicio utilizaba el 
sistema operativo 
DOS, un lenguaje de 
comandos basado en 
texto.
posteriormente el 
sistema operativo 
Windows, se 
convirtió en la 
computadora 
personal de 
escritorio estándar
En la actualidad, el 
95 % de los 1.5 mil 
millones de 
computadoras 
estimadas en el 
mundo utilizan el 
estándar Wintel.
procesadores de palabras
hojas de cálculo
software de presentación electrónica 
pequeños programas de gestión de datos
Plantea Laudon & Laudon (2012), “Estas PCs eran sistemas independientes hasta 
que el software de sistema operativo de PC en la década de 1990 hizo posible enlazarlas en 
redes. 
 
En la computación cliente/servidor, las computadoras de escritorio o laptop 
conocidas como clientes se conectan en red a poderosas computadoras servidores 
que proveen a las computadoras clientes una variedad de servicios y herramientas. 
El trabajo de procesamiento de cómputo se divide entre estos dos tipos de máquinas. 
• El cliente es el punto de entrada del usuario, 
• mientras que el servidor por lo general procesa y almacena datos compartidos, sirve 
páginas Web o gestiona las actividades de la red. 
 
 
 
 
 
La red cliente/servidor más 
simple consiste en una 
computadora cliente conectada 
en red a una servidor
en donde el procesamiento se 
divide entre los dos tipos de 
máquinas. 
A esto se le conoce como 
arquitectura cliente/servidor de 
dos niveles. Mientras que 
podemos encontrar las redes 
cliente/servidor simples en 
empresas pequeñas
La red cliente/servidor multinivel 
(a menudo conocida como de N-
niveles) más complejas
en donde el trabajo de toda la red 
se balancea a través de distintos 
niveles de servidores, 
dependiendo del tipo de servicio 
que se solicite
se utilizan en las arquitecturas 
cliente/servidor multinivel para el 
comercio y los negocios 
electrónicos.
Según Laudon & Laudon (2012): 
La computación cliente/servidor permite a las empresas distribuir el trabajo de 
cómputo entre una serie de máquinas más pequeñas y económicas que cuestan 
mucho menos que las minicomputadoras o los sistemas mainframe centralizados. 
El resultado es una explosión en el poder de cómputo y las aplicaciones en toda la 
empresa. 
 
Novell NetWare 
En la actualidad, Microsoft es 
el líder del mercado con sus
sistemas operativos Windows: 
- Windows Server
- Windows 7
- Windows Vista 
- Windows XP
fue la tecnología líder para las 
redes cliente/servidor al 
principio de la era 
cliente/servidor. 
Señala Laudon & Laudon (2012), “A principios de la década de 1990, las 
empresas recurrieron a estándares de redes y herramientas de software que pudieran 
integrar redes y aplicaciones dispares esparcidas por toda la empresa en una 
infraestructura a nivel empresarial” (p.170) 
La infraestructura de TI resultante enlaza distintas piezas de hardware de computadora 
y redes más pequeñas en una sola red a nivel empresarial, de modo que la información 
pueda fluir con libertad por toda la organización, y también entre la empresa 
y otras organizaciones. 
• Puede enlazar distintos tipos de hardware de computadora, entre ellos 
mainframes, servidores, PCs, teléfonos móviles y otros dispositivos portátiles; 
• además, cuenta con infraestructuras públicas como el sistema telefónico, Internet 
y los servicios de redes públicas. 
Cuando Internet se desarrolló 
para convertirse en un entorno 
de comunicaciones de 
confianza
después de 1995, las empresas 
de negocios empezaron a 
utilizar en serio el estándar de 
redes Protocolo de control de 
transmisión/Protocolo Internet 
(TCP/IP) para enlazar sus 
redes dispares.
La infraestructura 
empresarial también 
requiere software para 
enlazar aplicaciones 
dispares
y permitir que los datos fluyan 
con libertad entre distintas 
partes de la empresa, como las 
aplicaciones empresariales y 
los servicios Web 
 
Señala Laudon & Laudon (2012), “La banda de Internet ha impulsado el avance del modelo 
cliente/servidor, hacia lo que se conoce como el “Modelo de computación en la nube”(171). 
En la actualidad, la computación en la nube es la forma de computación que crece 
con mayor rapidez, en donde se espera que los ingresos globales lleguen a cerca de $89 mil 
millones en 2011 y a casi $149 mil millones para 2014, de acuerdo con los consultores de 
tecnología de Gartner Inc. (Cheng y Borzo, 2010; Veverka, 2010). 
Computacion en la nube 
La computación en la nube se refiere a un modelo de cómputo que 
provee acceso a una reserva compartida de recursos computacionales 
(computadoras, almacenamiento, aplicaciones y servicios) a través de 
una red, que con frecuencia viene siendo Internet. 
Se puede acceder a estas “nubes” de recursos computacionales según 
sea necesario, desde cualquier dispositivo conectado y cualquier 
ubicación. 
Señala Laudon & Laudon (2012): 
Los cambios en la infraestructura de TI son el resultado de los desarrollos: 
 lo cual ha incrementado de manera exponencial el poder de cómputo, a la vez que ha 
reducido los costos a una gran velocidad. 
Ahora veamos los desarrollos más importantes. 
Gordon E. Moore (San Francisco, California, 1929) fue uno de 
los ocho jóvenes discípulos de Shylock, uno de los inventores 
del transistor, y fundó Intel en julio de 1968 junto a Robert 
Noyce. Su nombre forja una leyenda en el sector tecnológico 
gracias a la mítica 'Ley de Moore' 
en el 
procesamien
to de las 
computadora
s
los chips de 
memoria,
los 
dispositivos 
de 
almacenamie
nto
el hardware 
y software 
de 
telecomunic
aciones y 
redes, 
el diseño de 
software
 El 19 de abril de 1965, este químico afirmó, basándose únicamente en sus observaciones, 
que el número de transistores en un microprocesador se duplicaría cada año. Durante más de 
50 años, así fue. (Zukerfeld, M. 2015). 
La teoría se ha cumplido salvo contadas excepciones- espero que inevitablemente la 
posibilidad de aumentar la capacidad y reducir el tamaño de los chips tenga un límite. Por 
ello, varias voces han proclamado la "muerte de Moore's Ley"(Arrieta, 2017). 
 
 
 
 
 
 
 
 
 
 
 
 
 
En 1965, el cofundador de 
Intel, Gordon Moore, predijo 
que el número de transistores 
en un chip se duplicaría 
aproximadamente cada dos 
años, con un aumento 
mínimo en el costo1. Esta 
predicción se conoció como la 
Ley de Moore y se representa 
en la Figura 1. Cuantos más 
transistores o componentes 
haya en un dispositivo, el 
costo por dispositivo se 
reduce mientras que el 
rendimiento por dispositivo 
aumenta.
La tecnología nunca ha sido más 
importante para la humanidad de lo 
que es ahora. Todo se está 
volviendo digital.
con cuatro superpoderes clave". Los 
superpoderes (computación 
omnipesente, infraestructura de 
nube al edge, conectividad e 
inteligencia artificial) están 
preparadas para trascender y 
transformar el mundo. 
En este momento no vemos el fin 
de la demanda de computación, y 
más computación continúa 
empujando a la industria a una 
mayor innovación.
El CEO de Intel, Pat 
Gelsinger, ha compartido:
Durante más de 40 años, Kelleher (2022) anuncia que los ingenieros de Intel han 
innovado continuamente para crear más y más transistores en chips cada vez más pequeñospara mantenerse al día con la Ley de Moore. 
A mediados o finales de la década de 2010, la industria predijo, como lo ha hecho 
varias veces antes, que la Ley de Moore, una proposición famosa, la innovación no está 
muerta y la Ley de Moore se mantendrá a través de la innovación como siempre: innovación 
en el proceso, en el que el empaque y en arquitectura. Será un desafío como siempre, e Intel 
está a la altura del desafío (Kellehe, 2022). 
 
 
 
 
 
 
 
 
 
Intel tiene una larga historia de innovaciones de procesos fundamentales en la búsqueda de la Ley 
de Moore, como se ve en la Figura 2. Cuando las características de un chip se reducen al tamaño de 
los átomos. (Kellehe, 2022) 
Figura 2: Innovaciones de transistores a lo largo del tiempo 
 
 
 
Con inventos como la tecnología 
de compuerta metálica de alta k, 
los transistores 3D de tres puertas 
y el silicio tensado, 
Intel ha entregado constantemente 
tecnologías innovadoras para 
mantener el ritmo de la Ley de 
Moore. 
Figura 3: Innovaciones de paquetes a lo largo del tiempo 
El papel del embalaje y su contribución a la escala de la Ley de Moore está evolucionando. 
 
En el futuro, a medida que entramos en la era del empaquetado avanzado. Kellehe( 
2022) plantea vemos ganancias en la densidad de transistores que nuestro empaque entrega. 
Desde la perspectiva de Moore, G. E. (1998) dijo en su artículo original, “Puede resultar más 
económico construir sistemas grandes a partir de funciones más pequeñas, que están 
empaquetadas e interconectadas por separado”. 
Hasta la década de 2010, 
el papel principal del 
embalaje era enrutar la 
potencia y la señalización 
entre la placa base y el 
silicio, y proteger el 
silicio. 
Cada evolución en esa 
época, desde los paquetes 
de unión de alambre y 
marco de plomo, hasta la 
tecnología de chip 
giratorio en sustratos 
cerámicos, la adopción de 
sustratos orgánicos y la 
introducción de paquetes 
de múltiples chips, trajo un 
mayor número de 
conexiones. 
Estas conexiones 
soportaban más 
funcionalidad en el silicio, 
que era necesaria para el 
escalado de la Ley de 
Moore. El embalaje sirvió 
como el vehículo a través 
del cual se realizaron los 
beneficios de la Ley de 
Moore. 
 A medida que entramos en la era del empaquetado avanzado: 
A medida que estas tecnologías (y otras) llegan al mercado, el embalaje avanzado 
entregará otra herramienta a los diseñadores y arquitectos para que la utilicen en su búsqueda 
de la Ley de Moore. 
 
 
 
Tecnologías de 
apilamiento 2D y 
3D
brindan a los arquitectos y
diseñadores las herramientas
para aumentar aún más el
número de transistores por
dispositivo y contribuirán al
escalado necesario para la Ley
de Moore.
Figura 4: Principales áreas de investigación 
 
 
 
 
 
 
La investigación de los componentes de Intel se centra en tres áreas de investigación clave, como se 
ve en la Figura 4, para proporcionar los componentes básicos para una computación más poderosa 
en el futuro(Kellehe, 2022). 
Las innovaciones futuras que alimentan la Ley de Moore están limitadas solo por 
nuestra imaginación. Recientemente, en la Reunión Internacional de Dispositivos 
Electrónicos (IEDM) IEEE 20215, describimos varias áreas de innovación futura. 
• Esto incluye avances innovadores como el autoensamblaje dirigido (DSA) 
de moléculas para mejorar la rugosidad del edge y la precisión. 
• También investigamos nuevos materiales, de solo unos pocos átomos de 
grosor, para crear transistores más delgados, reduciendo su tamaño general. 
La innovación, junto 
con la demanda de los 
usuarios finales, 
impulsa la Ley de 
Moore 
• Además de innovaciones como estas, estamos estableciendo capacidades 
viables para apilar transistores verticalmente, ya sea monolíticamente en la 
misma pieza de silicio o como chiplets utilizando tecnologías de empaque 
avanzadas como la unión híbrida con tonos de interfaz vertical cada vez 
menores. 
• A medida que habilitamos una computación más potente a través del 
escalado, necesitamos aportar nuevas capacidades al silicio y estirar sus 
límites. Al integrar nuevos materiales, podemos entregar energía de manera 
más eficiente y satisfacer mayores demandas de memoria. 
 
 
Cincuenta años después de la Ley de Moore, la sociedad contemporánea ve docenas de beneficios 
expuestos por esta ley. Los dispositivos móviles, como los teléfonos inteligentes y los ordenadores, 
no funcionarían sin procesadores muy pequeños. (Navas, 2018). 
 
 
 
Con el aumento del tiempo se han producido cambios drásticos. Navas (2018) menciona que 
actualmente los transistores de silicio alcanzan los 14 nanómetros, e incluso estarán listos para el 
mercado algunos diseños de chips de 10 nanómetros. Se ha llegado a la conclusión de que, para 
cumplir con la Ley de Moore durante un largo período de tiempo, las empresas tenderán a crear 
nuevos y mejores materiales para convertirse en la base de las computadoras de la próxima 
generación. 
El avance de los semiconductores está siendo clave para crear componentes más 
compactos, veloces y eficientes energéticamente. A ello también contribuye la tendencia 
hacia la miniaturización siguiendo lo establecido por la Ley de Moore que pone la mirada 
en la reducción del tamaño, el coste y el consumo. 
Sin embargo, estos avances tienen un precio: tanto los costes de desarrollo como los 
de producción han aumentado hasta el punto de que la industria busca una solución 
alternativa para gestionarlos sin dejar de ofrecer productos avanzados. (González, 2022) 
Hoy en día, todos los procesadores de consumo 
están hechos de silicio, el segundo elemento más 
abundante en la corteza terrestre después del 
oxígeno. Sin embargo, el silicio no es un 
conductor perfecto y las limitaciones en la 
movilidad electrónica que permite imponen 
límites severos a la densidad de los transistores 
de silicio (Navas, 2018). 
 
Gracias a la nanotecnología, algunos transistores son más pequeños que un virus. 
Estos se construyen microscópicamente y contienen moléculas de carbono y silicio alineadas 
de manera perfecta que ayudan a mover la electricidad a lo largo del circuito más rápido. 
Eventualmente, la temperatura de los transistores hace imposible crear circuitos más 
pequeños, porque enfriar los transistores requieren más energía que la que pasa por los 
transistores. 
Las aplicaciones y el software podrían mejorar la velocidad y la eficiencia de las 
computadoras en el futuro. La tecnología en la nube, la comunicación inalámbrica, el Internet 
de las cosas y la física cuántica también podrían desempeñar un papel importante en la 
innovación de la tecnología informática. El progreso hacia la duplicación del número de 
circuitos se ha ralentizado, y los circuitos integrados no pueden ser mucho más pequeños a 
medida que los transistores se acercan al tamaño de un átomo. En algún momento en el futuro, 
los avances en software o hardware podrían mantener vivo el sueño de Ley de Moore (Navas 
2018). 
Mencionan Laudon & Laudon (2012): 
La infraestructura de TI está compuesta de siete componentes principales. Los cuales 
constituyen inversiones que se deben coordinar entre sí para proveer a la empresa una 
infraestructura coherente. (p.167) 
Según Laudon & Laudon (2012) 
Menciona Laudon & Laudon ( 2012): 
 
Los servicios que una empresa es capaz de 
brindar a sus clientes, proveedores y 
empleados son una función directa de su 
infraestructura de TI, y lo ideal es que apoye 
la estrategia de negocios y sistemas de 
información de la empresa. 
 
En el pasado, los 
distribuidores de 
tecnología que 
suministraban 
estos 
componentes 
competían entre 
sí con frecuencia
y ofrecían a las 
empresas 
compradoras una 
mezcla de 
soluciones 
parciales 
incompatibles y 
propietarias. 
Sin embargo, las 
empresas 
distribuidoras se 
han visto cada 
vez más 
obligadas por los 
clientes grandes a 
cooperar ensociedades 
estratégicas unas 
con otras.
Desde la perspectiva de Laudon & Laudon ( 2012), Entre los principales componentes de 
infraestructura de TI se encuentran 
Para Laudon & Laudon (2012), “es el equipo físico que se utiliza para las 
actividades de: 
Según Laudon & Laudon (2012) se presencia: 
“El explosivo poder de la tecnología de hardware de computadora y de redes ha 
cambiado drásticamente la forma en que las empresas organizan su poder de 
cómputo, al imponer una mayor parte de este poder en las redes y los dispositivos 
portátiles móviles” (181) 
las plataformas de 
hardware de 
computadora
las de sistemas 
operativos
las de software 
empresarial
las de redes y 
telecomunicaciones
el software de 
administración de 
bases de datos
las plataformas de 
Internet
los servicios de 
consultoría y los 
integradores de 
sistemas. (p. 200)
entrada
salida
procesamiento en un sistema de 
Informacion
Desde la perspectiva de Pérez (2020) se determinan las siguientes ventajas y 
desventajas: 
 
 
 
Fomenta que el hardware pueda 
ser de calidad, los estándares 
abiertos y que sean más 
económicos
Aumenta la seguridad y el buen 
funcionamiento del diseño, al 
funcionar en el mayor taller de 
pruebas existente
Ayuda a las compañías a ahorrar 
costes y tiempos de diseño en 
sus trabajos.
Un diseño físico es único. La 
compartición depende de la 
facilidad de reproducción del 
diseño y de la capacidad de 
reproducirlo
Disponibilidad de componentes
Obtencion de patentes
Modelo de produccion de 
hardware
Dell
IBM
SUN
HP
Apple
Maquinas 
Linux
Según Barbieri, L. (2021, mayo 6), “Dell Technologies ha puesto las soluciones 
para la era digital actual, en el mundo entero a nuevas formas de vivir, aprender y trabajar” 
 
• Con respecto a la investigacion explortatoria se puede analiar que la plataforma Dell 
ha desarrollado estrategias para acompañar a sus clientes y socios hacia el futuro 
basandose en: 
 
 El lanzamiento de APEX para el 2023 el 43% del nuevo storage será consumido 
como OpEx destacó; mientras el 2024, el 50% de la infraestructura será as-a-
Service, y el 75% estará en el Edg. 
Dell destacó que
la tecnología ha
dejado
definitivamente de
ser tratada como
un silo dentro de
las empresas, para
impregnar toda la
organización.
El CEO y
fundador de Dell
Technologies
también destacó
que el futuro pasa
cada vez más por
una
infraestructura e
innovaciones
tecnológicas que
permitan
transformar los
datos en mejoras
para las empresas,
las personas y la
sociedad en
general.
- Sostuvo, la
evolución de
tecnologías como
el Edge
Computing, que
permitirá
almacenar,
procesar y
analizar un
volumen
exponencial de
datos recogidos en
el Edge.
- Y destacó que
esta tendencia
representa una
oportunidad para
el ecosistema de
partners de la
compañía.
«Desde su
fundación hace 37
años, Dell
Technologies ha
suministrado más
de 800 millones
de PC, más de 37
millones de
servidores y más
de 160 millones
de terabytes de
almacenamiento.»
Everything As-a-
Service
Servicio y gestión 
de servicios, y 
productos. 
Dentro de las innovaciones de la Infraestructura Ti de Dell , encontramos APEX: 
 
 
 
APEX
Se trata de una cartera de infraestructura como servicio 
(IaaS) que busca simplificar los viajes de 
transformación digital, aumentando la agilidad y 
autonomía de los equipos de TI.
APEX Custom Solutions
aporta una amplia cartera de tecnología como servicio, 
incluyendo APEX Flex on Demand, que ofrece soluciones de 
pago por uso para servidores, almacenamiento, protección de 
datos e hiperconvergencia
APEX Data Center Utility
añade un nivel adicional de flexibilidad a través de la medición 
personalizada y los servicios gestionados aplicados en el 
centro de datos. Estas soluciones están actualmente 
disponibles en Colombia, Chile, México y Brasil.
APEX Cloud Services:
Con APEX Hybrid Cloud y APEX Private Cloud, Dell 
Technologies ofrece capacidades integradas de computación, 
almacenamiento, redes y virtualización para aplicaciones 
tradicionales y nativas de la nube.
APEX Console: 
un portal basado en Internet en el que los clientes tienen acceso 
completo al catálogo de ofertas de Dell Technologies y pueden 
configurar, suscribir, gestionar y ajustar sus servicios APEX de 
Dell Technologies. Simplifica el gasto en tecnología con una 
facturación fácil de entender que muestra la cantidad de TI 
utilizada cada mes.
APEX Data Storage 
Services
almacenamiento externo como servicio, cuando y donde las 
empresas lo necesiten, con un alto rendimiento y con unas 
prestaciones inigualables a las de la nube pública, con precios 
transparentes y sin tasas por excedentes.
Dell EMC Streaming Data 
Platform, 
que ofrece análisis en tiempo real en el Edge. La solución es ideal 
para capturar, almacenar y analizar datos en tiempo real en el Edge.
Dell EMC Streaming Data 
Platform, 
que ofrece análisis en tiempo real en el Edge. La solución es ideal 
para capturar, almacenar y analizar datos en tiempo real en el Edge.
 
 
 
 
 
 
 
Menciona Cooney (2022), “IBM ha lanzado su ordenador cuántico denominado 
Osprey, el mismo que cuenta con hasta 433 qubits, triplicando a su predecesor Eagle. Ha 
subrayado su estrategia de tener un procesador de 1.121 qubits”. 
• IBM Quantum Summit 2022, desarrollo de una plataforma cuántica 
modular, System Two, que combinará múltiples procesadores en un solo 
sistema con nuevos enlaces de comunicación que, según la compañía, 
Hoy el 10% de los datos se procesa fuera 
de un centro de datos, el 75% se procesará 
fuera de un centro de datos tradicional o de 
la nube en 2025. En la próxima década se 
gastarán más de 700.000 millones de 
dólares en CapEx en infraestructuras de 
Edge que están integrando e innovando en 
soluciones de Edge con VMware , sus 
ecosistemas y capacidades de socios, 
creando una infraestructura inteligente 
automatizada para el 5G y la nueva era
Dell Technologies y VMware son la plataforma 
multicloud para la transformación digital.
Pretende devolverle los ciclos haciendo que su 
infraestructura sea altamente automatizada, 
multinube y como servicio. Para que pueda 
dedicar su tiempo, energía e inversiones a sus 
datos, sus aplicaciones y la creación de resultados 
comerciales y ventajas competitivas. Ahí es 
donde entra APEX, para unir nuestra nube y las 
capacidades de servicio.
utilizará middleware de nube híbrida para integrar la computación cuántica 
con la clásica en los flujos de trabajo. 
Señala Omeñaca (2022) 
La empresa Bosch se une con IBM en su transformación digital para 2025, el 
proveedor de tecnología y servicios habrá invertido 10.000 millones de euros en 
digitalización y conectividad. Dos tercios de esto se destinarán al desarrollo y la 
expansión de nuevas tecnologías prometedoras, con un enfoque en la sostenibilidad, 
la movilidad y la Industria 4.0. 
Desde la perspectiva del autor Omeñaca (2022) 
La asociación con IBM refuerza la importancia de las asociaciones para la 
transformación digital de Bosch: son una forma de reunir las fortalezas necesarias 
para el desarrollo rápido y exitoso de áreas prometedoras. Para aprovechar las 
oportunidades de la digitalización y desempeñar un papel activo en la configuración 
del mundo conectado, Bosch también está reclutando sistemáticamente socios con 
una sólida experiencia en TI y software. 
Como Señala (Technocio, 2022) 
HP mejora la cartera de HP Wolf Security para evitar que los atacantes se apoderen 
del acceso privilegiado a datos sensibles. Además anuncio sus mejoras a su 
El sistema Chrome OS de 
Google provee un sistema 
operativo ligero para la 
computación en la nube 
mediante el uso de netbooks. 
Los programas no se 
almacenan en la PC del 
usuario, sino que se utilizan a 
través de Internet y se accede a 
éstos por medio del navegador 
Web Chrome.
portafolio de protección para dispositivos endpoint HP Wolf Security, con el 
lanzamiento de Sure Access Enterprise (SAE).SAE
Protege a los usuarios 
que tienen derechos de 
acceso a datos, 
sistemas y aplicaciones 
confidenciales y evita 
que los atacantes 
tomen el control de 
estas sesiones 
privilegiadas. 
cuando los dispositivos 
de los usuarios se ven 
comprometidos, el 
acceso a sistemas y 
datos de alto valor 
puede permanecer 
seguro. 
evita que las pequeñas 
infracciones de puntos 
finales se conviertan en 
incidentes de seguridad 
importantes.
SAE utiliza 
virtualización avanzada 
reforzada por hardware 
para crear máquinas 
virtuales (VMs)
protegidas que están 
aisladas del sistema 
operativo de escritorio 
y, por lo tanto, no 
pueden ser vistas, 
influidas o controladas 
por él. 
De esta manera, puede 
garantizarse la 
confidencialidad y la 
integridad de la 
aplicación.
Y los datos al interior 
de las VMs protegidas, 
sin el costo operativo y 
la complejidad de 
proporcionar una 
estación de trabajo con 
acceso privilegiado de 
forma separada.
Microsoft Windows Server provee un sistema operativo y servicios de red a nivel 
empresarial. El software de sistema operativo cliente cada vez se vuelve más natural e 
intuitivo gracias al uso de la tecnología táctil. (Laudon & Laudon, 2012, p. 177) 
IPhone OS, el sistema operativo para los dispositivos Apple iPad, iPhone y iPod 
Touch, tiene una interfaz multitáctil en la que los usuarios usan sus dedos para manipular 
objetos en la pantalla. (Laudon & Laudon, 2012, p. 177) 
Según Gutierrez Solorio, una plataforma puede ser descrita simplemente como 
un sistema operativo o arquitectura de ordenador, o podría ser la combinación de ambos 
Los sistemas operativos son el software principal de un sistema informático y, por 
lo tanto, son la base que le posibilita al usuario la administración eficaz de los recursos de 
la computadora. Los sistemas operativos garantizan la interfaz de la computadora y 
entonces son la herramienta central que une al software, al hardware y al usuario. Por 
ejemplo: Mac OS X, Solaris, Fedora (Equipo Etecé, 2022). Según investigación de Equipo 
Microsoft Windows
El sistema operativo más utilizado en 
el mundo, en donde toda la 
información presentada es gráfica, 
permite realizar varias aplicaciones a 
la vez y contiene una forma fácil de 
realizar más rápido las tareas, al ser 
guiado paso a paso. Su característica 
de masivo hace que permanentemente 
sea repensado en función de hacerlo 
más intuitivo.
Mac OS X
Sistema operativo de Apple, integrado 
totalmente con las plataformas de 
Apple como iCloud, iMessage, así 
como con las redes sociales Twitter y 
Facebook. Contiene 
el navegador propio de Apple, Safari, 
y se propone como competitivo a 
Windows en diversas áreas.
GNU/Linux
Software libre más importante, que 
soporta el trabajo con más de un 
microprocesador y permite que toda la 
memoria pueda utilizarse como caché.
UNIX
Sistema operativo multitarea, enfocado 
en la comunicación por correos 
electrónicos y en la conexión a redes y 
su acceso.
Google Chrome OS
El sistema operativo de Google, 
diseñado específicamente para trabajar 
con la nube. Las aplicaciones en el 
sistema son mínimas, y se caracteriza 
por la simplicidad y por la velocidad. 
En un sistema de este tipo la cuestión 
de la seguridad se hace muy 
importante.
Solaris
Sistema operativo certificado como 
una versión de UNIX, caracterizado 
por ser muy adecuado para el 
procedimiento simétrico por soportar 
un gran número de CPUs.
FreeBSD
Sistema también basado en una 
versión de UNIX, que tiene como 
principal característica ser un 
verdadero sistema abierto porque todo 
su código fuente lo está. El tamaño de 
los programas es reducido por tener 
‘librerías compartidas’.
OpenBSD
Sistema operativo libre, que funciona 
con varios tipos diferentes de 
plataforma de hardware, reconocido 
por muchos profesionales de la 
seguridad informática como el sistema 
UNIX más seguro.
Haiku (BeOS)
Sistema de código abierto en 
desarrollo (iniciado en 2001), 
centrado en la informática 
personal y multimedia. Cuenta 
con una arquitectura de núcleo 
avanzada, con capacidad para 
múltiples procesadores. Sistema 
operativo tipo UNIX
Etecé (2022), los sistemas operativos son varios y se pueden clasificar de la siguiente 
manera: 
Clasificación de los Sistemas Operativos 
Los sistemas operativos para computadoras 
 
 
 
 
 
 
 
 
Aplicaciones de sistemas de operación basados en UNIX 
 
 
 
 
 
 
Debian
Sistema de software libre, que se 
encuentra precompilado, empaquetado 
y en un formato sencillo para 
diferentes arquitecturas y núcleos. 
También funciona con el sistema 
Linux.
Ubuntu
Distribución de Linux con versiones 
estables que se liberan cada 6 meses, 
que tiene como navegador oficial a 
Mozilla Firefox y que incluye 
funciones avanzadas de seguridad.
Mandriva
Distribución del sistema Linux, en 
desarrollo constante y con la 
característica de ser el más amigable 
entre las distribuciones Linux. Sin 
embargo, tiene como única unidad 
reconocida la lectora /hdc.
Sabayon
Sistema operativo con un propio 
gestor de paquetes binarios, con un 
instalador de modo gráfico y con la 
característica de ser muy funcional 
desde el primer instante. Es una 
distribución Linux.
Fedora
Proyecto de distribución Linux, que se 
destaca en seguridad e incluye DVDs, 
CDs y USBs para instalar, así como de 
rescate por si el sistema falla o debe 
ser reparado.
Linpus Linux
Sistema operativo preparado para 
computadoras ultra portátiles, basado 
en Fedora. Se trata de un sistema 
bastante intuitivo y sencillo.
SISTEMAS 
OPERATIV
OS 
Windows 
Phone
iOS
Bada
BlackBerr
y OS
Android
BlackBerr
y 10
Symbian 
OS
HP 
webOS
Firefox 
OS
Ubuntu 
Phone OS
 
Aplicaciones de sistemas de operación distribuidas por LINUX 
 
 
 
 
 
 
 
 
Los sistemas operativos para móviles 
 
 
 
 
 
 
 
Para Laudon & Laudon (2012), “consiste en las instrucciones detalladas y pre-
programadas que controlan y coordinan los componentes de hardware de computadora en 
un sistema de información”. 
Aplicaciones De Software Empresariales 
Los softwares para aplicaciones empresariales se tratan como componentes de la 
infraestructura de TI. 
Según Laudon & Laudon (2012, p. 51) se enfocan en ejecutar procesos de negocios 
a través de la empresa comercial e incluyen todos los niveles gerenciales. Ayudan a los 
negocios a ser más flexibles y productivos. 
Existen cuatro aplicaciones empresariales importantes: 
 
 
 
 
 
Sistemas 
empresariales
Sistemas de 
administración 
de la cadena 
de suministro
Sistemas de 
administración 
de las 
relaciones con 
los clientes
Sistemas de 
administración 
del 
conocimiento. 
 
Fundada en 1972, el nombre inicial de la empresa significaba "desarrollo de 
programas de sistemas de análisis" (Systemanalyse Programmentwicklung) y más tarde se 
abrevió como SAP. 
 
 
Las aplicaciones integradas de la empresa conectan todas las partes de un negocio 
con una suite inteligente en una plataforma totalmente digital, reemplazando así la 
plataforma heredada impulsada por procesos. 
Hoy en día, SAP tiene más de 230 millones de usuarios en la nube, más de 100 
soluciones que cubren todas las funciones de negocio y la cartera de productos en la nube 
más grande de todos los proveedores. 
SAP ofrece soluciones en una amplia gama de áreas: 
 
 
 
 
 
 
ERP y finanzas
CRM y 
experiencia del 
cliente
Gestión de red 
y gastos
Cadena de 
suministro 
digital
RR. HH. e 
interacción con 
el personal
Gestión de 
experiencias
Business 
Technology 
Platform
Transformación 
digital
Pequeñas y 
medianas 
empresas
Soluciones para 
la industria
 
¿Para qué se usa el software de SAP? 
Los modelos de negocio tradicionales a menudo descentralizan la gestión de datos, 
y cada función de negocio almacena sus propios datos operativos en una base de datos 
separada. Esto dificulta el acceso de los empleados de diferentes funciones de negociosa la 
información de los demás. Además, la duplicación de datos entre múltiples departamentos 
aumenta los costos de almacenamiento de TI y el riesgo de errores en los datos. 
 
 
 
 
 
 
 
 
 
En la actualidad, las empresas necesitan bases de datos escalables de alto 
rendimiento más que nunca. Muchos aprovechan Oracle DB para impulsar aplicaciones 
Al centralizar 
la gestión de 
datos
El software de SAP 
brinda múltiples 
funciones de 
negocio con una 
única visión de la 
verdad.
Gestiona mejor los 
procesos de negocio 
complejos dando a los 
empleados de 
diferentes 
departamentos un 
acceso fácil a 
información en 
tiempo real en toda la 
empresa.
Las empresas 
pueden acelerar los 
flujos de trabajo, 
mejorar la eficiencia 
operativa, aumentar 
la productividad
Mejorar las 
experiencias de 
cliente y, en última 
instancia, aumentar 
los beneficios.
empresariales para el procesamiento de transacciones en línea (OLTP, Online Transaction 
Processing), el almacenamiento de datos y el análisis empresarial. 
Los equipos de TI también necesitan un rendimiento según demanda de estas bases 
de datos para satisfacer las necesidades de desarrollo, pruebas, análisis y continuidad del 
negocio. 
Beneficios de Oracle: 
• Apoyo a las aplicaciones empresariales 
• Seguridad con confianza 
• Ahorro de tiempo con la automatización 
• Escala sin esfuerzo ni tiempo de inactividad 
• Poner todos los datos a trabajar 
• Implementación en cualquier lugar 
• Fácil acceso a la analítica y al machine learning 
• Acelerar el desarrollo de aplicaciones 
• Elección de recursos de código abierto 
 
 
 
 
 
BEA es datos, reportes y herramientas que permiten el diseño y transición a un 
nuevo modelo de movilidad urbana, inteligente, incluyente y sustentable. 
BEA es una empresa para la modernización del transporte público. 
• Diseñamos tecnología, servicios y consultoría para el transporte desde 1990 
hasta la actualidad 
• Rentabilidad y modernización para la empresa transportista. 
• Manufactura en México. 
• Desarrollo del software BEA. 
Para Laudon & Laudon (2012), “consiste en el software que gobierna la 
organización de los datos en medios de almacenamiento físico”. 
Para (Laudon & Laudon, 2012), “el software de gestión de bases de datos 
empresariales es responsable de organizar y administrar la información de la empresa, de 
modo que sea posible acceder a ella y utilizarla en forma eficiente” (p. 179). 
Se estima que la información digital aumenta a razón de 1.2 zettabytes al año. Po lo 
que las empresas recurren a las tecnologías de almacenamiento basadas en red (SAN) 
conectan varios dispositivos en una red separada de alta velocidad. Creando una gran 
reserva central de almacenamiento disponible para que varios servidores accedan a ella y la 
compartan. (Laudon & Laudon, 2012, pp. 179-180) 
Sistemas De Administración De Bases De Datos 
Permite a una organización centralizar los datos, administrarlos en forma eficiente y 
proveer acceso a los datos almacenados. Permite a una organización centralizar los datos, 
administrarlos en forma eficiente y proveer acceso a los datos almacenados mediante 
programas de aplicación. Po lo que los datos se almacenan en una sola base de datos, en 
donde la organización puede administrarlos con más facilidad. (Laudon & Laudon, 2012, p. 
212) 
Almacén de datos 
Para Laudon & Laudon (2012, p. 222) es una: 
Base de datos que almacena la información actual e histórica de interés potencial 
para los encargados de tomar decisiones en la compañía. Su función es de 
consolidar y estandarizar la información de distintas bases de datos operacionales, 
de modo que se pueda utilizar en toda la empresa para el análisis gerencial y la toma 
de decisiones. 
 
Se ha publicado una nueva versión de Db2 Big SQL en Octubre de 2022 con Cloud 
Pak for Data 4.5.3. Las actualizaciones de Db2® Big SQL pueden incluir nuevas 
características, arreglos de errores y actualizaciones de seguridad. Las actualizaciones se 
listan en orden cronológico inverso para que el último release esté al principio del tema. 
(IBM, 2022) 
 
 
El código fuente original de SQL Server que fue utilizado en las versiones previas a 
la versión 7.0 habría sido comprado de Sybase, pero fue actualizado en las versiones 7.0 y 
2000, y reescrito en la versión 2005. Su ultima actualizacion de la version de 15.0 fue en el 
año 2019. Hoy en día, el popular motor de bases de datos de Microsoft corre la v15.0, es la 
llamada SQL Server 2019. Este motor ha estado en constante mejora desde su creación, 
incluyendo cada vez más características adaptadas a las tecnologías «mainstream». 
 
MySQL fue inicialmente desarrollado por MySQL AB (empresa fundada por David 
Axmark, Allan Larsson y Michael Widenius). MySQL AB fue adquirida por Sun 
Microsystems en 2008, y ésta a su vez fue comprada por Oracle Corporation en 2010, la cual 
ya era dueña desde 2005 de Innobase Oy, empresa finlandesa desarrolladora del motor 
InnoDB para MySQL. 
 
MySQL es un sistema de gestión de bases de datos relacional desarrollado bajo 
licencia dual: Licencia pública general/Licencia comercial por Oracle Corporation y está 
considerada como la base de datos de código abierto más popular del mundo,12 y una de las 
más populares en general junto a Oracle y Microsoft SQL Server, todo para entornos de 
desarrollo web. 
MySQL es usado por muchos sitios web grandes y populares, como Wikipedia, 
Google (aunque no para búsquedas), Facebook, Twitter, Flickr, y YouTube. 
 
EMC realize su ultima actualizacion en el 2009 en los sistemas de almacenamiento 
de gama media y de entrada de los sistemas de deduplicación de almacenamiento Data 
Domain®, ayudando a orientar la continua escalabilidad del rendimiento y la capacidad en 
toda la línea de productos. 
 
 
 
 
• Los nuevos sistemas DD630, DD610 y DD140, similares a las soluciones de 
gama alta de EMC Data Domain, potencian la arquitectura escalable Data 
Domain’s SISL™ (Stream Informed Segment Layout) para incrementar de 
forma significativa los resultados en rendimiento y capacidad. 
• Los sistemas de Data Domain continúan liderando por precio y rendimiento 
el segmento de arquitecturas de procesadores multi-core y evitando la 
dependencia de subsistemas de almacenamiento sobredimensionados para 
obtener rendimiento. 
La mayor parte de las redes de área amplia empresariales extensas utilizan alguna 
variante de Unix. La mayoría de las redes de área local, así como las redes empresariales de 
área amplia, utilizan la suite de protocolos TCP/IP como estándar. (Laudon & Laudon, 
2012, p. 180) 
Los proveedores de hardware de red más importantes son Cisco, Alcatel-Lucent, 
Nortel y Juniper Networks. • Por lo general, las compañías de servicios de 
telecomunicaciones /telefónicos que ofrecen conectividad de voz y datos, redes de área 
amplia, servicios inalámbricos y acceso a Internet son las que proveen las plataformas de 
telecomunicaciones. 
Para Laudon & Laudon (2012), “consiste tanto de los dispositivos físicos como de 
software, conecta las diversas piezas de hardware y transfiere datos de una ubicación física 
a otra”. 
Tecnologías De Redes Digitales Clave 
La infraestructura de TI de una organización incluye todo el hardware, el software y 
los recursos de red necesarios para brindar servicios de TI dentro de la misma organización 
(Bits Marketing, 2022). Además, vale la pena mencionar que los componentes de la 
infraestructura de TI se pueden implementar y organizar de diferentes maneras. Algunos de 
los componentes que podemos encontrar en la típica infraestructura TI son: 
Computación 
cliente/servidor:
• ha extendido la 
computación a 
departamentos, 
grupos de trabajo, 
pisos de fábricas y 
otras partes de las 
empresas. Internet es 
la implementación 
más grande de la 
computación cliente/ 
servidor. (Laudon & 
Laudon, 2012, p. 250)
Conmutación de 
paquetes:

Continuar navegando