Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
ADMINISTRACIÓN DE EMPRESAS SISTEMA DE INFORMACION RONNY MAURICIO CUEVA DAVILA FABIAN ALEXANDER GUIRACOCHA JIMENEZ PAOLA SILVANA VALVERDE VASQUEZ NALLELY MAYLI ZAMBRANO GÓMEZ ING. EDISON TOAPANTA 6TO “B” LOJA-ECUADOR DESAFÍOS DE INTERNET PARA LA PRIVACIDAD SEMANA 6 Plantea Laudon & Laudon (2012),“La tecnología de Internet ha impuesto nuevos desafíos para la protección de la privacidad individual. La información que se envía a través de esta enorme red de redes puede pasar por muchos sistemas computacionales distintos antes de llegar a su destino final” (p. 134). Arellano & Ochoa (2012) menciona que: La privacidad es un derecho importante y un facilitador fundamental de la autonomía personal, la dignidad y la libertad de expresión. Aunque no existe una definición de privacidad universalmente aceptada, en el contexto de Internet en general se conviene que privacidad es el derecho de determinar cuándo, cómo y en qué medida los datos personales pueden ser compartidos con terceros. • Los sitios Web pueden conocer las identidades de sus visitantes si éstos se registran de manera voluntaria en el sitio para comprar un producto o servicio, o para obtener un servicio gratuito, como cierta información. • Los sitios Web también pueden capturar información sobre los visitantes sin que éstos lo sepan, mediante el uso de la tecnología de cookies. Para García (2013) “Las cookies son dispositivos de almacenamiento y recuperación de datos que se descargan en el equipo terminal de un usuario con la finalidad de almacenar datos que podrán ser actualizados y recuperados por la entidad responsable de su instalación” (236) Pues según la política de cookies, esta es un fichero o archivo de texto que un servidor web puede guardar en el disco duro de un equipo para almacenar información sobre los usuarios y solo puede ser leída por el sitio web que lo envió al equipo. Tipos de cookies Cookies Persistentes: Permanecen en el disco duro de la terminal hasta que el usuario las elimina o expiran. Cookies de sesión: Este tipo de cookies están diseñadas para recabar y almacenar datos mientras el usuario accede a una página web. Según el plazo de tiempo que permanecen activadas Según su finalidad • Actualmente los sitios web que utilizan la tecnología de cookies no pueden obtener de manera directa direcciones o nombres de quienes visiten la página. • A pesar de ello si una persona se registra en tal sitio se puede combinar esa información con los datos que existan en las cookies para poder identificar a la persona que esté visitando la página. • Muchas veces los propietarios de las páginas web combinan los datos que recopilan las cookies con otras ciertas herramientas de monitoreo de estos sitios para obtener información personal y con aquellos datos recolectados desarrollan perfiles más detallados para sus visitantes. Cookies técnicas: Son aquéllas que permiten al usuario la navegación a través de una página web, plataforma o aplicación y la utilización de las diferentes opciones o servicios que en ella existan. Cookies de personalización: Son aquéllas que permiten al usuario acceder al servicio con algunas características de carácter general predefinidas en función de una serie de criterios en el terminal del usuario. Cookies de análisis: Son las cookies que bien tratadas por nosotros o por terceros, nos permiten cuantificar el número de usuarios y así realizar la medición y análisis estadístico de la utilización que hacen los usuarios del servicio ofertado. Cookies de publicitarias: Son aquéllas que permiten la gestión, de la forma más eficaz posible, de los espacios publicitarios Cookiesde publicidad comportamental: Estas cookies almacenan información del comportamiento de los usuarios obtenida a través de la observación continuada de sus hábitos de navegación. Señala Laudon y Traver ( 2011), “La mayoría de las empresas en Internet hacen poco por proteger la privacidad de sus clientes, y los consumidores no hacen todo lo que deberán por protegerse” Actualmente los comercializadores usan herramientas para monitorear el comportamiento en línea, a continuación, se observa un cuadro con ciertas herramientas de monitoreo: Los bugs Web, también conocidos como bichos. Web, son pequeños objetivos incrustados de manera invisible en los mensajes de correo electrónico y las páginas Web, los cuales están diseñados para monitorear el comportamiento del usuario que visita un sitio o envía un correo electrónico. El spyware se puede instalar de manera secreta a sí mismo en la computadora de un usuario de Internet, para lo cual se aprovecha de las aplicaciones más grandes. Una vez instalado, se contacta con los sitios Web para que envíen anuncios tipo pancarta y diversos tipos de material no solicitado al usuario, y también puede informar sobre los movimientos del usuario en Internet a otras computadoras. Google ha estado utilizando el marketing dirigido con base en el comportamiento para que le ayude a mostrar anuncios más relevantes basados en las actividades de búsqueda de los usuarios. Las empresas individuales como AOL, Yahoo! y Google adoptaron hace poco sus propias políticas, en un esfuerzo por lidiar con la opinión pública acerca del rastreo de las personas en línea. CLICK TALE Se trata de una herramienta de analítica web que muestra el comportamiento de los usuarios dentro de un sitio web. La herramienta se encarga de grabar vídeos y analizar las sesiones de los visitantes dentro del sitio web. Por tanto, es una herramienta ideal para controlar las conversiones, la forma de comportarse ante los formularios de los usuarios y analizar cómo navegan por tus landing pages o sitios corporativos. WOORANK Woorank facilita datos sobre el estado del sitio web, así como listas de consejos y recomendaciones a implementar. Estos datos son de una gran ayuda para el posicionamiento en buscadores lo que te permitirá poder convertir más visitas en clientes, obtener un mejor ROI y monitorizar a tus competidores. IMPROVELY Improvely es una herramienta para visualizar el comportamiento de los usuarios en tu sitio web que permite rastrear clics, aspectos y ventas a través de los anuncios online. Según Laudon & Laudon (2012): Además de la legislación, hay nuevas tecnologías disponibles para proteger la privacidad de los usuarios durante las interacciones con los sitios Web. Muchas de estas herramientas se utilizan para encriptar correo electrónico, para hacer que las actividades de enviar/recibir correo electrónico o navegar en Web parezcan anónimas, para evitar que las computadoras cliente acepten cookies o para detectar y eliminar el spyware. Según Laudon & Laudon (2012) “Internet Explorer permite a los usuarios ajustar sus computadoras para rechazar todas las cookies o permitir cookies seleccionadas con base en niveles específicos de privacidad” (p. 139). Menciona K. C. Laudon (2009): P3P es un estándar diseñado para comunicar a los usuarios de Internet la directiva de privacidad de un sitio Web, y comparar esa directiva con las propias preferencias de cada usuario, o con otros estándares como los lineamientos de FIP de la FTC, o la Directiva de Protección de Datos de la Unión Europea Recalca Laudon & Laudon(2012): En la actualidad existen herramientas que ayudan a los usuarios a determinar el tipo de datos personales que los sitios web desean extraer y una de esas plataformas más utilizadas es la de preferencias de privacidad, que también es conocida como P3P, Críticos señalan que un pequeño porcentaje de los sitios Web más populares usan P3P La mayoría de los usuarios de privacidad de su navegador y no hay forma de hacer cumplir los estándares P3P La P3P permite la comunicación automática de las directivas de privacidad entre los sitiosde comercio electrónico y los consumidores. dentro de esta plataforma se permite la comunicación de manera automática de las políticas de privacidad entre un sitio de comercio electrónico y de los usuarios visitantes. Menciona (Laudon & Laudon,2012). • El estándar P3P permite a los sitios Web publicar políticas de privacidad - En un formato que las computadoras puedan comprender. • Una vez que se codifica de acuerdo con las reglas del estándar P3P, la política de privacidad se vuelve parte del software para las páginas Web individuales Desde la perspectiva de K. C. Laudon (2009): funciona a través del navegador Web de un usuario permite a los sitios traducir sus directivas de privacidad en un formato XML estandarizado Las máquinas puedan leer ya sea mediante el navegador o utilizando complementos de software instalados. En el lado del cliente usuario, el navegador obtiene automáticamente la directiva de privacidad de un sitio Web e informa al usuario. Se integra en los navegadores como Firefox e Internet Explorer 6.0/7.0. (p.504) Cañon López (2006) considera que: Un sitio web que contemple la utilización del standard P3P declararía que tipo de información almacena y para qué es almacenada: esto no es más que definir su política de privacidad. Lo que ocurre es que esta información es almacenada tal y como nos indica el standard, de forma que un navegador con la capacidad P3P activada puede decidir qué hacer comparando la política del sitio web visitado con las preferencias del usuario. La propiedad intelectual se considera como la propiedad intangible creada por individuos o corporaciones. La tecnología de la información ha dificultado el proceso de proteger la propiedad intelectual, ya que es muy fácil copiar o distribuir la información computarizada en las redes. Según Santa (2006) “La propiedad intelectual (PI) cubre distintas categorías de derechos y comprende instrumentos legales e institucionales que protegen, bajo determinados requisitos, las creaciones del intelecto o de objetos vinculados a una actividad creativa” (07). Desde el punto de vista Laudon & Laudon(2012) “La propiedad intelectual está sujeta a una variedad de protecciones bajo tres tradiciones legales distintas: secretos comerciales, derechos de autor y ley de patentes” (pp. 138-139). La Propiedad Intelectual otorga al autor, creador e inventor el derecho de ser reconocido como titular de su creación o invento y, por consiguiente, ser beneficiario del mismo. En Ecuador, el Servicio Nacional de Derechos Intelectuales (SENADI) es el organismo encargado de proteger, fomentar, divulgar y conducir el buen uso de la Propiedad Intelectual desde el enfoque de tres áreas distintas: propiedad industrial, derecho de autor y derechos conexos y obtenciones vegetales y conocimientos tradicionales. Los derechos intelectuales se refieren a las creaciones de la mente, tales como obras literarias, artísticas, invenciones científicas e industriales, así como los símbolos, nombres e imágenes utilizadas en el comercio. (SENADI, s.f.) El derecho de autor es independiente, compatible y acumulable con: Objetivo de la ley de propiedad intelectual Menciona K. C. Laudon (2009),” Es equilibrar dos intereses en conflicto: el público y el privado” (p.508). Menciona K. C. Laudon (2009), “La tecnología de la información ha dificultado el proceso de proteger la propiedad intelectual, ya que es muy fácil copiar o distribuir la información computarizada en las redes” (p.508) Se da servicio al interés público mediante la creación y distribución de invenciones, obras de arte, música, literatura y otras formas de expresión intelectual. Se da servicio al interés privado al recompensar a las personas que crearon estas obras, mediante la conformación de un monopolio de tiempo limitado por el que se otorga el uso exclusivo al creador La propiedad y otros derechos que tengan por objeto la cosa material a la que esté incorporada la obra; Los derechos de propiedad industrial que puedan existir sobre la obra Los otros derechos de propiedad intelectual reconocidos por la ley. • La propiedad intelectual está sujeta a una variedad de protecciones bajo tres tradiciones legales distintas: secretos comerciales, derechos de autor y ley de patentes - VARIEDAD DE PROTECCIONES Secretos comerciales Normalmente las leyes de los secretos comerciales conceden un tipo monopolio sobre las ideas detrás de un producto de trabajo, pues contiene un software con elementos, procedimientos o complicaciones nuevas y únicas que se puede incluir como un secreto comercial. Existe la ley de los secretos comerciales que protege las ideas actuales de un producto de trabajo y no solo su manifestación. Derechos de autor Los derechos de autor, o copyright, son una concesión legal que protege a los creadores de propiedad intelectual contra la copia por parte de otras personas para cualquier fin durante la vida del autor y durante 70 años más después de su muerte. Patentes Una patente otorga al propietario un monopolio exclusivo sobre las ideas detrás de una invención durante 20 años. Según Laudon & Laudon (2012), “Cualquier producto del trabajo intelectual , una fórmula, dispositivo, patrón o compilación de datos ,que se utilice para un fin comercial se puede clasificar como secreto comercial, siempre y cuando no se base en información en el dominio público (p.139). Newman (2006) menciona que: En cuanto los secretos comerciales la Organización Mundial de la Propiedad Intelectual (OMPI) consideran incluida en esta categoría a toda la información confidencial que confiera una empresa una ventaja competitiva. Así, la materia objeto de los secretos comerciales incluye métodos de venta y de distribución, perfiles de consumidor tipo, estrategias de publicidad, lista de proveedores y clientes y en general todo tipo de información no divulgada que pueda tener importancia para su propietario, que por lo general no es de conocimiento público. (405) En general, las leyes de secretos comerciales conceden un monopolio sobre las ideas detrás del producto de un trabajo, pero puede ser un monopolio muy poco claro. La limitación de la protección de los secretos comerciales es que, aunque casi todos los programas de software de cualquier complejidad contienen elementos únicos de alguna clase, es difícil evitar que las ideas en la obra caigan en el dominio público cuando el software se distribuya de manera amplia. Laudon & Laudon (2012): Los derechos de autor, o copyright, son una concesión legal que protege a los creadores de propiedad intelectual contra la copia por parte de otras personas para cualquier fin durante la vida del autor y durante 70 años más después de su muerte. Para las obras que pertenecen a corporaciones, la protección de los derechos de autor dura 95 años a partir de su creación inicial.( pp. 138-139) Menciona K. C. Laudon (2009), “Ley de derechos de autor protege las formas originales de expresión, como escritos, arte, dibujos, fotografías, música, películas, actuaciones y programas de computadora, para evitar que otros hagan copias de ellas durante un mínimo de 70 años” (p.509) Menciona K. C. Laudon (2009): Los derechos de autor protegen contra la copia de programas completos o una de sus partes. Las compensaciones por los daños se obtienen con rapidez al momento de una infracción (p.509) La desventaja de la protección de los derechos de autor es que no se protegen las ideas subyacentes detrás de una obra, sólo su manifestación en ésta. Un competidor puede usar su software, comprender cómo funciona y crear nuevo software que siga los mismos conceptos sin infringir los derechos de autor. Pulido, Palma, & Aguado (2016)Indican que: La función de los derechos de autor es remunerar e incentivar la creatividad, la cual lleva a idear nuevos conocimientos, bienes y servicios. Las primeras nociones económicas sobre derechos de autor giraban en torno al monopolio legal y a la posibilidad que esta modalidad de propiedad intelectual brindaba a los titulares para limitar el uso y el acceso a los bienes y servicios. Análisis Económico De Los Derechos De Autor Para Pulido, Palma, & Aguado (2016) los elementos clave para el análisis económico fueron los siguientes: • La expectativa de recompensa directa mediante derechos de autor solo explicaba parte de la producción literaria. • El monopolio de estos derechos permite que los autores aumenten sus ingresos limitando la oferta. • Estos derechos hacen posible que los autores escriban más, pero existe un menor número de copias. • Estos derechos alientan la divergencia de intereses entre autor y editor. El autor está más interesado que el editor en fijar un precio cercano al de monopolio. • El carácter no discriminatorio de los derechos, sin importar el riesgo que asuma cada autor/creador. En lo que sigue, el análisis de los derechos de autor se centra en tres aspectos: su justificación económica, la naturaleza del poder de mercado y las doctrinas económicas. Para Icaza (2007) “Una patente es un documento oficial otorgado a un inventor por un gobierno. Ese documento suele dar el derecho al inventor de impedir que alguien copie, utilice, distribuya o venda la invención sin su permiso” (18). Plantea K. C. Laudon (2009), “Una patente otorga al propietario un monopolio exclusivo sobre las ideas detrás de una invención durante 20 años. Las patentes son muy distintas a los derechos reservados, en cuanto a que protegen las ideas en sí y no sólo la expresión de las mismas” Los conceptos clave en la ley de patentes son, novedad e invención. La solidez de la protección de las patentes es que concede un monopolio sobre los conceptos y las ideas subyacentes del software. La dificultad es aprobar los rigurosos criterios de la no evidencia (es decir, la obra debe reflejar cierta comprensión y contribución especial), originalidad y novedad, así como los años de espera para recibir protección. Las patentes motivan a los inventores a idear nuevas formas únicas de obtener la misma funcionalidad que las patentes existentes Hay cuatro tipos de inventos para las que se otorgan patentes ¿Por qué son importantes las patentes? Según Icaza (2007) la importancia de las patentes radica en los siguientes aspectos: Las invenciones son el resultado de un arduo trabajo. Tras largas investigaciones y experimentos para convertir esa idea en una invención útil y viable. Los inventores merecen una recompensa por el tiempo que han dedicado a desarrollar sus ideas. Necesitan esa seguridad de que al compartir su invención no sea robada, la utilice o la copie sin su consentimiento. Máquinas, productos fabricados por el hombre, composiciones de materia y métodos de procesamiento. Para poder recibir una patente, el solicitante debe mostrar que la invención es nueva, original, novedosa Los inventores no patentaron la mayoría de las invenciones que hacen posible el funcionamiento de Internet y el comercio electrónico Las patentes ofrecen una recompensa y una protección a los inventores, pero también benefician a la sociedad. A cambio de su protección por patente, los inventores aceptan revelar toda la información técnica sobre su invención. (18) La proliferación de las redes electrónicas, incluyendo Internet, ha dificultado aún más la acción de proteger la propiedad intelectual. Mediante las redes, la información se puede reproducir y distribuir con mucha más amplitud. Laudon & Laudon (2012)”Internet se diseñó para transmitir información libremente alrededor del mundo, aún la que tiene derechos de autor. La información se puede copiar de manera ilícita de un lugar y distribuirse por otros sistemas y redes, aun cuando estas partes no participen de manera consciente en la infracciónp” (141). Laudon & Laudon ( 2012,) “Además de las leyes de privacidad y de propiedad, las nuevas tecnologías de la información desafían las leyes de responsabilidad legal existentes así como las prácticas sociales de rendición de cuentas de los individuos y las instituciones p. 141) Pues todos los sistemas y las instituciones en las que es imposible averiguar quién tomó tal acción, son por naturaleza e incapaces de un análisis ético o de alguna acción ética. Laudon & Laudon, 2012: La responsabilidad legal se extiende a un concepto de responsabilidad hasta el área de ley. Debido a esto existen características que se relacionan a estas sociedades gobernadas por leyes en donde los procesos de normas se conocen y se comprenden, debido a esto existe la habilidad de apelar a las autoridades de nivel superior para asegurar a que todas las leyes sean aplicadas de manera correcta ( p. 141). Dentro de estos conceptos básicos se forman los fundamentos de análisis éticos de los sistemas de información y de quiénes lo administran: Problemas de responsabilidad legal relacionados con las computadoras P un to s fu nd am en ta le s En primer lugar, las tecnologías de la información se filtran a través de instituciones sociales, organizaciones e individuos. Los sistemas no tienen impactos por sí solos. Los impactos que existan de los sistemas de información son productos de acciones y comportamientos institucionales, organizacionales e individuales. En segundo lugar, la responsabilidad de las consecuencias de la tecnología recae sin duda en las instituciones, organizaciones y gerentes individuales que eligen usar la tecnología. Utilizar la tecnología de la información de una manera socialmente responsable significa que, quien la usa puede ser y será considerado responsable de las consecuencias de sus acciones En tercer lugar, en una sociedad ética y política, los individuos y otras entidades pueden recuperarse de los daños sufridos por medio de un conjunto de leyes caracterizadas por el debido proceso. En la medida en que el software sea parte de una máquina, y ésta provoque daños físicos o económicos, el productor del software y el operador se pueden hacer responsables legales de los daños. En general, es muy difícil (si no imposible) responsabilizar de manera legal a los productores de software por sus productos que se consideran parecidos a los libros, sin importar el daño físico o económico que resulte. Según Laudon & Laudon (2012) Es posible hacer responsables a los individuos y las organizaciones por consecuencias que se puedan evitar y prever, lo cual tienen el deber de percibir y corregir. - Y el área gris es que algunos errores de sistemas son predecibles y corregibles sólo mediante un costo muy alto, tan alto que no es económicamente viable buscar este nivel de perfección; nadie podría costear el producto. - Las tres principales fuentes de un mal desempeño del sistema son Laudon & Laudon (2012), “Hay una barrera tecnológica que impide lograr el software perfecto y los usuarios deben estar conscientes del potencial de una falla Dada la centralidad del software en cuanto a la vida diaria, hay excelentes probabilidades de que la ley de responsabilidad legal extienda su alcance para incluirlo, aun y cuando tan sólo provea un servicio de información. catastrófica. La industria del software aún no ha ideado estándares de prueba para producir software con un desempeño aceptable pero no perfecto (p. 143) Según Morales (2018) “aparte de las leyes de privacidad y de propiedad, las nuevas tecnologías de la información desafían las leyes de responsabilidad legal existentes, así como las prácticas sociales de rendición de cuentas de los individuos y las instituciones”. La calidadde sistemas de información no es una cuestión de data Quality únicamente, sino que también depende del entorno empresarial y la forma en que los procesos de negocio y los propios usuarios emplean los datos. . Piñate (2019) Un dato de calidad es aquél que se ajusta al uso para el que se destina y cumple con los requisitos de exactitud, fiabilidad, completitud, actualización y consistencia. Pero, para salvaguardarlos, es necesario que la organización dicte las políticas necesarias al respecto. Bugs y errores de software Fallas de hardware o de las instalaciones provocadas por casusas naturales o de otro tipo Mala calidad de los datos de entrada. Las tres principales fuentes de un mal desempeño del sistema son Resulta conveniente el proponer un estándar de calidad del sistema de información en base a cinco dimensiones, desde el punto de vista del usuario: Aunque es probable que los errores o bugs de software y las catástrofes en las instalaciones se informen de manera extensa en la prensa, hasta ahora la fuente más común de falla en los sistemas de negocios es la calidad de los datos. Para Laudon & Laudon (2012) “Las computadoras y las tecnologías de la información pueden llegar a destruir elementos valiosos de nuestra cultura y sociedad, incluso aunque nos brinden beneficios” (p. 143) A/ Disponibilidad: es el grado de comodidad para los usuarios a la hora de obtener datos e información relacionada. Para su evaluación, puede descomponerse en tres elementos: accesibilidad, autorización y puntualidad. B/ Facilidad de uso: alude al grado de utilidad de los datos, en función de la idoneidad con que sean capaces de cumplir con las necesidades de los usuarios. C/ Fiabilidad: se refiere al potencial del dato para resultar confiable, en base a su precisión, consistencia, integridad y suficiencia. D/ Pertinencia: se utiliza para describir el grado de correlación entre el contenido de los datos y las expectativas o demandas de los usuarios. La adaptabilidad sería considerada como un valor. E/ Calidad de la presentación: se refiere al modo en que se describen los datos y la manera en que el usuario los percibe. Debe tratarse de una presentación que permita a los usuarios comprenderlos y puede evaluarse en función de variables como la legibilidad y la estructura. A continuacion se encuentran detallados cada uno de los puntos señalados: Balanceo del poder: centralizado vs. periférico Afirma Laudon & Laudon (2012), “Uno de los primeros temores de la era de las computadoras fue que las enormes computadoras mainframe centralizarían el poder en las oficinas corporativas y en la capital de la nación”(143) Rapidez del cambio: tiempo de respuesta reducido para la competencia El cambio hacia una computación muy descentralizada, acoplado con una ideología de otorgamiento de poderes a miles de trabajadores, junto con la descentralización de la toma de decisiones hacia niveles más bajos en la organización, han reducido los temores de la centralización del poder en las instituciones. Perdida de empleo Dependencia y Vulnerabilid ad Equidad y Acceso Rapidez al Cambio Balanceo de poder Riesgos de Salud:RSI, CVS Y tecnoestres Mantenimien to de los límites Crimen por Computador a y abuso de la computadora La competencia basada en tiempo tiene un lado malo: la empresa para la que usted trabaja tal vez no tenga suficiente tiempo para responder a los competidores globales y quede fuera del camino en un año, junto con su empleo. Mantenimiento de los límites: familia, trabajo y diversión Desde la perspectiva de Laudon & Laudon (2012): El peligro de la computación ubicua, el teletrabajo, la computación nómada y el entorno de computación tipo “haga cualquier cosa en cualquier parte” es que en realidad se está volviendo verdad. Los límites tradicionales que separan el trabajo de la familia y la diversión simple y pura se han debilitado. (, p. 144) Dependencia y vulnerabilidad Incluso el tiempo libre invertido en la computadora amenaza estas relaciones sociales estrechas. El uso intensivo de Internet, incluso para fines de entretenimiento o recreativos, aleja a las personas de su familia y amigos. Entre los niños de edad escolar media y los adolescentes, puede conducir a un comportamiento antisocial dañino, como el reciente aumento en el fenómeno del “cyberbullying”. Ahora que los sistemas son tan ubicuos como el sistema telefónico, es asombroso recordar que no hay fuerzas regulatorias o normalizadoras vigentes que sean similares a las tecnologías telefónica, eléctrica, de la radio, la televisión o cualquier otra tecnología de servicios públicos. Es probable que la ausencia de estándares y la criticidad de ciertas aplicaciones de sistemas requieran la presencia de estándares nacionales y tal vez de una supervisión regulatoria. Crimen por computadora y abuso de la computadora Laudon & Laudon (2012), “El crimen por computadora es la acción de cometer actos ilegales a través del uso de una computadora, o contra un sistema computacional”(p.145). A los crímenes de computadora se los denomina como delitos informáticos: Tipos de delitos informativos • Piratería informática (hacking) • Robo cibernético • Uso no autorizado en el trabajo • Piratería de software • Piratería de la propiedad intelectual • Virus y gusanos informáticos Representa un reto importante para el uso ético de las TI. Ya que estos constituyen una grave amenaza para la integridad, seguridad y supervivencia de la mayoría de los sistemas de información y esto hace que sea prioritario el desarrollo de métodos de seguridad eficaces. (O´Brien & Marakas, 2006, p. 439) Las computadoras o sistemas computacionales pueden ser el objeto del crimen, así como el instrumento del mismo. El simple hecho de acceder a un sistema computacional sin autorización o con la intención de hacer daño, incluso por accidente, se considera ahora un delito federal. (p. 145) La popularidad de Internet y del correo electrónico ha convertido una forma de abuso de la computadora (el correo basura, o “spamming”) es un grave problema tanto para individuos como para las empresas. Empleo: tecnología de derrame y pérdida de empleos de reingenieria Desde el punto de vista de Rifkin (1993): El trabajo de reingeniería es aclamado en la comunidad de los sistemas de información como un importante beneficio de la nueva tecnología de la información. Un economista ha externado la posibilidad de que vamos a crear una sociedad operada por una pequeña “elite de profesionales corporativos de alta tecnología en una nación de los desempleados permanentes”. Otros economistas creen que liberar a los trabajadores brillantes y educados de los empleos de reingeniería provocará que éstos avancen a mejores empleos en industrias de rápido crecimiento. Equidad y acceso: incremento de las divisiones raciales y de clase sociales Lo que se sabe es que la información, el conocimiento, las computadoras y el acceso a estos recursos por medio de las instituciones educativas y las bibliotecas públicas se distribuyen a lo largo de las líneas étnicas y de las clases sociales, al igual que muchos otros recursos de información. Los grupos de interés público quieren reducir esta brecha digital al poner los servicios de información digital (que abarcan Internet) a disposición de casi cualquier persona, de la misma forma que el servicio telefónico en la actualidad. La planificación cuidadosa y la sensibilidad para con las necesidades de los empleados pueden ayudar a las compañías a rediseñar el trabajo para minimizar las pérdidas de empleos. Riesgos de salud: RSI, CVS y tecnoestrés La RSI ocurre cuando se fuerzan grupos de músculos debido a acciones repetitivas con cargas de alto impacto,o a decenas de miles de repeticiones con cargas de bajo impacto Señala Beck (2010), “Los elementos que contribuyen a una postura apropiada y a reducir la RSI son; el diseño de estaciones de trabajo para una posición neutral de la muñeca (mediante el uso de un descanso de muñeca para apoyarla), las bases apropiadas para los monitores y descansos para los pies” Para finalizar se desarrolla un conclusion final del aprendizaje adquirido en la tarea investigativa. La enfermedad ocupacional más común en la actualidad es la lesión por esfuerzo repetitivo (RSI). Es posible evitar las RSI con uso teclados ergonómicos. Estas medidas deben complementarse con descansos frecuentes y la rotación de los empleados en distintos trabajos. El síndrome de visión de computadora (CVS) se refiere a cualquier condición de fatiga ocular relacionada con el uso de las pantallas en las computadoras de escritorio, laptops, lectores electrónicos, teléfonos inteligentes y videojuegos portátiles. La enfermedad más reciente relacionada con las computadoras es el tecnoestrés: el estrés inducido por el uso de las computadoras. Los síntomas incluyen fastidio, hostilidad hacia los humanos, impaciencia y fatiga. Además de estas enfermedades, la tecnología de las computadoras puede estar dañando nuestras funciones cognitivas. Arellano, W., & Ochoa, A. M. (03 de 09 de 2012). Scielo. Obtenido de Scielo: https://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1870- 21472013000100010 Beck, M. (2010). Becoming a Squinter Nation. New York: The Wall Street Journal. Cañon López, M. (2006). Plataforma de Preferencias de Privacidad: Un caso pr´actico, el mundo. Falconí, D. J. (16 de junio de 2011). Ecuador y su primera Ley Orgánica de Protección de Datos Personales. Obtenido de Ecuador y su primera Ley Orgánica de Protección de Datos Personales: https://dpd.aec.es/ecuador-y-su-primera-ley-organica-de- proteccion-de-datos-personales/ FUNDACIÓN PRO-RAE. (2019). Real Academia Española. Obtenido de Real Academia Española: https://www.rae.es/ García, F. J. (2013). Las cookies en los principales cibermedios generalistas de España. Mhcj, 233 a 261. Icaza, M. (2007). Aprender del pasado para crear el futuro: invenciones y pantentes. Organización Mundial de la Propiedad Intelectual. Laudon, K. C. (2012). Sistemas de información gerencial. México: Pearson. Laudon, K. C., & Laudon, J. P. (2012). Sistemas de información gerencial. México: Pearson. Laudon, K., & Guercio, C. (2011). E-Commerce: Business, Technology, Society. New York: Pearson. Morales, M. (2018). Universidad Ecotec. Obtenido de ecotec.edu.ec: https://bit.ly/3ia1FEN Newmann, E. M. (2009). Los Secretos Comerciales y el Know How en las Iniciativas Privadas de Inversión. Dialnet, 397 - 406. O´Brien, J. A., & Marakas, G. M. (2006). Sistemas de Información Gerencial (Séptima ed.). México: Mc Graw Hill. Piñate, M. (2019). Comunicacion y gerencia. UNIVERSIDAD BICENTENARIA DE ARAGUA. Pulido, N., Palma, L., & Aguado, L. (2016). Derechos de Autor. Enfoque económico, evolución y perspectiva. Revista de Economía Institucional, 151 - 169. Rifkin, J. (1993). Watch Out For Trickle-Down Technology. New York: The New York Times Archives. Santa, M. (2006). Los derechos de propiedad intelectual en los acuerdos de libre comercio celebrados por países de América Latina con países desarrollados. Santiago de Chile: Naciones Unidas. SENADI. (s.f.). Derechos Intelectuales. Obtenido de Derechos Intelectuales: http://www.sice.oas.org/int_prop/nat_leg/ecuador/l320a.asp#:~:text=El%20derech o%20de%20autor%20es,intelectual%20reconocidos%20por%20la%20ley. Velasco Burgos, B. (2022). Tecnologías de Información y Comunicación y su apropiación en instituciones educativas. Zulia: Revista Venezolana De Gerencia. Obtenido de https://produccioncientificaluz.org/index.php/rvg/article/view/38801/43252 SEMANA 7 Según Laudon & Laudon (2012), “Todas estas tecnologías, junto con las personas requeridas para operarlas y administrarlas, representan recursos que se pueden compartir en toda la organización y constituyen la infraestructura de tecnología de la información (TI) de la empresa” (p.21) La infraestructura de TI incluye la inversión en: La infraestructura de TI provee la base, o plataforma, sobre la que una empresa puede crear sus sistemas de información específicos. Cada organización debe diseñar y administrar con cuidado su infraestructura de TI, de modo que cuente con el conjunto de servicios tecnológicos que necesita para el trabajo que desea realizar con los sistemas de información. Hardware Software Servicios como consultoría, educación y capacitación que se comparten a través de toda la empresa o de unidades de negocios completas en ésta. La infraestructura de TI de una empresa provee la base para dar servicio a los clientes, trabajar con los distribuidores y gestionar los procesos de negocios internos Según el autor Laudon & Laudon (2012), “definen la infraestructura de tecnología de la información (TI) como los recursos de tecnología compartidos que proveen la plataforma de TI para las aplicaciones de sistemas de información específicas para la empresa” (p.165). Según el autor Laudon & Laudon (2012): La infraestructura de TI consiste en un conjunto de dispositivos físicos y aplicaciones de software requeridas para operar toda la empresa. (p.166) . Sin embargo, esta infraestructura también es un conjunto de servicios a nivel empresarial presupuestado por la gerencia, que abarca las capacidades tanto humanas como técnicas Mencionan Laudon & Laudon (2012), “La infraestructura de TI en las organizaciones actuales es el fruto de más de 50 años de evolución en las plataformas de computadora” (p.166). Plantean Laudon & Laudon (2012), “cinco etapas en esta evolución, cada una de las cuales representa una distinta configuración de poder de cómputo y elementos de la infraestructura” (p.166). Las tecnologías que caracterizan una era también se pueden usar en otro periodo de tiempo para otros fines. . computación con mainframes y minicomputad oras microcomputa doras mejor conocidas como computadoras personales las redes cliente/servido r la computación empresarial la computación en la nube y móvil. Por ejemplo, algunas compañías todavía utilizan sistemas mainframe tradicionales o usan computadoras mainframe como servidores masivos para dar soporte a sitios Web grandes y aplicaciones empresariales corporativas Mencionan Laudon & Laudon (2012), La introducción de las máquinas transistorizadas IBM 1401 y 7090 en 1959 marcó el principio del uso comercial extendido de las computadoras mainframe. En 1965, la computadora mainframe llegó a su momento máximo con la introducción de la serie IBM 360. La cual fue la primera computadora comercial con un poderoso sistema operativo que podía proveer: IBM dominó el área de las computadoras mainframe desde este punto en adelante. tiempo compartido multitareas memoria virtual en modelosmás avanzados • Estas computadoras tenían el suficiente poder como para dar soporte a miles de terminales remotas en línea, conectadas a la mainframe centralizada mediante el uso de protocolos de comunicación y líneas de datos propietarios. Desde la perspectiva de Laudon & Laudon (2012): Era de la mainframe fue un periodo de computación con alto grado de centralización bajo el control de programadores y operadores de sistemas profesionales (por lo general en un centro de datos corporativo) la mayoría de los elementos de la infraestructura los proveía un solo distribuidor, el fabricante del hardware y del softwareEste patrón empezó a cambiar con la llegada de las minicomputado ras producidas por Digital Equipment Corporation (DEC) en 1965. la minicomputadora evolucionó en una computadora o servidor de medio rango y forma parte de una red. La aparición de la IBM PC en 1981 se considera como el inicio de la era de la PC, ya que esta máquina fue la primera que se adoptó de manera extendida en las empresas estadounidenses. La proliferación de las PCs en la década de 1980 y a principios de la de 1990 desató un torrente de herramientas de software personales de productividad de escritorio tanto domésticos como corporativos. Computadora Wintel PC sistema operativo Windows en una computadora con un microprocesador Intel Al inicio utilizaba el sistema operativo DOS, un lenguaje de comandos basado en texto. posteriormente el sistema operativo Windows, se convirtió en la computadora personal de escritorio estándar En la actualidad, el 95 % de los 1.5 mil millones de computadoras estimadas en el mundo utilizan el estándar Wintel. procesadores de palabras hojas de cálculo software de presentación electrónica pequeños programas de gestión de datos Plantea Laudon & Laudon (2012), “Estas PCs eran sistemas independientes hasta que el software de sistema operativo de PC en la década de 1990 hizo posible enlazarlas en redes. En la computación cliente/servidor, las computadoras de escritorio o laptop conocidas como clientes se conectan en red a poderosas computadoras servidores que proveen a las computadoras clientes una variedad de servicios y herramientas. El trabajo de procesamiento de cómputo se divide entre estos dos tipos de máquinas. • El cliente es el punto de entrada del usuario, • mientras que el servidor por lo general procesa y almacena datos compartidos, sirve páginas Web o gestiona las actividades de la red. La red cliente/servidor más simple consiste en una computadora cliente conectada en red a una servidor en donde el procesamiento se divide entre los dos tipos de máquinas. A esto se le conoce como arquitectura cliente/servidor de dos niveles. Mientras que podemos encontrar las redes cliente/servidor simples en empresas pequeñas La red cliente/servidor multinivel (a menudo conocida como de N- niveles) más complejas en donde el trabajo de toda la red se balancea a través de distintos niveles de servidores, dependiendo del tipo de servicio que se solicite se utilizan en las arquitecturas cliente/servidor multinivel para el comercio y los negocios electrónicos. Según Laudon & Laudon (2012): La computación cliente/servidor permite a las empresas distribuir el trabajo de cómputo entre una serie de máquinas más pequeñas y económicas que cuestan mucho menos que las minicomputadoras o los sistemas mainframe centralizados. El resultado es una explosión en el poder de cómputo y las aplicaciones en toda la empresa. Novell NetWare En la actualidad, Microsoft es el líder del mercado con sus sistemas operativos Windows: - Windows Server - Windows 7 - Windows Vista - Windows XP fue la tecnología líder para las redes cliente/servidor al principio de la era cliente/servidor. Señala Laudon & Laudon (2012), “A principios de la década de 1990, las empresas recurrieron a estándares de redes y herramientas de software que pudieran integrar redes y aplicaciones dispares esparcidas por toda la empresa en una infraestructura a nivel empresarial” (p.170) La infraestructura de TI resultante enlaza distintas piezas de hardware de computadora y redes más pequeñas en una sola red a nivel empresarial, de modo que la información pueda fluir con libertad por toda la organización, y también entre la empresa y otras organizaciones. • Puede enlazar distintos tipos de hardware de computadora, entre ellos mainframes, servidores, PCs, teléfonos móviles y otros dispositivos portátiles; • además, cuenta con infraestructuras públicas como el sistema telefónico, Internet y los servicios de redes públicas. Cuando Internet se desarrolló para convertirse en un entorno de comunicaciones de confianza después de 1995, las empresas de negocios empezaron a utilizar en serio el estándar de redes Protocolo de control de transmisión/Protocolo Internet (TCP/IP) para enlazar sus redes dispares. La infraestructura empresarial también requiere software para enlazar aplicaciones dispares y permitir que los datos fluyan con libertad entre distintas partes de la empresa, como las aplicaciones empresariales y los servicios Web Señala Laudon & Laudon (2012), “La banda de Internet ha impulsado el avance del modelo cliente/servidor, hacia lo que se conoce como el “Modelo de computación en la nube”(171). En la actualidad, la computación en la nube es la forma de computación que crece con mayor rapidez, en donde se espera que los ingresos globales lleguen a cerca de $89 mil millones en 2011 y a casi $149 mil millones para 2014, de acuerdo con los consultores de tecnología de Gartner Inc. (Cheng y Borzo, 2010; Veverka, 2010). Computacion en la nube La computación en la nube se refiere a un modelo de cómputo que provee acceso a una reserva compartida de recursos computacionales (computadoras, almacenamiento, aplicaciones y servicios) a través de una red, que con frecuencia viene siendo Internet. Se puede acceder a estas “nubes” de recursos computacionales según sea necesario, desde cualquier dispositivo conectado y cualquier ubicación. Señala Laudon & Laudon (2012): Los cambios en la infraestructura de TI son el resultado de los desarrollos: lo cual ha incrementado de manera exponencial el poder de cómputo, a la vez que ha reducido los costos a una gran velocidad. Ahora veamos los desarrollos más importantes. Gordon E. Moore (San Francisco, California, 1929) fue uno de los ocho jóvenes discípulos de Shylock, uno de los inventores del transistor, y fundó Intel en julio de 1968 junto a Robert Noyce. Su nombre forja una leyenda en el sector tecnológico gracias a la mítica 'Ley de Moore' en el procesamien to de las computadora s los chips de memoria, los dispositivos de almacenamie nto el hardware y software de telecomunic aciones y redes, el diseño de software El 19 de abril de 1965, este químico afirmó, basándose únicamente en sus observaciones, que el número de transistores en un microprocesador se duplicaría cada año. Durante más de 50 años, así fue. (Zukerfeld, M. 2015). La teoría se ha cumplido salvo contadas excepciones- espero que inevitablemente la posibilidad de aumentar la capacidad y reducir el tamaño de los chips tenga un límite. Por ello, varias voces han proclamado la "muerte de Moore's Ley"(Arrieta, 2017). En 1965, el cofundador de Intel, Gordon Moore, predijo que el número de transistores en un chip se duplicaría aproximadamente cada dos años, con un aumento mínimo en el costo1. Esta predicción se conoció como la Ley de Moore y se representa en la Figura 1. Cuantos más transistores o componentes haya en un dispositivo, el costo por dispositivo se reduce mientras que el rendimiento por dispositivo aumenta. La tecnología nunca ha sido más importante para la humanidad de lo que es ahora. Todo se está volviendo digital. con cuatro superpoderes clave". Los superpoderes (computación omnipesente, infraestructura de nube al edge, conectividad e inteligencia artificial) están preparadas para trascender y transformar el mundo. En este momento no vemos el fin de la demanda de computación, y más computación continúa empujando a la industria a una mayor innovación. El CEO de Intel, Pat Gelsinger, ha compartido: Durante más de 40 años, Kelleher (2022) anuncia que los ingenieros de Intel han innovado continuamente para crear más y más transistores en chips cada vez más pequeñospara mantenerse al día con la Ley de Moore. A mediados o finales de la década de 2010, la industria predijo, como lo ha hecho varias veces antes, que la Ley de Moore, una proposición famosa, la innovación no está muerta y la Ley de Moore se mantendrá a través de la innovación como siempre: innovación en el proceso, en el que el empaque y en arquitectura. Será un desafío como siempre, e Intel está a la altura del desafío (Kellehe, 2022). Intel tiene una larga historia de innovaciones de procesos fundamentales en la búsqueda de la Ley de Moore, como se ve en la Figura 2. Cuando las características de un chip se reducen al tamaño de los átomos. (Kellehe, 2022) Figura 2: Innovaciones de transistores a lo largo del tiempo Con inventos como la tecnología de compuerta metálica de alta k, los transistores 3D de tres puertas y el silicio tensado, Intel ha entregado constantemente tecnologías innovadoras para mantener el ritmo de la Ley de Moore. Figura 3: Innovaciones de paquetes a lo largo del tiempo El papel del embalaje y su contribución a la escala de la Ley de Moore está evolucionando. En el futuro, a medida que entramos en la era del empaquetado avanzado. Kellehe( 2022) plantea vemos ganancias en la densidad de transistores que nuestro empaque entrega. Desde la perspectiva de Moore, G. E. (1998) dijo en su artículo original, “Puede resultar más económico construir sistemas grandes a partir de funciones más pequeñas, que están empaquetadas e interconectadas por separado”. Hasta la década de 2010, el papel principal del embalaje era enrutar la potencia y la señalización entre la placa base y el silicio, y proteger el silicio. Cada evolución en esa época, desde los paquetes de unión de alambre y marco de plomo, hasta la tecnología de chip giratorio en sustratos cerámicos, la adopción de sustratos orgánicos y la introducción de paquetes de múltiples chips, trajo un mayor número de conexiones. Estas conexiones soportaban más funcionalidad en el silicio, que era necesaria para el escalado de la Ley de Moore. El embalaje sirvió como el vehículo a través del cual se realizaron los beneficios de la Ley de Moore. A medida que entramos en la era del empaquetado avanzado: A medida que estas tecnologías (y otras) llegan al mercado, el embalaje avanzado entregará otra herramienta a los diseñadores y arquitectos para que la utilicen en su búsqueda de la Ley de Moore. Tecnologías de apilamiento 2D y 3D brindan a los arquitectos y diseñadores las herramientas para aumentar aún más el número de transistores por dispositivo y contribuirán al escalado necesario para la Ley de Moore. Figura 4: Principales áreas de investigación La investigación de los componentes de Intel se centra en tres áreas de investigación clave, como se ve en la Figura 4, para proporcionar los componentes básicos para una computación más poderosa en el futuro(Kellehe, 2022). Las innovaciones futuras que alimentan la Ley de Moore están limitadas solo por nuestra imaginación. Recientemente, en la Reunión Internacional de Dispositivos Electrónicos (IEDM) IEEE 20215, describimos varias áreas de innovación futura. • Esto incluye avances innovadores como el autoensamblaje dirigido (DSA) de moléculas para mejorar la rugosidad del edge y la precisión. • También investigamos nuevos materiales, de solo unos pocos átomos de grosor, para crear transistores más delgados, reduciendo su tamaño general. La innovación, junto con la demanda de los usuarios finales, impulsa la Ley de Moore • Además de innovaciones como estas, estamos estableciendo capacidades viables para apilar transistores verticalmente, ya sea monolíticamente en la misma pieza de silicio o como chiplets utilizando tecnologías de empaque avanzadas como la unión híbrida con tonos de interfaz vertical cada vez menores. • A medida que habilitamos una computación más potente a través del escalado, necesitamos aportar nuevas capacidades al silicio y estirar sus límites. Al integrar nuevos materiales, podemos entregar energía de manera más eficiente y satisfacer mayores demandas de memoria. Cincuenta años después de la Ley de Moore, la sociedad contemporánea ve docenas de beneficios expuestos por esta ley. Los dispositivos móviles, como los teléfonos inteligentes y los ordenadores, no funcionarían sin procesadores muy pequeños. (Navas, 2018). Con el aumento del tiempo se han producido cambios drásticos. Navas (2018) menciona que actualmente los transistores de silicio alcanzan los 14 nanómetros, e incluso estarán listos para el mercado algunos diseños de chips de 10 nanómetros. Se ha llegado a la conclusión de que, para cumplir con la Ley de Moore durante un largo período de tiempo, las empresas tenderán a crear nuevos y mejores materiales para convertirse en la base de las computadoras de la próxima generación. El avance de los semiconductores está siendo clave para crear componentes más compactos, veloces y eficientes energéticamente. A ello también contribuye la tendencia hacia la miniaturización siguiendo lo establecido por la Ley de Moore que pone la mirada en la reducción del tamaño, el coste y el consumo. Sin embargo, estos avances tienen un precio: tanto los costes de desarrollo como los de producción han aumentado hasta el punto de que la industria busca una solución alternativa para gestionarlos sin dejar de ofrecer productos avanzados. (González, 2022) Hoy en día, todos los procesadores de consumo están hechos de silicio, el segundo elemento más abundante en la corteza terrestre después del oxígeno. Sin embargo, el silicio no es un conductor perfecto y las limitaciones en la movilidad electrónica que permite imponen límites severos a la densidad de los transistores de silicio (Navas, 2018). Gracias a la nanotecnología, algunos transistores son más pequeños que un virus. Estos se construyen microscópicamente y contienen moléculas de carbono y silicio alineadas de manera perfecta que ayudan a mover la electricidad a lo largo del circuito más rápido. Eventualmente, la temperatura de los transistores hace imposible crear circuitos más pequeños, porque enfriar los transistores requieren más energía que la que pasa por los transistores. Las aplicaciones y el software podrían mejorar la velocidad y la eficiencia de las computadoras en el futuro. La tecnología en la nube, la comunicación inalámbrica, el Internet de las cosas y la física cuántica también podrían desempeñar un papel importante en la innovación de la tecnología informática. El progreso hacia la duplicación del número de circuitos se ha ralentizado, y los circuitos integrados no pueden ser mucho más pequeños a medida que los transistores se acercan al tamaño de un átomo. En algún momento en el futuro, los avances en software o hardware podrían mantener vivo el sueño de Ley de Moore (Navas 2018). Mencionan Laudon & Laudon (2012): La infraestructura de TI está compuesta de siete componentes principales. Los cuales constituyen inversiones que se deben coordinar entre sí para proveer a la empresa una infraestructura coherente. (p.167) Según Laudon & Laudon (2012) Menciona Laudon & Laudon ( 2012): Los servicios que una empresa es capaz de brindar a sus clientes, proveedores y empleados son una función directa de su infraestructura de TI, y lo ideal es que apoye la estrategia de negocios y sistemas de información de la empresa. En el pasado, los distribuidores de tecnología que suministraban estos componentes competían entre sí con frecuencia y ofrecían a las empresas compradoras una mezcla de soluciones parciales incompatibles y propietarias. Sin embargo, las empresas distribuidoras se han visto cada vez más obligadas por los clientes grandes a cooperar ensociedades estratégicas unas con otras. Desde la perspectiva de Laudon & Laudon ( 2012), Entre los principales componentes de infraestructura de TI se encuentran Para Laudon & Laudon (2012), “es el equipo físico que se utiliza para las actividades de: Según Laudon & Laudon (2012) se presencia: “El explosivo poder de la tecnología de hardware de computadora y de redes ha cambiado drásticamente la forma en que las empresas organizan su poder de cómputo, al imponer una mayor parte de este poder en las redes y los dispositivos portátiles móviles” (181) las plataformas de hardware de computadora las de sistemas operativos las de software empresarial las de redes y telecomunicaciones el software de administración de bases de datos las plataformas de Internet los servicios de consultoría y los integradores de sistemas. (p. 200) entrada salida procesamiento en un sistema de Informacion Desde la perspectiva de Pérez (2020) se determinan las siguientes ventajas y desventajas: Fomenta que el hardware pueda ser de calidad, los estándares abiertos y que sean más económicos Aumenta la seguridad y el buen funcionamiento del diseño, al funcionar en el mayor taller de pruebas existente Ayuda a las compañías a ahorrar costes y tiempos de diseño en sus trabajos. Un diseño físico es único. La compartición depende de la facilidad de reproducción del diseño y de la capacidad de reproducirlo Disponibilidad de componentes Obtencion de patentes Modelo de produccion de hardware Dell IBM SUN HP Apple Maquinas Linux Según Barbieri, L. (2021, mayo 6), “Dell Technologies ha puesto las soluciones para la era digital actual, en el mundo entero a nuevas formas de vivir, aprender y trabajar” • Con respecto a la investigacion explortatoria se puede analiar que la plataforma Dell ha desarrollado estrategias para acompañar a sus clientes y socios hacia el futuro basandose en: El lanzamiento de APEX para el 2023 el 43% del nuevo storage será consumido como OpEx destacó; mientras el 2024, el 50% de la infraestructura será as-a- Service, y el 75% estará en el Edg. Dell destacó que la tecnología ha dejado definitivamente de ser tratada como un silo dentro de las empresas, para impregnar toda la organización. El CEO y fundador de Dell Technologies también destacó que el futuro pasa cada vez más por una infraestructura e innovaciones tecnológicas que permitan transformar los datos en mejoras para las empresas, las personas y la sociedad en general. - Sostuvo, la evolución de tecnologías como el Edge Computing, que permitirá almacenar, procesar y analizar un volumen exponencial de datos recogidos en el Edge. - Y destacó que esta tendencia representa una oportunidad para el ecosistema de partners de la compañía. «Desde su fundación hace 37 años, Dell Technologies ha suministrado más de 800 millones de PC, más de 37 millones de servidores y más de 160 millones de terabytes de almacenamiento.» Everything As-a- Service Servicio y gestión de servicios, y productos. Dentro de las innovaciones de la Infraestructura Ti de Dell , encontramos APEX: APEX Se trata de una cartera de infraestructura como servicio (IaaS) que busca simplificar los viajes de transformación digital, aumentando la agilidad y autonomía de los equipos de TI. APEX Custom Solutions aporta una amplia cartera de tecnología como servicio, incluyendo APEX Flex on Demand, que ofrece soluciones de pago por uso para servidores, almacenamiento, protección de datos e hiperconvergencia APEX Data Center Utility añade un nivel adicional de flexibilidad a través de la medición personalizada y los servicios gestionados aplicados en el centro de datos. Estas soluciones están actualmente disponibles en Colombia, Chile, México y Brasil. APEX Cloud Services: Con APEX Hybrid Cloud y APEX Private Cloud, Dell Technologies ofrece capacidades integradas de computación, almacenamiento, redes y virtualización para aplicaciones tradicionales y nativas de la nube. APEX Console: un portal basado en Internet en el que los clientes tienen acceso completo al catálogo de ofertas de Dell Technologies y pueden configurar, suscribir, gestionar y ajustar sus servicios APEX de Dell Technologies. Simplifica el gasto en tecnología con una facturación fácil de entender que muestra la cantidad de TI utilizada cada mes. APEX Data Storage Services almacenamiento externo como servicio, cuando y donde las empresas lo necesiten, con un alto rendimiento y con unas prestaciones inigualables a las de la nube pública, con precios transparentes y sin tasas por excedentes. Dell EMC Streaming Data Platform, que ofrece análisis en tiempo real en el Edge. La solución es ideal para capturar, almacenar y analizar datos en tiempo real en el Edge. Dell EMC Streaming Data Platform, que ofrece análisis en tiempo real en el Edge. La solución es ideal para capturar, almacenar y analizar datos en tiempo real en el Edge. Menciona Cooney (2022), “IBM ha lanzado su ordenador cuántico denominado Osprey, el mismo que cuenta con hasta 433 qubits, triplicando a su predecesor Eagle. Ha subrayado su estrategia de tener un procesador de 1.121 qubits”. • IBM Quantum Summit 2022, desarrollo de una plataforma cuántica modular, System Two, que combinará múltiples procesadores en un solo sistema con nuevos enlaces de comunicación que, según la compañía, Hoy el 10% de los datos se procesa fuera de un centro de datos, el 75% se procesará fuera de un centro de datos tradicional o de la nube en 2025. En la próxima década se gastarán más de 700.000 millones de dólares en CapEx en infraestructuras de Edge que están integrando e innovando en soluciones de Edge con VMware , sus ecosistemas y capacidades de socios, creando una infraestructura inteligente automatizada para el 5G y la nueva era Dell Technologies y VMware son la plataforma multicloud para la transformación digital. Pretende devolverle los ciclos haciendo que su infraestructura sea altamente automatizada, multinube y como servicio. Para que pueda dedicar su tiempo, energía e inversiones a sus datos, sus aplicaciones y la creación de resultados comerciales y ventajas competitivas. Ahí es donde entra APEX, para unir nuestra nube y las capacidades de servicio. utilizará middleware de nube híbrida para integrar la computación cuántica con la clásica en los flujos de trabajo. Señala Omeñaca (2022) La empresa Bosch se une con IBM en su transformación digital para 2025, el proveedor de tecnología y servicios habrá invertido 10.000 millones de euros en digitalización y conectividad. Dos tercios de esto se destinarán al desarrollo y la expansión de nuevas tecnologías prometedoras, con un enfoque en la sostenibilidad, la movilidad y la Industria 4.0. Desde la perspectiva del autor Omeñaca (2022) La asociación con IBM refuerza la importancia de las asociaciones para la transformación digital de Bosch: son una forma de reunir las fortalezas necesarias para el desarrollo rápido y exitoso de áreas prometedoras. Para aprovechar las oportunidades de la digitalización y desempeñar un papel activo en la configuración del mundo conectado, Bosch también está reclutando sistemáticamente socios con una sólida experiencia en TI y software. Como Señala (Technocio, 2022) HP mejora la cartera de HP Wolf Security para evitar que los atacantes se apoderen del acceso privilegiado a datos sensibles. Además anuncio sus mejoras a su El sistema Chrome OS de Google provee un sistema operativo ligero para la computación en la nube mediante el uso de netbooks. Los programas no se almacenan en la PC del usuario, sino que se utilizan a través de Internet y se accede a éstos por medio del navegador Web Chrome. portafolio de protección para dispositivos endpoint HP Wolf Security, con el lanzamiento de Sure Access Enterprise (SAE).SAE Protege a los usuarios que tienen derechos de acceso a datos, sistemas y aplicaciones confidenciales y evita que los atacantes tomen el control de estas sesiones privilegiadas. cuando los dispositivos de los usuarios se ven comprometidos, el acceso a sistemas y datos de alto valor puede permanecer seguro. evita que las pequeñas infracciones de puntos finales se conviertan en incidentes de seguridad importantes. SAE utiliza virtualización avanzada reforzada por hardware para crear máquinas virtuales (VMs) protegidas que están aisladas del sistema operativo de escritorio y, por lo tanto, no pueden ser vistas, influidas o controladas por él. De esta manera, puede garantizarse la confidencialidad y la integridad de la aplicación. Y los datos al interior de las VMs protegidas, sin el costo operativo y la complejidad de proporcionar una estación de trabajo con acceso privilegiado de forma separada. Microsoft Windows Server provee un sistema operativo y servicios de red a nivel empresarial. El software de sistema operativo cliente cada vez se vuelve más natural e intuitivo gracias al uso de la tecnología táctil. (Laudon & Laudon, 2012, p. 177) IPhone OS, el sistema operativo para los dispositivos Apple iPad, iPhone y iPod Touch, tiene una interfaz multitáctil en la que los usuarios usan sus dedos para manipular objetos en la pantalla. (Laudon & Laudon, 2012, p. 177) Según Gutierrez Solorio, una plataforma puede ser descrita simplemente como un sistema operativo o arquitectura de ordenador, o podría ser la combinación de ambos Los sistemas operativos son el software principal de un sistema informático y, por lo tanto, son la base que le posibilita al usuario la administración eficaz de los recursos de la computadora. Los sistemas operativos garantizan la interfaz de la computadora y entonces son la herramienta central que une al software, al hardware y al usuario. Por ejemplo: Mac OS X, Solaris, Fedora (Equipo Etecé, 2022). Según investigación de Equipo Microsoft Windows El sistema operativo más utilizado en el mundo, en donde toda la información presentada es gráfica, permite realizar varias aplicaciones a la vez y contiene una forma fácil de realizar más rápido las tareas, al ser guiado paso a paso. Su característica de masivo hace que permanentemente sea repensado en función de hacerlo más intuitivo. Mac OS X Sistema operativo de Apple, integrado totalmente con las plataformas de Apple como iCloud, iMessage, así como con las redes sociales Twitter y Facebook. Contiene el navegador propio de Apple, Safari, y se propone como competitivo a Windows en diversas áreas. GNU/Linux Software libre más importante, que soporta el trabajo con más de un microprocesador y permite que toda la memoria pueda utilizarse como caché. UNIX Sistema operativo multitarea, enfocado en la comunicación por correos electrónicos y en la conexión a redes y su acceso. Google Chrome OS El sistema operativo de Google, diseñado específicamente para trabajar con la nube. Las aplicaciones en el sistema son mínimas, y se caracteriza por la simplicidad y por la velocidad. En un sistema de este tipo la cuestión de la seguridad se hace muy importante. Solaris Sistema operativo certificado como una versión de UNIX, caracterizado por ser muy adecuado para el procedimiento simétrico por soportar un gran número de CPUs. FreeBSD Sistema también basado en una versión de UNIX, que tiene como principal característica ser un verdadero sistema abierto porque todo su código fuente lo está. El tamaño de los programas es reducido por tener ‘librerías compartidas’. OpenBSD Sistema operativo libre, que funciona con varios tipos diferentes de plataforma de hardware, reconocido por muchos profesionales de la seguridad informática como el sistema UNIX más seguro. Haiku (BeOS) Sistema de código abierto en desarrollo (iniciado en 2001), centrado en la informática personal y multimedia. Cuenta con una arquitectura de núcleo avanzada, con capacidad para múltiples procesadores. Sistema operativo tipo UNIX Etecé (2022), los sistemas operativos son varios y se pueden clasificar de la siguiente manera: Clasificación de los Sistemas Operativos Los sistemas operativos para computadoras Aplicaciones de sistemas de operación basados en UNIX Debian Sistema de software libre, que se encuentra precompilado, empaquetado y en un formato sencillo para diferentes arquitecturas y núcleos. También funciona con el sistema Linux. Ubuntu Distribución de Linux con versiones estables que se liberan cada 6 meses, que tiene como navegador oficial a Mozilla Firefox y que incluye funciones avanzadas de seguridad. Mandriva Distribución del sistema Linux, en desarrollo constante y con la característica de ser el más amigable entre las distribuciones Linux. Sin embargo, tiene como única unidad reconocida la lectora /hdc. Sabayon Sistema operativo con un propio gestor de paquetes binarios, con un instalador de modo gráfico y con la característica de ser muy funcional desde el primer instante. Es una distribución Linux. Fedora Proyecto de distribución Linux, que se destaca en seguridad e incluye DVDs, CDs y USBs para instalar, así como de rescate por si el sistema falla o debe ser reparado. Linpus Linux Sistema operativo preparado para computadoras ultra portátiles, basado en Fedora. Se trata de un sistema bastante intuitivo y sencillo. SISTEMAS OPERATIV OS Windows Phone iOS Bada BlackBerr y OS Android BlackBerr y 10 Symbian OS HP webOS Firefox OS Ubuntu Phone OS Aplicaciones de sistemas de operación distribuidas por LINUX Los sistemas operativos para móviles Para Laudon & Laudon (2012), “consiste en las instrucciones detalladas y pre- programadas que controlan y coordinan los componentes de hardware de computadora en un sistema de información”. Aplicaciones De Software Empresariales Los softwares para aplicaciones empresariales se tratan como componentes de la infraestructura de TI. Según Laudon & Laudon (2012, p. 51) se enfocan en ejecutar procesos de negocios a través de la empresa comercial e incluyen todos los niveles gerenciales. Ayudan a los negocios a ser más flexibles y productivos. Existen cuatro aplicaciones empresariales importantes: Sistemas empresariales Sistemas de administración de la cadena de suministro Sistemas de administración de las relaciones con los clientes Sistemas de administración del conocimiento. Fundada en 1972, el nombre inicial de la empresa significaba "desarrollo de programas de sistemas de análisis" (Systemanalyse Programmentwicklung) y más tarde se abrevió como SAP. Las aplicaciones integradas de la empresa conectan todas las partes de un negocio con una suite inteligente en una plataforma totalmente digital, reemplazando así la plataforma heredada impulsada por procesos. Hoy en día, SAP tiene más de 230 millones de usuarios en la nube, más de 100 soluciones que cubren todas las funciones de negocio y la cartera de productos en la nube más grande de todos los proveedores. SAP ofrece soluciones en una amplia gama de áreas: ERP y finanzas CRM y experiencia del cliente Gestión de red y gastos Cadena de suministro digital RR. HH. e interacción con el personal Gestión de experiencias Business Technology Platform Transformación digital Pequeñas y medianas empresas Soluciones para la industria ¿Para qué se usa el software de SAP? Los modelos de negocio tradicionales a menudo descentralizan la gestión de datos, y cada función de negocio almacena sus propios datos operativos en una base de datos separada. Esto dificulta el acceso de los empleados de diferentes funciones de negociosa la información de los demás. Además, la duplicación de datos entre múltiples departamentos aumenta los costos de almacenamiento de TI y el riesgo de errores en los datos. En la actualidad, las empresas necesitan bases de datos escalables de alto rendimiento más que nunca. Muchos aprovechan Oracle DB para impulsar aplicaciones Al centralizar la gestión de datos El software de SAP brinda múltiples funciones de negocio con una única visión de la verdad. Gestiona mejor los procesos de negocio complejos dando a los empleados de diferentes departamentos un acceso fácil a información en tiempo real en toda la empresa. Las empresas pueden acelerar los flujos de trabajo, mejorar la eficiencia operativa, aumentar la productividad Mejorar las experiencias de cliente y, en última instancia, aumentar los beneficios. empresariales para el procesamiento de transacciones en línea (OLTP, Online Transaction Processing), el almacenamiento de datos y el análisis empresarial. Los equipos de TI también necesitan un rendimiento según demanda de estas bases de datos para satisfacer las necesidades de desarrollo, pruebas, análisis y continuidad del negocio. Beneficios de Oracle: • Apoyo a las aplicaciones empresariales • Seguridad con confianza • Ahorro de tiempo con la automatización • Escala sin esfuerzo ni tiempo de inactividad • Poner todos los datos a trabajar • Implementación en cualquier lugar • Fácil acceso a la analítica y al machine learning • Acelerar el desarrollo de aplicaciones • Elección de recursos de código abierto BEA es datos, reportes y herramientas que permiten el diseño y transición a un nuevo modelo de movilidad urbana, inteligente, incluyente y sustentable. BEA es una empresa para la modernización del transporte público. • Diseñamos tecnología, servicios y consultoría para el transporte desde 1990 hasta la actualidad • Rentabilidad y modernización para la empresa transportista. • Manufactura en México. • Desarrollo del software BEA. Para Laudon & Laudon (2012), “consiste en el software que gobierna la organización de los datos en medios de almacenamiento físico”. Para (Laudon & Laudon, 2012), “el software de gestión de bases de datos empresariales es responsable de organizar y administrar la información de la empresa, de modo que sea posible acceder a ella y utilizarla en forma eficiente” (p. 179). Se estima que la información digital aumenta a razón de 1.2 zettabytes al año. Po lo que las empresas recurren a las tecnologías de almacenamiento basadas en red (SAN) conectan varios dispositivos en una red separada de alta velocidad. Creando una gran reserva central de almacenamiento disponible para que varios servidores accedan a ella y la compartan. (Laudon & Laudon, 2012, pp. 179-180) Sistemas De Administración De Bases De Datos Permite a una organización centralizar los datos, administrarlos en forma eficiente y proveer acceso a los datos almacenados. Permite a una organización centralizar los datos, administrarlos en forma eficiente y proveer acceso a los datos almacenados mediante programas de aplicación. Po lo que los datos se almacenan en una sola base de datos, en donde la organización puede administrarlos con más facilidad. (Laudon & Laudon, 2012, p. 212) Almacén de datos Para Laudon & Laudon (2012, p. 222) es una: Base de datos que almacena la información actual e histórica de interés potencial para los encargados de tomar decisiones en la compañía. Su función es de consolidar y estandarizar la información de distintas bases de datos operacionales, de modo que se pueda utilizar en toda la empresa para el análisis gerencial y la toma de decisiones. Se ha publicado una nueva versión de Db2 Big SQL en Octubre de 2022 con Cloud Pak for Data 4.5.3. Las actualizaciones de Db2® Big SQL pueden incluir nuevas características, arreglos de errores y actualizaciones de seguridad. Las actualizaciones se listan en orden cronológico inverso para que el último release esté al principio del tema. (IBM, 2022) El código fuente original de SQL Server que fue utilizado en las versiones previas a la versión 7.0 habría sido comprado de Sybase, pero fue actualizado en las versiones 7.0 y 2000, y reescrito en la versión 2005. Su ultima actualizacion de la version de 15.0 fue en el año 2019. Hoy en día, el popular motor de bases de datos de Microsoft corre la v15.0, es la llamada SQL Server 2019. Este motor ha estado en constante mejora desde su creación, incluyendo cada vez más características adaptadas a las tecnologías «mainstream». MySQL fue inicialmente desarrollado por MySQL AB (empresa fundada por David Axmark, Allan Larsson y Michael Widenius). MySQL AB fue adquirida por Sun Microsystems en 2008, y ésta a su vez fue comprada por Oracle Corporation en 2010, la cual ya era dueña desde 2005 de Innobase Oy, empresa finlandesa desarrolladora del motor InnoDB para MySQL. MySQL es un sistema de gestión de bases de datos relacional desarrollado bajo licencia dual: Licencia pública general/Licencia comercial por Oracle Corporation y está considerada como la base de datos de código abierto más popular del mundo,12 y una de las más populares en general junto a Oracle y Microsoft SQL Server, todo para entornos de desarrollo web. MySQL es usado por muchos sitios web grandes y populares, como Wikipedia, Google (aunque no para búsquedas), Facebook, Twitter, Flickr, y YouTube. EMC realize su ultima actualizacion en el 2009 en los sistemas de almacenamiento de gama media y de entrada de los sistemas de deduplicación de almacenamiento Data Domain®, ayudando a orientar la continua escalabilidad del rendimiento y la capacidad en toda la línea de productos. • Los nuevos sistemas DD630, DD610 y DD140, similares a las soluciones de gama alta de EMC Data Domain, potencian la arquitectura escalable Data Domain’s SISL™ (Stream Informed Segment Layout) para incrementar de forma significativa los resultados en rendimiento y capacidad. • Los sistemas de Data Domain continúan liderando por precio y rendimiento el segmento de arquitecturas de procesadores multi-core y evitando la dependencia de subsistemas de almacenamiento sobredimensionados para obtener rendimiento. La mayor parte de las redes de área amplia empresariales extensas utilizan alguna variante de Unix. La mayoría de las redes de área local, así como las redes empresariales de área amplia, utilizan la suite de protocolos TCP/IP como estándar. (Laudon & Laudon, 2012, p. 180) Los proveedores de hardware de red más importantes son Cisco, Alcatel-Lucent, Nortel y Juniper Networks. • Por lo general, las compañías de servicios de telecomunicaciones /telefónicos que ofrecen conectividad de voz y datos, redes de área amplia, servicios inalámbricos y acceso a Internet son las que proveen las plataformas de telecomunicaciones. Para Laudon & Laudon (2012), “consiste tanto de los dispositivos físicos como de software, conecta las diversas piezas de hardware y transfiere datos de una ubicación física a otra”. Tecnologías De Redes Digitales Clave La infraestructura de TI de una organización incluye todo el hardware, el software y los recursos de red necesarios para brindar servicios de TI dentro de la misma organización (Bits Marketing, 2022). Además, vale la pena mencionar que los componentes de la infraestructura de TI se pueden implementar y organizar de diferentes maneras. Algunos de los componentes que podemos encontrar en la típica infraestructura TI son: Computación cliente/servidor: • ha extendido la computación a departamentos, grupos de trabajo, pisos de fábricas y otras partes de las empresas. Internet es la implementación más grande de la computación cliente/ servidor. (Laudon & Laudon, 2012, p. 250) Conmutación de paquetes:
Compartir