domingo, 23 de noviembre de 2014

Unidad 3 Fundamentos para la generación de estrategias de TI

 

¿Qué es una estrategia?

Las estrategias de una empresa o estrategias empresariales son acciones que una empresa realiza con el fin de alcanzar sus objetivos. Si los objetivos son los “fines” que busca una empresa, las estrategias son los “medios” a través de los cuales pretende alcanzar los objetivos.
Se suele pensar que las estrategias solo son formuladas en los altos niveles de una empresa (por ejemplo, por los dueños o altos directivos de ésta), pero lo cierto es que la formulación de estrategias se da en todos los niveles.

Cabe señalar que tener una visión estratégica en TI es primordial para cualquier operación de negocios .
La prinicipal característica de la gestión estratégica de TI, es la visión completa de TI por lo que el carecer de esta visión implica dejar vacío en el soporte al negocio.
Una gestión de TI con una buen estrategia debe tener planeada su ruta de proyectos para un determinado periodo de tiempo. 

Gobierno de TI's 

Habilita a la organización receptora con las herramientas necesarias para tomar decisiones óptimas respecto a la realización de inversiones en tecnología considerando la dirección, requerimientos del negocio y su comportamiento financiero. 
Asimismo, otras ventajas importantes de la implantación de un modelo de Gobierno de TI son: maximizar el valor agregado al negocio por parte de las inversiones en TI, y monitorear y dar seguimiento de la realización del beneficio inicialmente estimado para dichas inversiones.
"Una estructura de relaciones y procesos para dirigir y controlar la empresa con el objeto de alcanzar los objetivos de la empresa y añadir valor mientras se equilibran los riesgos y el retorno sobre TI y sus procesos."

Garantiza que:
  • TI está alineada con la estrategia del negocio.
  • Los servicios y funciones de TI se proporcionan con el máximo valor posible o de la forma más eficiente.
  • Todos los riesgos relacionados con TI son conocidos y administrados y los recursos de TI están seguros.

 Áreas del gobierno de TI

  • Alineamiento estratégico: Las TI deben diseñarse desde el principio para apoyar y soportar la estrategia de la Organización, estableciendo prioridades que enlacen claramente los planes de TI con los objetivos estratégicos de la compañía, identificando responsabilidades y tareas.

  • Entrega de valor: Se trata de ejecutar el plan estratégico definido anteriormente, validando y demostrando que TI está efectivamente ofreciendo beneficios a la organización. También habla de la optimización de compras, pero aquí desde el punto de vista estratégico, es decir, no se trata sólo de que el gasto sea óptimo, sino de validar si éste gasto es el necesario, de forma razonada.

  • Gestión de Recursos: Su objetivo es la definición y gestión eficiente de los recursos de TI, lo que suele incluir aplicaciones, información, infraestructuras y por supuesto, personas.  En este punto también se presta especial atención a algunos elementos clave, como la optimización del conocimiento y de las infraestructuras.

  • Gestión de Riesgos: Las principales regulaciones obligan (legalmente) a la alta dirección a conocer el riesgo operativo al que se enfrenta la organización, y de aceptar el riesgo residual que se decidan (y afrontar las consecuencias de que éste se materialice). Este punto trata pues de la componente TIC del riesgo operativo y persigue asegurar que las TI cumplen tanto con las regulaciones y leyes aplicables como con las políticas internas vigentes, que la organización dispone del nivel oportuno de transparencia y que las responsabilidades en esta materia se encuentran asignadas y se conocen.

  • Medición del rendimiento: Trata de medir y conocer en todo momento el estado y grado de implementación de la estrategia o plan definido, de acuerdo a las cambiantes necesidades de la organización. Para ello se deben monitorizar de forma regular elementos como el estado de los proyectos, rendimiento de los procesos, uso de recursos y aspectos económicos o entrega del servicio (típicamente a través de la gestión del nivel de servicio y variables asociadas)… el CIO debe tener en la cabeza no sólo el planteamiento estratégico sino cual está siendo el cumplimiento del mismo en cada una de estas dimensiones, para poder responder de forma ágil a cambios en el negocio.

Existen múltiples marcos de gobierno TI, cada uno con sus pros y contras, pero sin duda los más relevantes son CobiT (Control Objectives for Information and related Technology de ISACA), ISO/IEC 38500:2008 (Corporate governance of information technology, basado en la norma australiana AS8015)… ValIT (creado por el IT Governance Institute - ITGI) también resulta muy interesante, ya que se posiciona a más alto nivel y relaciona la entrega de valor e inversiones en TI con el gobierno corporativo.

 Proceso de implantación del gobierno de TI en una organización

El proceso de implantación de gobierno de TI asiste a los diferentes niveles de la organización con una detallada hoja de ruta que le ayuda en la implementación de sus necesidades de Gobierno TI usando COBIT (Objetivos de Control para la Información y las Tecnologías Relacionadas). Identifica qué componentes de COBIT deben ser mejorados desde las necesidades iniciales hasta la implantación de la solución. La hoja de ruta presenta un proyecto que puede ser largo y que requiere prácticas estrictas de gestión de proyectos.

Implantación de gobierno de TI

 Fases:

1.- Identificar necesidades
  1. Entender en entorno en el que se va a desarrollar el proceso de implantación de gobierno de TI y establecer un proyecto adecuado.
  2. Entender los objetivos de negocio y cómo trasladarlos a objetivos de TI.
  3. Entender los riesgos potenciales y la forma en la que estos pueden afectar a los objetivos de TI.
  4. Definir el alcance del proyecto y qué procesos deben ser implantados o mejorados
2.- Análisis de la solución:
Esta fase prevé la solución y está compuesta de tres pasos (estado de madurez actual, estado de madurez objetivo, análisis de la distancia de situación actual y objetivo)

3.-Planificación de la solución:
se identifican iniciativas de mejora factibles y las traslada a proyectos justificados

4.-Implementar la solución. Conforme los proyectos van avanzando, el resultado del mismo debe ser monitorizado y dichos resultados deben servir para tomar decisiones acerca de las siguientes iteraciones sobre cada uno de los procesos que se han implantado.

A continuación, un breve video sobre el tema:

 

Tendencias de las plataformas de hardware y tecnologías emergentes


COMPUTACIÓN DISTRIBUÍDA
Implica conectar en una sola red computadoras que se encuentran en ubicaciones remotas para crear una supercomputadora virtual al combinar las potencias de cómputo de todas las computadoras de la red.
Estas utilizan estándares abiertos para llevar a cabo una tarea u objetivo común. Se caracteriza por su heterogeneidad o sea cada computadora posee sus componentes de software y hardware, los cuales el usuario percibe como un solo sistema. Para el usuario todo es transparente, accede a los demás recursos de la misma manera que accede al suyo propio. Esta colección de computadoras básicamente lo que hace es dividirse el trabajo a realizar en pequeñas tareas individuales, reciben los datos necesarios para esa tarea, la hacen y devuelven los datos para unirlos en el resultado final.

COMPUTACIÓN BAJO DEMANDA
Se refiere a las empresas que satisfacen el exceso de demanda de potencia de cómputo a través de centros remotos de procesamiento de datos a gran escala de esta manera las empresas pueden reducir sus inversiones en la infraestructura de la TI e invertir únicamente lo necesario para manejar las cargas promedio de procesamiento y pagar solamente por la potencia de cómputo adicional que demande el mercado.

COMPUTACION DE VANGUARDIA
Es un esquema multicapa, de balanceo de carga para aplicaciones basadas en la web en el cual partes significativas del contenido, la lógica y el procesamiento del sitio web son ejecutados por servidores más pequeños y más económicos, localizados cerca del usuario con la finalidad de incrementar el tiempo de respuesta y la resistencia y a la vez reducir los costos de la tecnología.


VIRTUALIZACIÓN Y PROCESADORES MULTINÚCLEO
A medida que las empresas implementan cientos o miles de servidores, muchas han llegado a la conclusión de que gastan más en energía eléctrica para poner a funcionar y enfriar su sistema que lo que invirtieron para adquirir el Hardware.
Una de las formas de frenar la proliferación del hardware y el consumo de energía es aprovechar la virtualización para reducir la cantidad de computadoras necesarias para el procesamiento.
El software de virtualización de servidores se ejecuta entre el sistema operativo y el hardware.

Virtualización de servidores


PROCESADORES MULTINÚCLEO
Es un circuito integrado que contiene dos o más procesadores. Intel y AMD fabrican en la actualidad microprocesadores de doble núcleo y están empezando a producir el de cuádruple núcleo.


Fuentes de la unidad:
  • Fundamentos de gestion de servicios TI edited by Jan van Bon, Mike Pieper, Axel Kolthof
  • http://www.academia.edu/7298199/Infraestructura_de_TI
  • http://www.sinnexus.com/business_intelligence/
  • Notas de clase

Fundamentos de inteligencia de negocios (Business Intelligence)


¿Qué es Inteligencia de Negocios?

La inteligencia de negocios o business Intelligence (BI) se puede definir como el proceso de analizar los bienes o datos acumulados en la empesa y extraer una cierta inteligencia o conocimiento de ellos. Dentro  de la categoría de bienes se incluyen las bases de datos de clientes, información de la cadena de suministro, ventas personales y cualquier actividad de marketing o fuente de información relevante para la empresa.
Un objetivo principal de Bi es la búsqueda de toma de decisiones con la información correcta, y oportuna, así se logrará incrementar la efectividad de la empresa.
Uno de los principales objetivos de los Sistemas de Información es proporcionar información exacta, oportuna y relevante, y para que esto suceda es necesario hacer énfasis en la importancia de la administración de datos. 
El ambiente del mundo de los negocios de hoy exige una aplicación cada vez más eficiente de la información disponible. La inteligencia de negocios se deriva de la correcta utilización de la información  generada dentro y fuera de la empresa. Es una herramienta que pone a disposición de los usuarios la información correcta en un lugar correcto. Son múltiples los beneficios que ofrece a las empresas, entre ellos se encuentran la generación de una de las ventajas competitiva.
Administración de bases de datos: Garantizar que los datos de una organización y bases de datos son útiles, utilizables, disponibles, y correctos. Ayudan a: conocer comportamientos y gustos de los clientes; información necesaria para estratategías y lograr metas.
Componentes de BI 
-DataWarehouse es un conjunto de datos orientado a temas, integrado, no volátil, estable y que se usa para el proceso de toma de decisiones. 
-DataMart es un subconjunto sectorial del DW a menudo perteneciente a un departamento concreto.
-Herramientas ETL (extract, transform, load): 
Extraer: hace referencia a la captura de información desde los sistemas operacionales, hay necesidad de integración
Transformar: hace referencia a la adaptación de los datos fuente al formato destino definido en el DataWarehouse.
Cargar: hace referencia al proceso en que los nuevos datos son finalmente almacenados en el DataWarehouse en su formato definitivo.
-Query & Reporting: Son las herramientas para la elaboración de informes y listados, tanto en detalle como sobre información agregada, a partir de la información de los DataWarehouses y DataMarts.
-OLAP: (ONLINE ANALYTICAL PROCESSING) es un conjunto de tecnologías y aplicaciones de software que permite recoger los datos de la compañía, almacenarlos e indagar sobre ellos de forma rápida e intuitiva. Se trata de crear una ‘capa de negocio’ con lenguaje funcional por encima de estructuras complejas de la Base de Datos.
-OLTP (On-Line Transactional Processing): son bases de datos orientadas al procesamiento de transacciones.
-Sistemas fuentes: sistemas transaccionales que han sido diseñados fundamentalmente para els oporte de las operaciones del negocio com: compras, ventas, alamacenes, etc.
-Minería de datos: conjunto de técnicas y tecnologías que permiten explorar grandes bases de datos, de manera automática o semiautomática, con el objetivo de encontrar patrones repetitivos, tendencias o reglas que expliquen el comportamiento de los datos en un determinado contexto.
-Aplicaciones para soporte de decisiones: cubren decisiones tácticas y estratégicas
-Sistemas de información para ejecutivos: permite automatizar la labor de obtener los datos más importantes de una organización, resumirlos y presentarlos de la forma más comprensible posible,  provee al ejecutivo acceso fácil a información interna y externa al negocio con el fin de dar seguimiento a los factores críticos del éxito.  

Componentes de BI


 

Eficiencia y transformación de los procesos de negocios a través del uso de TI


La automatización de procesos y de TI persigue crear "la empresa ágil". Mejora la calidad de las cadenas de proceso de una organización y la gobernabilidad de dichos procesos y de los sistemas de TI sobre los que estos se asientan.
Se debe tener la capacidad para reconocer las nuevas y desconocidas potencialidades de la tecnología. Y para conocer todas los beneficios de la tecnología hay que disponer de gente estudiosa, preparada, al día con la continua aparición de herramientas y aparatos tecnológicos, lenguajes de programación, actualización recurrente del software (un vicio), nuevos estándares y normas, etc.
La cuestión es descubrir las oportunidades de negocio que es posible crear si se usan adecuadamente, con ingenio y conocimiento de su propio negocio, sus clientes internos y externos, estrategia de la organización, la competencia, comportamiento del personal y la cultura de la organización, capacidad de liderazgo de sus directivos.
Para esto es necesatio establecer los objetivos de mejoramiento de la empresa. Posteriormente, se puede utilizar la matriz DAFO ; antes de tomar cualquier decisión estratégica, es imprescindible realizar un diagnóstico de la organización. El análisis DAFO es el método más sencillo y eficaz para decidir sobre el futuro. Ayudará a plantear las acciones que deberíamos poner en marcha para aprovechar las oportunidades detectadas y a preparar la organización contra las amenazas teniendo conciencia de las debilidades y fortalezas.
El análisis DAFO se basa en dos pilares básicos:
- el análisis interno de la organización: liderazgo, estrategia, personas, alianzas, recursos y procesos
- el análisis externo de la organización: mercado, sector y compentencia.
Matriz DAFO




Con los resultados del análisis DAFO,se debe definir una estrategia. Existen distintos tipos de estrategia empresariales:
 
Defensiva. La empresa está preparada para enfrentarse a las amenazas.Si el producto ya no se considera líder, se debe resaltar lo que lo diferencía de la competencia. Cuando baje la cuota de mercado, buscar clientes que  sean más rentables y protegerlos.
Ofensiva. La empresa debe adoptar estrategias de crecimiento. Cuando las fortalezas son reconocidas por los clientes, puedes atacar a la competencia para exaltar las ventajas (por ejemplo: el 83% prefiere x ) . Cuando el mercado está maduro, se puede tratar de robar clientes lanzando nuevos modelos.
Supervivencia. Enfretamiento a amenazas externas sin las fuerzas internas necesarias para luchar contra la competencia. Dejar las cosas como están hasta que se asienten los cambios que se produce.
Reorientación. Se abren oportunidades que se pueden aprovechar, pero se carece de la preparación adecuada. Así, cambiar de política o de productos porque los actuales no están dando los resultados deseados.
Matriz DAFO/ estrategias


Impulsores tecnológicos de la evolución de la infraestructura

Impulsores tecnológicos de la evolución de la infraestructura


Ley de Moore y el poder de los microprocesadores:
Formulada en 1965, dice que se tiene un incremento exponencial en la potencia de microprocesadores, la potencia de cómputo se duplica cada 18 meses, y el precio disminuye a la imtad en ese mismo periodo de tiempo.
La consecuencia directa de la Ley de Moore es que los precios bajan al mismo tiempo que las prestaciones suben: la computadora que hoy vale 8000 pesos costará la mitad al año siguiente y estará obsoleta en dos años.
Esta ley también se ha aplicado a otros aspectos tecnológicos, como la memoria o el ancho de banda.
Ley del almacenamiento digital masivo:
La cantidad de información digital se duplica cada año. A la vez el costo de almacenamiento digital está disminuyendo de forma exponencial.
Ley de Metcalfe y la economía de las redes:
El valor de la potencia de una red crece exponencialmente como una función de la cantidad de miembros de la red. Cada vez crece mas la red de redes, al ser los costos de comunicaciones menores entonces crece el sistema de información. 

Ley de Metcalfe
Reducción de costes de las comunicaciones y crecimiento de Internet:
A medida que los costes de las comunicaciones se reducen, el uso de instalaciones de comunicaciones y capacidad de proceso se expande. 

Estándares y sus efectos en las redes

¿Qué es un estandar?
Puede ser conceptualizado como la definición clara de un modelo, criterio, regla de medida o de los requisitos mínimos aceptables para la operación de procesos específicos, con el fin asegurar la calidad en los diferentes ámbitos en los que se aplican.
Estos propician el desarrollo de poderosas economías de escala y dan como resultado la disminución de precios a medida que los fabricantes se enfocan en la elaboración de productos apegados a un solo estándar.
La infraestructura empresarial y la computación por internet no serían posibles sin los estándares (acuerdos entre fabricantes).

Estándares relevantes dentro del ámbito de la computación:

- Código ASCII: "American Standard Code for Information Interchange" (Código Standard Norteamericano para Intercambio de Información). Este código fue propuesto por Robert W. Bemer, buscando crear códigos para caracteres alfa-numéricos (letras, símbolos, números y acentos). De esta forma sería posible que las computadoras de diferentes fabricantes lograran entender los mismos códigos. 
- COBOL:  (del inglés: Common Business Oriented Language, o Lenguaje Común Orientado a Negocios) se invento en los años 60. Nació con el objetivo de ser un lenguaje de programación versátil, que pudiese ser usado en cualquier computadora, destinado principalmente a la gestión y negocios. 
- UNIX: es un sistema operativo de propósito general, multiusuario. El sistema provee un serie de herramientas, cada una realiza una función limitada y bien definida, utiliza un sistema de archivos unificado como medio de comunicación, y un lenguaje de comandos llamado "shell" que permite combinar esas herramientas para realizar acciones complejas.
- Ethernet: es un estándar de transmisión de datos para redes de área local. Todos los equipos de una red Ethernet están conectados a la misma línea de transmisión. Con este protocolo cualquier equipo está autorizado a transmitir a través de la línea en cualquier momento y sin ninguna prioridad entre ellos.
-Protocolo TCP/IP: significa "Protocolo de control de transmisión/Protocolo de Internet", en algunos aspectos, TCP/IP representa todas las reglas de comunicación para Internet y se basa en la noción de dirección IP, es decir, en la idea de brindar una dirección IP a cada equipo de la red para poder enrutar paquetes de datos.

Componentes de la infraestructura

1.- Plataforma de hardware de cómputo
2.- Plataformas de software de cómputo
3.- Aplicaciones de software empresarial
4.- Administración y almacenamiento de datos
5.- Plataformas de conectividad de redes y telecomunicaciones
6.- Plataformas de internet
7.- Servicios de consultoría e integración de sistemas

Evolución de la infraestructura de TI

Se tienen cinco etapas de la evolución de TI (1950-2007), cada una representa una configuración distinta de potencia de cómputo y de elementos de infraestructura.

1. Era de las máquinas electrónicas de contabilidad (1930-1950): constituía un eficiente procesador de tareas contables, era demasiado grande e incómoda. Los programas de software estaban integrados en tarjetas de circuitos.
Algunos cuartos de máquinas asemejaban la actividad de una fábrica; las tarjetas perforadas y las salidas impresas se cambiaban de un dispositivo a otro en carros manuales, el ruido que producía eran tan intenso como el de una planta ensambladora de automóviles.
2. Era de los mainframes y las microcomputadoras de propósito general (1959-actualidad): los mainframes adquirieron la potencia necesaria para soportar miles de terminales remotas en línea conectadas al mainframe centralizado utilizando protocolos de comunicaciones y líneas de datos propios. IBM actualmente domina la computación de los mainframes.
En sus inicios este tipo de computadoras ocupaban cuartos completos, pisos enteros de algún edificio o planta, en la actualidad   un Mainframe se parecen mas a un almacén con filas y filas de archiveros, y bajo el piso donde están colocados una sofisticada instalación de cientos de metros de cable que permiten la comunicación con otros dispositivos, además requieren de un sistema de temperatura controlada.
La era de los mainframe fue un periodo de computación altamente centralizada, controlada por programadores y operadores profesionales.
3. Era de la computadora personal: El 12 de agosto de 1981, IBM presentó el primer PC (personal computer) a un precio inicial de 3.280 dólares. El ordenador personal IBM 5150 estableció un estándar que derivó en que las máquinas se instalaran en los hogares y vidas de las personas. La proliferación de las PCs en la década de 1980, a principio de los 1990 dió lugar a una avalancha de herramientas de software de productividad de escritorio (procesadores de palabra, planilla de cálculo excel, software de presentaciones y pequeños programas de gestión de datos) que fueron muy valiosos para usuarios domésticos como corporativos.
4. Era cliente/servidor: las computadoras de escritorio o las portátiles llamadas clientes, se enlazan en red a potentes computadoras servidores que proporcionan a las computadoras cliente una variedad de servicios y capacidades.
Puede incluir múltiples plataformas, bases de datos, redes y sistemas operativos. Estos pueden ser de distintos proveedores, en arquitecturas propietarias y no propietarias y funcionando todos al mismo tiempo. Por lo tanto, su implementación involucra diferentes tipos de estándares
Cliente/servidor
5. Era de la computación empresarial (1992-actualidad): A principios de la década de 1990, las empresas recurrieron a estándares de conectividad de redes y herramientas de software que podían integrar en una infractura a nivel empresarial las redes y aplicaciones diferentes que estaban diseminadas por toda la organización. A medida que internet evolucionó hasta convertirse en un entorno de comunicación confiable (después de 1995), las empresas comenzaron a utilizar seriamente el estandar de conectividad de redes, el protocolo TCP/IP para enlazar sus diversos tipos de redes.
La infraestructura de TI resultante enlaza hadrware y redes pequeñas a nivel empresarial, así la información puede transmitirse de forma fluida a través de las empresas.
La era empresarial promete dar lugar a una plataforma de servicios de cómputo y TI verdaderamente integrada para la administración de empresas globales.
Computación empresarial


Unidad 2 Infraestructura de la tecnología de información

Infraestructura de TI y tecnologías
emergentes

Se define la estructura de tecnologías de información (TI) como los recursos de tecnología compartidos que proporcionan la plataforma para las aplicaciones de sistemas de información específicas en la empresa. Se dice también que es un conjunto de dispositivos físicos y aplicaciones de software que son requeridos para operar la empresa.
A su vez se abarcan aspecto técnicos y humanos.

La infraestructura de TI está conformada por siete componentes principales los cuales constituyen inversiones que se deben coordinar entre si para dotar a la empresa de una infraestructura coherente. Dichos componentes son:

-Plataformas de cómputo:  se utilizan para proveer servicios que conectan a los empleados, clientes y proveedores en un entorno digital coherente, entre ellos mainframe, computadoras, computadoras portátiles y de escritorio, dispoditivos móviles.
-Servicios de telecomunicaciones: proporcionan conectividad de datos, voz y video los empleados, clientes y proveedores.
-Servicios de software de aplicación: sistemas d eplaneación de recursos empresariales, administración de relaciones con el cliente, administración de cadena de suminustro; son compartidos por las unidades de negocio.
-Servicios de gestión de datos: almacenan y gestionan los datos corporativos, además de proveer herramientas para analizarlos.
-Servicios de administración de instalaciones físicas: desarrollan y gestionan las instalaciones físicas requeridas para los servicios de cómputos, telecomunicaciones y administración de datos.
-Servicios de gestión de TI: planean y desarrollan la infraestructura, se coordinen con las unidades de negocios para los servicios de TI, administren la contabilidad de los gastos de TI y proporcionen servicios de gestión de proyectos.
-Servicios de estándares de TI: políticas que determinan cuál tencología de la información se utilizará, cómo y cuándo.
-Servicios de investigación y desarrollo de TI: proporcionan a la empresa investigaciones sobre futuros proyectos e inversiones de TI que podrían ayudar a la empresa a marcar diferencia sobre el mercado.

En un plano ideal la infraestructura debería apoyar la estrategia de negocios y a los SI de la empresa.
Componentes de la estructura de TI