jueves, 3 de noviembre de 2011

Partes de Una Computadora

Partes De Una Computadora

Unidad central de proceso o CPU
 (conocida por sus siglas en Ingles, CPU), circuito microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del Control y el proceso de datos  en las Computadoras. Generalmente, la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que contiene millones de componentes electrónicos. El microprocesador de la CPU está formado por una unidad aritmético-lógica que realiza cálculos y comparaciones, y toma decisiones lógicas (determina si una afirmación es cierta o falsa mediante las reglas del algebra de Boole); por una serie de registros donde se almacena información temporalmente, y por una unidad de control que interpreta y ejecuta las instrucciones. Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco duro), los dispositivos de entrada (por ejemplo, un teclado o un mouse) y los dispositivos de salida (por ejemplo, un monitor o una impresora).
Funcionamiento de la CPU

Cuando se ejecuta un programa, el registro de la CPU, llamado contador de programa, lleva la cuenta de la siguiente instrucción, para garantizar que las instrucciones se ejecuten en la secuencia adecuada. La unidad de control de la CPU coordina y temporiza las funciones de la CPU, tras lo cual recupera la siguiente instrucción desde la memoria. En una secuencia típica, la CPU localiza la instrucción en el dispositivo de almacenamiento correspondiente.
La instrucción viaja por el bus desde la memoria hasta la CPU, donde se almacena en el registro de instrucción. Entretanto, el contador de programa se incrementa en uno para prepararse para la siguiente instrucción. A continuación, la instrucción actual es analizada por un descodificador, que determina lo que hará la instrucción. Cualquier dato requerido por la instrucción es recuperado desde el dispositivo de almacenamiento correspondiente y se almacena en el registro de datos de la CPU. A continuación, la CPU ejecuta la instrucción, y los resultados se almacenan en otro registro o se copian en una dirección de memoria determinada.
Memoria RAM
La memoria principal o RAM, abreviatura del inglés Randon Access Memory, es el dispositivo donde se almacenan temporalmente tanto los datos como los programas que la CPU está procesando o va a procesar en un determinado momento. Por su función, es una amiga inseparable del microprocesador, con el cual se comunica a través de los buses de datos.

Por ejemplo, cuando la CPU tiene que ejecutar un programa, primero lo coloca en la memoria y recién y recién después lo empieza a ejecutar. lo mismo ocurre cuando necesita procesar una serie de datos; antes de poder procesarlos los tiene que llevar a la memoria principal.

Esta clase de memoria es volátil, es decir que, cuando se corta la energía eléctrica, se borra toda la información que estuviera almacenada en ella.

por su función, la cantidad de memoria RAM de que disponga una computadora es una factor muy importante; hay programas y juegos que requieren una gran cantidad de memoria para poder usarlos. otros andarán más rápido si el sistema cuenta con más memoria RAM.

La memoria Caché
dentro de la memoria RAM existe una clase de memoria denominada Memoria Caché que tiene la característica de ser más rápida que las otras, permitiendo que el intercambio de información entre el procesador y la memoria principal sea a mayor velocidad.

Memoria de sólo lectura o ROM
Su nombre vienen del inglés Read Only Memory que significa Memoria de Solo Lectura ya que la información que contiene puede ser leída pero no modificada. En ella se encuentra toda la información que el sistema necesita para poder funcionar correctamente ya que los fabricantes guardan allí las instrucciones de arranque y el funcionamiento coordinado de la computadora. no son volátiles, pero se pueden deteriorar a causa de campos magnéticos demasiados potentes.

Al encender nuestra computadora automáticamente comienza a funcionar la memoria ROM. por supuesto, aunque se apague, esta memoria no se borra.

El BIOS de una PC (Basic Input Operative System) es una memoria ROM, pero con la facultad de configurarse según las características particulares de cada máquina. esta configuración se guarda en la zona de memoria RAM que posee este BIOS y se mantiene sin borrar cuando se apaga la PC gracias a una pila que hay en la placa principal.
Cuando la pila se agota se borra la configuración provocando, en algunos equipos, que la máquina no arranque.
Algunas PC tienen la pila soldada a la placa principal por lo que el cambio de la misma lo debe realizar personal técnico, ya que sino se corre el riesgo de arruinar otros componentes.
Su Memoria basada en semiconductores que contiene instrucciones o datos que se pueden leer pero no modificar. En las computadoras IBM PC y compatibles, las memorias ROM suelen contener el software necesario para el funcionamiento del sistema. Para crear un chip ROM, el diseñador facilita a un fabricante de semiconductores la información o las instrucciones que se van a almacenar.
El fabricante produce entonces uno o más chips que contienen esas instrucciones o datos. Como crear chips ROM implica un proceso de fabricación, esta creación es viable económicamente sólo si se producen grandes cantidades de chips. Los diseños experimentales o los pequeños volúmenes son más asequibles usando PROM o EPROM. El término ROM se suele referir a cualquier dispositivo de sólo lectura, incluyendo PROM y EPROM.
El teclado nos permite comunicarnos con la computadora e ingresar la información. Es fundamental para utilizar cualquier aplicación. El teclado más común tiene 102 teclas, agrupadas en cuatro bloques: teclado alfanumérico, teclado numérico, teclas de función y teclas de control.
Se utiliza como una máquina de escribir, presionando sobre la tecla que queremos ingresar.
Algunas teclas tienen una función predeterminada que es siempre la misma, pero hay otras teclas cuya función cambia según el programa que estemos usando
Por ejemplo: Un teclado de ordenador de 101/102 teclas lanzado por IBM mediada la vida del PC/AT de esta compañía. Este diseño se ha mantenido como teclado estándar de la línea PS/2, y se ha convertido en la norma de producción de la mayoría de los teclados de los equipos compatibles con IBM. El teclado extendido difiere de sus predecesores por tener doce teclas de función en la parte superior, en lugar de diez a la izquierda.
Tiene además teclas Control y Alt adicionales y un conjunto de teclas para el movimiento del cursor y para edición entre la parte principal del teclado y el teclado numérico. Otras diferencias incluyen cambios en la posición de determinadas teclas, como Escape y Control, y modificaciones en las combinaciones de teclas, como Pausa e Imprimir Pantalla. El teclado extendido y su homónimo de Apple son similares en configuración y diseño.

Las partes del teclado


El teclado alfanumérico: Es similar al teclado de la máquina de escribir. tiene todas las teclas del alfabeto, los diez dígitos decimales y los signos de puntuación y de acentuación.

El teclado numérico: Para que funciones el teclado numérico debe estar activada la función "Bloquear teclado numérico". Caso contrario, se debe pulsar la tecla [Bloq Lock] o [Num Lock] para activarlo. Al pulsarla podemos observar que, en la esquina superior derecha del teclado, se encenderá la lucecita con el indicador [Bloq Num] o [Num Lock].
Se parece al teclado de una calculadora y sirve para ingresar rápidamente los datos numéricos y las operaciones matemáticas más comunes: suma, resta, multiplicación y división.
Las teclas de Función

Estas teclas, de F1 a F12, sirven como "atajos" para acceder más rápidamente a determinadas funciones que le asignan los distintos programas. en general, la tecla F1 está asociada a la ayuda que ofrecen los distintos programas, es decir que, pulsándola, se abre la pantalla de ayuda del programa que se esté usando en este momento.
Las teclas de Control

Si estamos utilizando un procesador de texto, sirve para terminar un párrafo y pasar a un nuevo renglón. Si estamos ingresando datos, normalmente se usa para confirmar el dato que acabamos de ingresar y pasar al siguiente.

Estas teclas sirven para mover el cursor según la dirección que indica cada flecha.
Sirve para retroceder el cursor hacia la izquierda, borrando simultáneamente los caracteres.
Si estamos escribiendo en minúscula, al presionar esta tecla simultáneamente con una letra, esta última quedará en mayúscula, y viceversa, si estamos escribiendo en mayúscula la letra quedará minúscula.
Es la tecla de tabulación. En un procesador de texto sirve para alinear verticalmente tanto texto como números.
Esta tecla te permite insertar un carácter de manera que todo lo que escribamos a continuación se irá intercalando entre lo que ya tenemos escrito.
Fija el teclado alfabético en mayúscula. al pulsarla podemos podemos observar que, en la esquina superior del teclado, se encenderá la lucecita con el indicador [Blog Mayús] o [Caps Lock]. Mientras es teclado de encuentra fijado en mayúscula, al pulsar la tecla de una letra se pondrá automáticamente en mayúscula. para desactivarla basta con volverla a pulsar.

La tecla alternar, al igual que la tecla control, se usa para hacer combinaciones y lograr así ejecutar distintas acciones según el programa que estemos usando.
En un procesador de texto sirve para borrar el carácter ubicado a la derecha del cursor.
La tecla de control se usa en combinación con otras teclas para activar distintas opciones según el programa que se esté utilizando.
Tanto el teclado como el ratón del ordenador nos permiten introducir datos o información en el sistema. De poco nos sirven si no tenemos algún dispositivo con el que comprobar que esa información que estamos suministrando es correcta. Los monitores muestran tanto la información que aportamos, como la que el ordenador nos comunica. Desde los primeros que aparecieron con el fósforo verde, la tecnología ha evolucionado junto con la fabricación de nuevas tarjetas gráficas. Ahora no se concibe un ordenador sin un monitor en color. Ahora la "guerra" está en el tamaño y en la resolución que sean capaces de mostrar.

Monitor
La tecnología en la fabricación de monitores es muy compleja y no es propósito ahora de profundizar en estos aspectos. Sí los vamos a tratar superficialmente para que sepáis cuáles son los parámetros que más os van a interesar a la hora de elegir vuestro monitor. Estos parámetros son los siguientes:

Tamaño:Son las dimensiones de la diagonal de la pantalla que se mide en pulgadas. Podemos tener monitores de 9, 14, 15, 17, 19, 20 y 21 ó más pulgadas. Los más habituales son los de 15 pulgadas aunque cada vez son más los que apuestan por los de 17 pulgadas, que pronto pasarán a ser el estándar. Los de 14 pulgadas se usan cada vez menos. Todo esto se debe a que que las tarjetas gráficas que se montan ahora soportan fácilmente resoluciones de hasta 1600x1280 pixels
Resolución:Un pixel es la unidad mínima de información gráfica que se puede mostrar en pantalla. Cuantos más pixels pueda mostrar el monitor de más resolución dispondremos. Traducido a lenguaje "de la calle" quiere decir que más elementos nos cabrán en ella. Es igual que si vivimos en un estudio de 25 m2 y nos mudamos ¡Oh fortunal a una casa de 300 m2. Nosotros somos los mismos, sólo que disponemos de más espacio. Si trabajas con Windows la resolución ampliada es fundamental, puedes tener mas iconos en pantalla, puedes tener abiertas varias aplicaciones y verlas a la vez, sin tener que maximizar cada una cuando cambies a ellas, etc.
La resolución está íntimamente relacionada con las dimensiones del monitor, pero no podemos guiarnos fiablemente por esto. Por ejemplo, hay algún monitor de 15 pulgadas que alcanza resoluciones de hasta 1600 x 1280, pero las dimensiones físicas de la pantalla hacen que todo se vea muy reducido, siendo un engorro y además pagamos por unas características que nunca utilizaremos. Para estas resoluciones ampliadas le recomendamos: un monitor de 15 pulgadas para 1024 x 768, y uno de 17 o 20 pulgadas para 1280 x 1024 pixels.
Entrelazado:Es una técnica que permite al monitor alcanzar mayores resoluciones refrescando el contenido de la pantalla en dlls barridos, en lugar de uno. Lo malo de esta técnica es que produce un efecto de parpadeo muy molesto, debido a que el tiempo de refresco no es lo suficientemente pequeño como para mantener el fósforo activo entre las dos pasadas. Procure que su monitor sea no-entrelazado.
Frecuencia de barrido vertical:El rayo de electrones debe recorrer toda la superficie de la pantalla empezando por la esquina superior izquierda, y barriéndola de izquierda a derecha y de arriba abajo. La frecuencia de refresco, medida en Hertzios, es el número de veces que el cañón de electrones barre la pantalla por segundo. ¿Por qué es tan importante este valor? Pues porque si es una frecuencia baja, se hará visible el recorrido del haz de electrones, en forma de un molesto parpadeo de la pantalla. El mínimo debe ser de 70 Hz, pero un buen monitor debe ser capaz de alcanzar frecuencias superior. Cuanto mayor sea el valor de este parámetro mejor, ya que permitirá mayores resoluciones sin necesidad de entrelazar. La imagen será más nítida y estable.
Tamaño del punto (Dot Pltch):Un punto del monitor es la unidad mínima física que puede mostrarse en la pantalla. Dependiendo de la resolución lógica que utilicemos se adaptará la salida para que un pixel ajuste perfectamente con una o un conjunto de estas celdillas físicas de pantalla. 
Si un monitor tiene las celdillas muy pequeñas, menor será el tamaño del pixel lógico, con lo cual las resoluciones altas serán más precisas en la calidad de la imagen. Un tamaño muy bueno del punto es de 0.25 mientras que uno de 0.28 o superior muestran resultados deficientes en resoluciones mayores a 800 x 600 pixels.
Existen otros parámetros interesantes, como por ejemplo la posibilidad de almacenar configuraciones en la memoria del monitor, que sea de exploración digital controlada por un microprocesador, la posibilidad de desmagnetizar el tubo (degauss), de ajustar las dimensiones de la imagen, control de color, brillo y contraste, ahorro de energía, baja radiación, etc.

Existe una gran variedad de monitores en el mercado entre ellos están los Sony, Hitachi, Samsung, Philips Brilliance, Eizo, Nanao, Toshiba, Proview, etc.

Lo que sí debe quedar claro es que si queréis resoluciones de 1024 x 768 optad por uno de 15 pulgadas y mirad muy bien las especificaciones del entrelazado y tamaño del punto (sobre todo).
Filtros para el monitor:Si el monitor es importante para poder ver qué hacemos y lo que nos dice el sistema, más importante son nuestros ojos y nuestra salud. Está demostrado científicamente, y en la práctica, que trabajar ante un monitor produce cansancio, picor e irritación de ojos, vista cansada, dolor de cabeza y visión borrosa. El filtro es un elemento imprescindible, y hasta tal punto que es obligatorio en todos los centros de trabajo. El monitor emite una serie de radiaciones y acumula en la pantalla electricidad estática, causantes de estos síntomas. Los filtros de pantalla se encargan de reducir estos efectos de las radiaciones y de descargar la electricidad estática. Entre las radiaciones emitidas se encuentran la ultravioleta, la infrarroja, la visible (luminosidad), y VLF y ELF (generadas por los campos electromagnéticos que crea el sistema de alimentación). Entre las demás ventajas de instalar un filtro frente a nosotros destacan la eliminación de los reflejos en la pantalla, el aumento de la definición de los colores y caracteres y la reducción de la cantidad de polvo y suciedad que se fija a la pantalla (principalmente por el humo de tabaco) debido a la electricidad estática.
En el mercado existe una gran cantidad de filtros cuyo precio oscila entre las 3.000 y 20.000 pesetas. La diferencia se ve sobre todo en el precio, aunque se justifica en el proceso de fabricación, concretamente en el tratamiento del cristal. Los mejores están tratados por las dos caras, poseen filtro ortocromático, un cable para la descarga de la electricidad estática (generadas sobre todo al encender el monitor) y reducen la radiación emitida hasta en un 99%.

La alternativa LCD

Últimamente se habla del avance de la tecnología LCD o cristal líquido, llegando incluso a citarse como posible alternativa de futuro frente al tradicional CRT. Ventajas como el ahorro de consumo y de espacio (LCD posibilita la fabricación de pantalla extra-planas, de muy poca profundidad), así como la prácticamente nula emisión de radiaciones, aportan un gran interés a este tipo de dispositivos. No obstante, su elevado costo unido a los continuos avances en la tecnología CRT hacen que, por el momento, ésta última sea la opción más recomendable. En cualquier caso, no hay que perder de vista esta alternativa; nunca se sabe...
Es el cerebro del ordenador. Se encarga de realizar todas las operaciones de cálculo y de controlar lo que pasa en el ordenador recibiendo información y dando órdenes para que los demás elementos trabajen. Es el jefe del equipo y, a diferencia de otros jefes, es el que más trabaja. En los equipos actuales se habla de los procesadores Pentium MMX y Pentium II/III de Intel además de las alternativas de AMD (familias K6 y K7) y Cyrix (6x86, MII).

El rendimiento que dan los microprocesadores no sólo dependen de ellos mismos, sino de la placa donde se instalan. Los diferentes micros no se conectan de igual manera a las placas:
En las placas base más antiguas, el micro iba soldado, de forma que no podía actualizarse (486 a 50 MHz hacia atrás). Hoy día esto no se ve.

En las de tipo Pentium (Socket 7) normales el microprocesador se instala en un zócalo especial llamado ZIF (Zero Insertion Force) que permite insertar y quitar el microprocesador sin necesidad de ejercer alguna presión sobre él. Al levantar la palanquita que hay al lado se libera el microprocesador, siendo extremadamente sencilla su extracción. Estos zócalos aseguran la actualización del microprocesador. Por ejemplo un zócalo ZIF Socket-3 permite la inserción de un 486 y de un Pentium Overdrive. Existen 8 tipos de socket, el 8º es el del Pentium Pro.

Y por otro lado, los procesadores Pentium II y Celeron/A de Intel y el Athlon (K7) de AMD van conectados de una forma similar a una tarjeta gráfica o de sonido (por ejemplo). En los procesadores de Intel, el lugar donde se instala es el Slot1 (o Slot2 en las versiones Xeon profesionales) y en el caso del K7 se instala en el SlotA. En ambos existen unas guías de plástico que ayudan a que el microprocesador se mantenga en su posición. Hay que mencionar que algunos procesadores Celeron utilizan la conexión PPGA o Socket 370, similar en cierto modo al Socket 8, con nulas capacidades de ampliación y que sólo ofrece como ventaja un pequeño ahorro en la compra del equipo.

Valoración del rendimiento de un microprocesador

El microprocesador es uno de los componentes que hay que prestar más atención a la hora de actualizarlo, ya que en su velocidad y prestaciones suele determinar la calidad del resto de elementos. Esta afirmación implica lo siguiente: por ejemplo, en un Pentium de baja gama es absurdo poner 8 Mb. de RAM y un disco duro de 3 ó 4 Gb; y en un PII de alta gama también es absurdo poner 32 Mb. de RAM y un disco duro de 2 Gb. Hay que hacer una valoración de todos los elementos del ordenador, actualmente en las tiendas suelen venderse digamos "motores de un mercedes en la carrocería de un 600". Esto tenemos que evitarlo. Además del microprocesador, la velocidad general del sistema se verá muy influenciada (tanto o más que por el micro) debido a la placa base, la cantidad de memoria RAM, la tarjeta gráfica y el tipo de disco duro. Profundizar sobre estos temas se escapa de esta sección de microprocesadores, accede a la sección de componente en particular para más información.
Hoy día, hay que fijarse el propósito de la utilización del ordenador para elegir el correcto microprocesador. 
Por ejemplo, si se va a trabajar con los típicos programas de ofimática (Word, Excel...), un 486 con Windows 95 y 16 Mb. de RAM es más que suficiente, al igual que para navegar por Internet. Sin embargo, según sean más complejos los programas, más complejos serán los equipos. Los programas multimedia y enciclopedias, requieren un procesador Pentium de gama media.
 A los programas de retoque fotográfico se les puede poner también un procesador Pentium de gama media, aunque influirá sobre todo la memoria RAM (harán falta un mínimo de 128 Mb. para un rendimiento óptimo, según nuestras pruebas). Y últimamente se está incitando a la adquisición de equipos mejores debido sobre todo a los últimos juegos 3D, descompresión MPEG-2 por software para visualizar DVDs (la tarea la realiza el micro conjuntamente con la tarjeta gráfica)... y a un nivel menos doméstico, la renderización de gráficos tridimensionales o la ejecución multitarea de servidores de red. Para esto, nada es suficiente, por ello los micros son cada vez más y más rápidos y complejos. Aunque si lo que quieres son juegos, mejor decántate por una aceleradora 3D, ya que se tiene una experiencia mejor en un Pentium a 133 MHz con una Voodoo Graphics que en un Pentium II/K6-2 a 300 MHz sin aceleradora. Lo ideal, lógicamente, es un PII/K6-2 con una aceleradora gráfica
Y ya por último, diremos que el disipador + ventilador puede reducir la temperatura del micro unos 40 grados centígrados y aumentar el rendimiento un 30%. En los procesadores actuales este componente es imprescindible para el funcionamiento del microprocesador, que de lo contrario terminaría quemado.
Estructura interna de un disco duro

  • Tamaño de clúster y espacio disponibleUn cluster se trata de una agrupación de varios sectores para formar una unidad de asignación. Normalmente, el tamaño de cluster en la FAT del DOS o de Windows 95 es de 32 Kb; ¿y qúe? Esto no tendría importancia si no fuera porque un cluster es la mínima unidad de lectura o escritura, a nivel lógico, del disco. Es decir, cuando grabamos un archivo, por ejemplo de 10 Kb, estamos empleando un cluster completo, lo que significa que se desperdician 22 Kb de ese culster. Imaginaos ahora que grabamos 100 ficheros de 10 Kb; perderíamos 100x22 Kb, más de 2 Megas. Por ello, el OSR2 de Windows 95 y Windows 98 implementan una nueva FAT, la FAT 32, que subsana esta limitación, además de otros problemas.
    Un disco duro se compone de muchos elementos; citaremos los más importantes de cara a entender su funcionamiento. En primer lugar, la información se almacena en unos finos platos o discos, generalmente de aluminio, recubiertos por un material sensible a alteraciones magnéticas. Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran agrupados uno sobre otro y atravesados por un eje, y giran continuamente a gran velocidad.
Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura, uno en cada cara. Estos cabezales se encuentran flotando sobre la superficie del disco sin llegar a tocarlo, a una distancia de unas 3 o 4 micropulgadas (a título de curiosidad, podemos comentar que el diámetro de un cabello humano es de unas 4.000 pulgadas). Estos cabezales generan señales eléctricas que alteran los campos magnéticos del disco, dando forma a la información. (dependiendo de la dirección hacia donde estén orientadas las partículas, valdrán 0 o valdrán 1).
La distancia entre el cabezal y el plato del disco también determinan la densidad de almacenamiento del mismo, ya que cuanto más cerca estén el uno del otro, más pequeño es el punto magnético y más información podrá albergar. 
  • Algunos conceptos 
    Antes hemos comentado que los discos giran continuamente a gran velocidad; este detalle, la velocidad de rotación, incide directamente en el rendimiento de la unidad, concretamente en el tiempo de acceso. Es el parámetro más usado para medir la velocidad de un disco duro, y lo forman la suma de dos factores: el tiempo medio de búsqueda y la latencia; el primero es lo que tarde el cabezal en desplazarse a una pista determinada, y el segundo es el tiempo que emplean los datos en pasar por el cabezal.
    Si se aumenta la velocidad de rotación, la latencia se reduce; en antiguas unidades era de 3.600 rpm (revoluciones por minuto), lo que daba una latencia de 8,3 milisegundos. La mayoría de los discos duros actuales giran ya a 7.200 rpm, con lo que se obtienen 4,17 mb de latencia. Y actualmente, existen discos de alta gama aún más rápidos, hasta 10.000 rpm.
    Es preciso comentar también la estructura lógica del disco, ya que contiene importantes conceptos que todos habréis oído; para empezar, la superficie del disco se divide en una serie de anillos concéntricos, denominados pistas. Al mismo tiempo, las pistas son divididas en trames de una misma longitud, llamados sectores; normalmente un sector contiene 512 bytes. Otro concepto es el de cilindro, usado para describir las pistas que tienen el mismo número pero en diferentes discos. Finalmente, los sectores suelen agruparse en clusters o unidades de asignación. Estos conceptos son importantes a la hora de instalar y configurar un disco duro, y haremos uso de alguna de esta información cuando subamos al nivel lógico del disco. Muchas placas base modernas detectan los discos duros instalados, mientras que en otras más antiguas hay que meter algunosvalores uno por uno (siempre vienen escritos en una etiqueta pegada en la parte superior del disco).

  • El estándar IDE 
    "Integrated Drive Electronics", o IDE, fue creado por la firma Western Digital, curiosamente por encargo de Compaq para una nueva gama de ordenadores personales. Su característica más representativa era la implementación de la controladora en el propio disco duro, de ahí su denominación. Desde ese momento, únicamente se necesita una conexión entre el cable IDE y el Bus del sistema, siendo posible implementarla en la placa base (como de hecho ya se hace desde los 486 DX4 PCI) o en tarjeta (equipos 486 VLB e inferiores). Igualmente se eliminó la necesidad de disponer de dos cables separados para control y datos, bastando con un cable de 40 hilos desde el bus al disco duro. Se estableció también el término ATA (AT Attachment) que define una serie de normas a las que deben acogerse los fabricantes de unidades de este tipo.
IDE permite transferencias de 4 Megas por segundo, aunque dispone de varios métodos para realizar estos movimientos de datos, que veremos en el apartado "Modos de Transferencia". La interfaz IDE supuso la simplificación en el proceso de instalación y configuración de discos duros, y estuvo durante un tiempo a la altura de las exigencias del mercado.

No obstante, no tardaron en ponerse en manifiesto ciertas
 modificaciones en su diseño. Dos muy importantes eran de capacidad de almacenamiento, de conexión y de ratios de transferencia; en efecto, la tasa de transferencia se iba quedando atrás ante la demanda cada vez mayor de prestaciones por parte del software (¿estás ahí, Windows?). Asimismo, sólo podían coexistir dos unidades IDE en el sistema, y su capacidad (aunque ero no era del todo culpa suya, lo veremos en el apartado "El papel de la BIOS") no solía exceder de los 528 Megas. Se imponía una mejora, y ¿quién mejor para llevarla a cabo que la compañía que lo creó?
  • Enhanced IDE 
    La interfaz EIDE o IDE mejorado, propuesto también por Western Digital, logra una mejora de flexibilidad y prestaciones. Para empezar, aumenta su capacidad, hasta 8,4 Gigas, y la tasa de transferencia empieza a subir a partir de los 10 Megas por segundo, según el modo de transferencia usado. Además, se implementaron dos sistemas de traducción de los parámetros físicos de la unidad, de forma que se pudiera acceder a superiores capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas innegables, ya que con mínimas modificaciones (aunque LBA exigía también cambios en la BIOS del PC) se podían acceder a las máximas capacidades permitidas.
    Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al mismo tiempo, que se aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y de BIOS a soportar los controladores secundarios (dirección 170h, IRQ 15) siempre presentes en el diseño del PC pero nunca usados hasta el momento, de forma que se pudieran montar una unidad y otra esclava, configuradas como secundarias. Más aún, se habilitó la posibilidad de instalar unidades CD-ROM y de cinta, coexistiendo pacíficamente en el sistema (más sobre esto en el apartado "Otros términos"). A nivel externo, no existen prácticamente diferencias con el anterior IDE, en todo caso un menor tamaño o más bien una superior integración de un mayor número de componentes en el mismo espacio.
Periféricos de entrada de información. 
Son los elementos a través de los que se introduce información a la computadora. En este apartado se encuentran el teclado, el ratón, los scanners, etc.

Periféricos de almacenamiento de la información. 

Son subsistemas que permiten a la computadora almacenar, temporal o indefinidamente, la información o los programas.

Los dispositivos de almacenamiento, llamados también memorias auxiliares o masivas, son un soporte de apoyo para la computadora en la realización de sus tareas, ya que puede enviar a ellos, temporalmente, desde la memoria principal parte de la información que no van a utilizar en esos momentos, dejando parte del área de trabajo libre para trabajar más comodamente, y mantenerla almacenada hasta que sea necesaria su utilización, momento en que la volverá a trasladar a la memoria principal.
Entre los dispositivos de almacenamiento se pueden destacar los discos magnéticos y las cintas. Un elemento que está obteniendo cada vez mayor aceptación es el CD-ROM.

Periféricos de salida de la información. 

Son los periféricos que transmiten los resultados obtenidos tras el proceso de la información por la computadora al exterior del sistema informático para que pueda ser utilizado por los seres humanos u otros sistemas diferentes.
Las pantallas de computadora e impresoras conectadas a los sistemas informáticos son los medios de representación de la información más extendidos
Periféricos de comunicaciones. 

Estos subsistemas están dedicados a permitir la conexión de la computadora con otros sistemas informáticos a través de diversos medios; el medio más común es la línea telefónica. El periférico de comunicaciones más utilizado es el modem.
También existen periféricos que comparten características particulares de varios de ellos
Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. Internet es a la vez una oportunidad de difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica.
La Internet ha significado una revolución sin precedentes en el mundo de la informática y de las comunicaciones y que ha transformado a la humanidad. Han contribuido a ello los inventos del teléfono, la radio, los satélites, las computadoras, dispositivos de hardware, los protocolos o estándares de comunicaciones y software especializados, tales como navegadores, correo electrónico, FTP, video conferencias, etc.
Conviene ir poniéndose al día en esta nueva jerga, no tanto por el hecho de "estar a la última", sino por aprovechar las innegables y enormes posibilidades que se abren y se presentan en este ámbito. Ya se habla de ello como de "un nuevo tipo de ocio". Actualmente, ya se pueden hacer cosas tan dispares como comprar entradas para conciertos, comunicarse mediante correo electrónico, ver qué está ocurriendo en la Plaza de Bolivar en este momento o consultar las imágenes que manda el Meteosat para hacer nuestra propia predicción del tiempo.

Informarse de las posibilidades de Internet y de cómo acceder a ellas es el primer paso para empezar a caminar por estas carreteras del futuro.

miércoles, 2 de noviembre de 2011

Sistemas De Informacion Elaborado Por: Jeniffer Rodriguez


Tema: Sistemas de Información

1. Introducción

Durante los últimos años se han multiplicado los estudios tendentes a analizar la información como factor clave para la toma de decisiones en la empresa, clave de la gestión empresarial, y eje conceptual sobre el que gravitan los sistemas de información empresariales.

Se considera que la información es un recurso que se encuentra al mismo nivel que los recursos financieros, materiales y humanos, que hasta el momento habían constituido los ejes sobre los que había girado la gestión empresarial. Si la Teoría económica tradicional mantenía el capital, la tierra y el trabajo como elementos primarios de estudio, la información se ha convertido, ahora, en el cuarto recurso a gestionar.

Diversos autores han estudiado con profundidad los cambios socioeconómicos ocurridos en la segunda mitad del siglo XX:

Alvin Toffler en El shock del futuro (1970) y la La Tercera Ola (1981); Daniel Bell en El advenimiento de la sociedad post-industrial(1973) ; Naisbitt en Megatrends: ten new directions transforming our lives (1982); Tom Stonier en The wealth of information(1983); Masuda en Computonia 1985); Robert Reich en El Trabajo de las naciones: hacia el capitalismo del siglo XXI (1991), Peter Drucker en La sociedad postcapitalista (1993); y más recientemente por Manuel Castells [1] con su magna obra La era de la información. Economía, sociedad y cultura (1996).

Desde el punto de vista de la gestión empresarial el conocimiento del entorno, en un mundo cada vez más complejo y cambiante, origina una necesidad cada vez más acuciante de información para la toma de decisiones, tanto para atacar nuevos mercados, como para proteger a la empresa de agentes externos que puedan vulnerar su estabilidad.

El dominio de la información externa, no debe hacer olvidar el control de los flujos internos de información que la propia empresa genera derivado de su funcionamiento.

Y, finalmente, tampoco se debe olvidar la propia información que la empresa lanza al exterior, en algunos casos regulada por factores legales, como aquellos que obligan a las empresas a depositar sus cuentas anuales en los registros mercantiles. Datos, a su vez, que se convierten en información externa para otras empresas que absorben esa información.


2. Objetivos

1.Conocer el concepto Administración y/o Gestión, para desde esa visión global, insertar a la planificación en ese contexto, y por tanto la captura de información externa para la toma de decisiones. Se enmarca, así, la información (activo intangible) como un factor clave para la toma de decisiones en el ámbito de la Ciencia de la Administración, y por tanto de la gestión de información, y el diseño del sistema de información en la empresa. Entendemos que el marco teórico en el que se mueven los sistemas de información debe controlar una serie de procesos contextualizados en la Administración de Empresas, en tanto, que como sistemas de información deben determinar las necesidades internas y externas de información , optimizar, si cabe, el flujo de información en las organizaciones y adecuarse a la estructura de la organización. Ello nos obliga a incidir en la información en su triple dimensión, según la estructura definida por Hiroyuki Itami, que clasifica los flujos informativos en información del entorno , información interna e información corporativa ; y finalmente en los conceptos relativos a la toma de decisiones.

2.Conocer los distintos ambientes existentes en la empresa, por un lado el ambiente interno , y por otro el ambiente externo , clasificando este último, a su vez, en dos tipos, entorno inmediato y entorno remoto , ambos de contenido informativo.

3..Adentrar al alumno en el concepto de organización. Y a su vez describir, brevemente la evolución que ha habido desde la organización tradicional a la nueva organización, y como ésto ha influido en el cambio de contexto en el que se han movido los sistemas de información en una empresa; desde aquellos vistos como una parte de la organización, al conjunto de la organización analizado como un sistema de información en sí mismo.

4..Enlazando con las ideas anteriores, introducir al alumno en el concepto sistema de información , a través de la aproximación teórica de algunos autores. Desde esa visión general de sistema de información enmarcar el concepto en el ámbito empresarial, tal y como se han entendido hasta la actualidad, por encima de consideraciones tecnológicas.

5.Analizar, brevemente, el concepto gestión del conocimiento como apoyo a los sistemas de información.

6.Volver a insertar en este trabajo a la planificación, para concretar el concepto Inteligencia Competitiva, y los distintos tipos de inteligencia competitiva.

7.Clasificar las fuentes de información para la empresa.

8.Y, finalmente, asociar tipo de fuente de información, según clasificación realizada por el autor, con el entorno externo (inmediato, remoto o ambos) y el tipo de inteligencia competitiva asociada.

3. El concepto de administración y gestión. La información en el proceso de planificación empresarial

Antes de iniciar la aproximación conceptual a los distintos términos que configuran esta lección, consideramos obligado aclarar el problema terminológico que conlleva la asimilación, en nuestro caso, de los términos Administración y Gestión; términos que configuran la plataforma de desarrollo de toda la teoría posterior sobre planificación, organización, y por supuesto sobre sistemas de información.

La profesora Reyes Pacios ha analizado los problemas semánticos derivados de los términos " management", "administración", "gestión", " y " dirección", " [2], y señala que son vocablos que se utilizan de modo indiferente para referirse a tareas y funciones en distintos tipos de organizaciones.[3]

El diccionario Collins traduce la voz " management" como "gobierno, dirección, gerencia o administración". Y, a la vez "administration " como "administración, gobierno, dirección". Para el Diccionario de la Real Academia española, Gestión es "acción y efecto de administrar'. [4]

Encontramos, así, una similitud, y aunque la controversia sobre los vocablos es evidente en la literatura sobre este aspecto [5], nosotros preferimos identificar "administración " y " gestión", y desde esta unión profundizar en cada uno de los componentes que la forman.

Nos posicionamos, así, para el lector en el grupo de autores que prefiere no distinguir entre ambos vocablos, discusión que consideramos baldía, y centrarnos en una breve aproximación inicial a cada una de las fases, donde creemos sí que se encuentra la esencia del análisis, y por supuesto de su relación con los sistemas de información, para posteriormente analizar la información como un recurso intangible, auténtico valor en la gestión empresarial, en la planificación en sí misma, y en la toma de decisiones.

3.1. Fases de la gestión o administración.

Tradicionalmente se han considerado cuatro funciones básicas en la gestión de las organizaciones: planificación, organización, ejecución y control [6]. Consideramos, además, cuatro recursos que deben ser contemplados y sobre las que se aplican las funciones anteriormente citadas: humanos, económicos, materiales, e informativos.

Si bien, las fases aludidas son propias de la administración clásica de cualquier organización, nuestra intención, en este apartado es perfilar los aspectos que en el contexto de la administración afectan a cualquier organización, buscando un amplio nivel de generalización y transferibilidad en distintos tipos de organizaciones y situaciones en el ámbito empresarial, y para entornos de organizaciones lucrativas y no lucrativas.

Realizamos, a continuación, una breve aproximación conceptual a cada una de las fases.

3.1.1. La planificación.

la planificación es la función de gestión que determina los objetivos de la organización, y establece las estrategias adecuadas para el logro de dichos objetivos.

De esta manera, un gestor debe conocer el ámbito en el que se encuentra, conocer la finalidad de la organización, sus metas y por tanto sus objetivos, para poder llevarlos a cabo. distinguen seis etapas en el proceso de planificación, aunque volveremos sobre ellas más adelante:

1.Evaluación de las condiciones actuales.
2.Determinación de los objetivos y metas.
3.Establecimiento de un plan de acción.
4.Asignación de recursos.
5.Ejecución.
6.Control.

3.1.2. La organización.

La segunda etapa de la clasificación de la gestión científica es la organización. Esta etapa tiene como función "adecuar los recursos previstos en la planificación para conseguir los objetivos " [9]. Para Ivancevich la organización como función "implica la existencia de una estructura de relaciones de función y de autoridad. Es la etapa mediante la cual se estructuran los recursos humanos y físicos con el fin de alcanzar los objetivos que se han marcado" [10]. La organización como función implica, por tanto, a la Organización como sistema y se relaciona con la estructura organizativa, la división de puestos de trabajo, la función de cada uno de ellos, los organigramas y el logro de los objetivos.

3.1.3. La dirección.

Esta fase ha sido identificada en ocasiones como la de ejecución. En cualquier caso, viene referida a la etapa que debe llevar a la práctica el plan diseñado. Esta fase debe conseguir un líder capaz de articular al conjunto de componentes que forman la estructura organizativa.

Hay varios aspectos que debe tratar esta etapa del proceso, aunque las resumiremos en tres:

1.Las funciones del líder,
2.la comunicación,
3.y las necesidades de los usuarios (marketing)

3.1.4. El control.

Finalmente, como control debem os entender aquellos procedimientos destinados a evaluar el rendimiento real, comparar ese rendimiento con los objetivos fijados, o corregir las diferencias entre los resultados y los objetivos 

Esta etapa es esencial, ya que de no existir, no podría conocerse si lo planificado, organizado y ejecutado se ha realizado correctamente, y por tanto ha funcionado bien.

3.2. La información como recurso intangible.

Si bien hemos mencionado antes los distintos tipos de recursos a la manera clásica (recursos humanos, financieros, materiales e informativos), Hiroyuki Itami introduce en 1987, a través de su obra Mobilizing Invisible Assets una clasificación distinta que distingue los recursos de la organización en dos grandes tipos: los recursos tangibles o visibles y los recursos intangibles o invisibles.

Los primeros aluden a los recursos financieros, o los recursos materiales y técnicos; y los intangibles, a la imagen de marca, la investigación, los procesos de interacción con los consumidores, o el mismo capital intelectual derivado de los recursos humanos; activos, todos ellos, que para Itami son los que generan el auténtico valor en una organización, y en particular en una empresa. Si bien, los activos visibles son necesarios carecen de valor sin los invisibles.

A su vez, los activos invisibles se clasifican según el flujo de información que impliquen, ya sea entrada de información del exterior, movimiento de la misma dentro de la organización; o salida de información al exterior. Esta clasificación -información externa, interna y corporativa-, será la que mencionaremos a continuación.

3.2.1. La información ambiental.

Distinguiremos entre dos tipos de información ambiental, la información crítica y la información externa.

3.2.1.1. Información crítica (modelo de jakobiak).

Alfons Cornella cita a Jakobiak cuando establece una tipología de la información que denomina crítica, y que está formada por los siguientes tipos: científica, técnica, tecnológica, técnico-económica, jurídica y reglamentaria, de entorno y seguridad, e información cualitativa y general.


3.2.1.2. Información externa (modelo de laudon y laudon).

Entre los estudios para clasificar la información del entorno de la empresa destaca, también, la clasificación de Laudon y Laudon  que sirve, además, para estructurar la captura y absorción de información (volveremos sobre estos conceptos al identificar en un apartado posterior el contexto en el que se mueve una empresa).

Así, identifican dos entornos, inmediato y remoto:

1.El entorno inmediato, lo conforman los activos que una empresa trata a diario, como clientes, distribuidores, competidores, proveedores, financiadores y reguladores.

2.El entorno remoto, está formado por aquellos elementos que una empresa debe tener en cuenta para controlar el entorno en el que se encuadra, y que está formado por la información sobre la situación política, la sociedad, los cambios tecnológicos o la evolución económica.

3.2.2. La información interna.

En todo proceso de toma de decisiones se necesita información externa. Sin embargo para que dicha información pueda ser dirigida por los gestores requiere que sea tratada internamente. Además, es necesario que la información pueda fluir por los canales de la empresa para que obtenga el máximo provecho por parte de la organización. Nos referimos, también, a la información formal y a la informal.

Cornella diferencia entre dos tipos de información interna: los conocimientos y la información operacional. La información operacional es la generada por la organización debido al funcionamiento rutinario de la empresa ; mientras el conocimiento es el resultado de la fusión de la información interna y externa, que genera beneficios para las empresas.

3.2.3. La información corporativa.

Entendemos como información corporativa aquella que una empresa lanza al exterior, de manera que le permita controlar sus canales y sus contenidos.

Siguiendo de nuevo a Cornella  éste diseña un modelo general que representa los canales hacia los que emite información, y que resume en un entorno inmediato en el ámbito empresarial (clientes, distribuidores, proveedores, financiadores, reguladores, accionistas y empleados) ; y un entorno remoto, definido por dos tipos de informaciones las de carácter económico, y las de carácter tecnológico (patentes o resultados de investigación y desarrollo).

Este autor contrapone a la Inteligencia Competitiva (que analizaremos posteriormente) la Imaginería Corporativa, como aquellas técnicas que tiene como objetivo mejorar la proyección de la imagen corporativa de una organización.

3.3. La planificación.

Hemos descrito antes el concepto de planificación; fase que conforma uno de los ejes vehiculares sobre los que gravita cualquier sistema de información; en tanto que como determinante de los objetivos de la organización, y en los diferentes niveles y departamentos de la empresa, debe servir de herramienta para aportar información a la toma de decisiones.

La tipología de la planificación puede estudiarse desde es el espacio temporal al que se aplica, o el nivel directivo que lo ejerza.

Encontramos así las siguientes:

-Planificación estratégica, centrada en temas amplios y duraderos que aseguran la efectividad de la empresa. Se establecen objetivos y metas a largo plazo, y la lleva a cabo la alta dirección.

-Planificación operativa, que se establece a corto plazo y está orientada a la consecución de un objetivo determinado. La lleva a cabo la dirección de control y los directivos de operaciones.

-Y planificación táctica, que se centra en el enlace que puede establecerse entre la planificación estratégica y la operativa.

A su vez la planificación se estructura en las siguientes fases:

1.Evaluación de las condiciones actuales. Es la etapa previa para cualquiera de los tipos de planificación (estratégica, operativa o táctica). Mientras en la planificación estratégica se adopta una visión panorámica de los ambientes interno y externo de la organización; en la planificación operativa, la evaluación se hace no tanto en las tendencias, como en datos del tipo de flujo de caja, o de cuotas de mercado, ya que se centra en objetivos y metas más específicas.

2.Determinación de los objetivos y metas. Esta fase aparece una vez evaluadas las condiciones vigentes.

3.Los objetivos son fines específicos, medibles y planteados a corto plazo y su consecución previa es precisa para poder alcanzar las metas de la organización.

4.Las metas son estados o condiciones futuras que contribuyen a la finalidad última de la organización.

5.Establecimiento de un plan de acción. Las acciones son medios específicos para el logro de los objetivos. O dicho de otro modo los cursos de acción son la causa de la existencia de los objetivos.

6.Asignación de recursos. Es la fase en la que se presupuestan los recursos (financieros, humanos, etc...) para cada plan importante.

7.Ejecución. Es la asignación de personas y responsabilidades para llevar a cabo un plan. Requiere de las "políticas" que son declaraciones escritas que reflejan los objetivos básicos de un plan y trazan directrices que permiten elegir las acciones para alcanzar los objetivos.

8.Control de la ejecución. Incluye todas las actividades de gestión que tienen por objeto asegurar que los resultados actuales se corresponden con los resultados planeados.

3.4. La toma de decisiones.

En el contexto de una empresa la gestión de información tiene como uno de sus aspectos más relevantes el de la toma de decisiones. Y entendemos así, que una decisión puede ser descrita como la respuesta a un problema o la elección entre distintas alternativas para conseguir unos objetivos.

McClure define la toma de decisiones como la conversión de la información en acción, de manera que el recurso información adquiere un papel imprescindible en este proceso.

Sugieren que el proceso de toma de decisiones "es una serie o concatenación de pasos consecutivos o de etapas interconectadas que dan lugar a una acción o a un resultado y su correspondiente evaluación".

Apuntan que la toma de decisiones es un proceso en el que una o más personas identifican un problema y entonces diseñan, eligen, implementan y programan una solución.

Realiza una interesante aportación al señalar que toma de decisiones y gestión son términos sinónimos, y que la toma de decisiones en una organización tiene como fronteras los límites de la racionalidad: "La capacidad de la mente humana para formular y resolver problemas complejos es muy pequeña comparada con el tamaño de los problemas por los cuales se requiere una solución en un entorno real"

Finalmente, concluimos esta aproximación al señalar que una "decisión es el punto final de una serie de actividades que son primordialmente de naturaleza cognitiva".

3.5. Los mecanismos para la toma de decisiones: el proceso de toma de decisiones

Definida qué es la toma de decisiones, cabe indagar, ahora, en los distintos mecanismos existentes para la toma de decisiones. Es decir, qué tareas hay que realizar para llegar a la solución más adecuada a un problema.
identifica tres actividades:

    • Búsqueda de ocasiones para tomar una decisión,
    • Búsqueda de posibles trayectorias,
    • Elección de la dirección adecuada.

Mairéad Browne señala un esquema en cuatro niveles:

   • Identificación de problemas,
   • Búsqueda de alternativas,
   • Evaluación de alternativas,
   • Elección de una alternativa

Ivancevich et al. reflejan en su obra un proceso más complejo en nueve pasos, e inciden en que el proceso de toma de decisiones es un proceso secuencial, y no un suceso aislado.

Para el gestor, la identificación de todas las etapas es de gran valor, y le permite " estructurar la decisión del problema en una forma significativa y sistemática ". Para estos autores los pasos secuenciales son los siguientes:

   •  Establecer objetivos.
   •  Identificar y definir el problema.
   • Fijar posibilidades.
   • Determinar las causas del problema.
   • Elaborar soluciones alternativas.
   • Elegir una solución.
   • Ponerla en práctica.
   •Realizar su seguimiento.

Las seis primeras etapas formulan la decisión, y las dos últimas la ponen en práctica. Sin embargo, no todos los autores asumen que el proceso de toma de decisiones sea necesariamente secuencial, y asumen que en cualquiera de los pasos se puede iniciar un proceso de retroalimentación hacia cualquiera de las fases anteriores. que identifican ocho pasos:

   • Identificación del problema.
   • Identificación de los objetivos.
   • Cuantificación de los beneficios y costes.
   • Selección de alternativas.
   • Evaluación de cada alternativa.
   • Comparación de alternativas y elección de una.
   • Implementación de la alternativa elegida.
   • Puesta en práctica y evaluación de resultados.

Simon realiza una división diferente y agrupa los seis primeros pasos en tres etapas, y los dos últimos en una cuarta etapa. Así para este autor el proceso de toma de decisiones se reduce a:

   1. Inteligencia. Conocimiento del entorno para situaciones que demandan una solución.
   2.Diseño. Generación, desarrollo y análisis de alternativas para optar por una trayectoria.
   3.Elección. Selección de la trayectoria.
   4. Implementación y revisión.

En suma, la toma de decisiones consiste en un mecanismo para decidir, y en el procesamiento de información para informar, alimentar y satisfacer este mecanismo.

4. El contexto de la empresa y sus necesidades de información

Para comprender bien qué objetivos tiene un sistema de información y cómo debe funcionar, hay que entender también dos conceptos relativos al contexto, o medio ambiente, en el que se inserta una empresa. Nos referimos al conjunto de factores que le afectan, donde existen amenazas que pueden perjudicar o destruir una empresa, y oportunidades que pueden incrementar las cualidades de la misma.

Enlazamos, aquí, con algunas nociones aportadas en el apartado referente a la información como recurso intangible. Tenemos, así, por un lado:

   1. Elmedio ambiente interno o aquellos "factores, como el personal, la estructura, sus políticas y       recompensas, que ejercen influencia en la manera de realizar el trabajo y de conseguir los objetivos"

2. Y por otro el medio ambiente externo, más complejo en tanto que conforma factores ajenos al dominio interno de los gestores, y por tanto requiere una vigilancia permanente. A su vez, este medio ambiente externo tiene una doble estructura:

•  Medio ambiente externo remoto, como el clima político, la situación económica, las tendencias sociales, o las innovaciones tecnológicas.

•Y el Medio ambiente externo inmediato , formado por clientes, proveedores, distribuidores, competidores, financiadores y reguladores.

Observaremos éste medio ambiente externo como un modelo de necesidades de información que los gestores de una empresa deben obligatoriamente controlar para una eficaz toma de decisiones y cuyos recursos de información, ya sean éstos vistos como fuentes de información, servicios de información o sistemas de información, deben ser incorporados al sistema de información empresarial como importantes recursos para la toma de decisiones.


5. Del sistema de información en la organización, a la organización como sistema de información

5.1. La organización.
En líneas generales, una organización es cualquier institución compuesta de recursos, cuya combinación, permite alcanzar una serie de objetivos. El ser humano vive y se relaciona dentro de organizaciones, lo que ha dado lugar a que nuestra sociedad haya sido denominada "burocrática" u "organizacional".
 Las organizaciones pueden ser definidas por sus estructuras, formadas por múltiples canales y normas. La organización es un complejo de canales a través de los cuales los productos, servicios, recursos y flujos de información transitan de un punto a otro dentro de la organización, y también entre la organización y su entorno
 La organización se define por su estructura y por su funcionamiento , de manera que se introduce la estructura como elemento estático y el funcionamiento como dinámico , lo cual nos lleva a diferenciar la estructura, es decir la combinación de las diferentes partes de la organización con su funcionamiento.
La estructura permite la existencia de un orden metódico entre las distintas funciones de la organización lo que permite conseguir los objetivos fijados.
 6. La gestión del conocimiento.

Nuevo elemento para los sistemas de información
.
Ha sido en la última década cuando se ha descubierto que las personas se convierten en la clave de las organizaciones, que deben basar su crecimiento y competitividad en la creatividad y la iniciativa de sus miembros.

Surge, así, la gestión del conocimiento (knowledge management) como el concepto capaz de articular el capital intelectual y todo el potencial que llevan dentro de sí los recursos humanos, y transformarlos en valor para la acción..

Algunos autores consideran que la gestión del conocimiento aparece debido a que la gestión de información se ocupaba del conocimiento explícito, es decir aquel recogido en los documentos, y no en el conocimiento tácito.

Las nuevas estructuras organizativas, requieren una gestión de los recursos y de los activos diferente. El saber y el conocimiento se convierten en la base de la estrategia y en el verdadero activo de cualquier organización, representado en sus individuos.

Veamos algunas características de la gestión del conocimiento. Earl propone cuatro componentes para que una empresa sea capaz de crear una estrategia capaz de generar conocimiento:

 Sistemas del conocimiento.
• Redes.
• Trabajadores del conocimiento.
• Y organizaciones aprehendientes.

Los sistemas de información y su importancia para las organizaciones y empresas


Los Sistemas de Información (SI) y las Tecnologías de Información (TI) han cambiado la forma en que operan las organizaciones actuales. A través de su uso se logran importantes mejoras, pues automatizan los procesos operativos, suministran una plataforma de información necesaria para la toma de decisiones y, lo más importante, su implantación logra ventajas competitivas o reducir la ventaja de los rivales.

Las Tecnologías de la Información han sido conceptualizadas como la integración y convergencia de la computación, las telecomunicaciones y la técnica para el procesamiento de datos, donde sus principales componentes son: el factor humano, los contenidos de la información, el equipamiento, la infraestructura, el software y los mecanismos de intercambio de información, los elementos de política y regulaciones, además de los recursos financieros.

Los componentes anteriores conforman los protagonistas del desarrollo informático en una sociedad, tanto para su desarrollo como para su aplicación, además se reconoce que las tecnologías de la información constituyen el núcleo central de una transformación multidimensional que experimenta la economía y la sociedad; de aquí lo importante que es el estudio y dominio de las influencias que tal transformación impone al ser humano como ente social, ya que tiende a modificar no sólo sus hábitos y patrones de conducta, sino, incluso, su forma de pensar.

Dentro de las tecnologías de la información también debemos contemplar algunos conceptos y/o metodologías que merecen estar clasificadas como de alto impacto, ya sea para nuestra organización, el individuo o la sociedad misma.

1. LA INFORMACIÓN COMO RECURSO DE LAS ORGANIZACIONES. 

Desde hace ya algunos años las organizaciones han reconocido la importancia de administrar los principales recursos como la mano de obra y las materias primas.

La información se ha colocado en un buen lugar como uno de los principales recursos que poseen las empresas actualmente. Los entes que se encargan de las tomas de decisiones han comenzado a comprender que la información no es sólo un subproducto de la conducción empresarial, sino que a la vez alimenta a los negocios y puede ser uno de los tantos factores críticos para la determinación del éxito o fracaso de éstos.

Si deseamos maximizar la utilidad que posee nuestra información, el negocio la debe manejar de forma correcta y eficiente, tal y cómo se manejan los demás recursos existentes. Los administradores deben comprender de manera general que hay costos asociados con la producción, distribución, seguridad, almacenamiento y recuperación de toda la información que es manejada en la organización. Aunque la información se encuentra a nuestro alrededor, debemos saber que ésta no es gratis, y su uso es estrictamente estratégico para posicionar de forma ventajosa la empresa dentro de un negocio.

La fácil disponibilidad que poseen las computadoras y las tecnologías de información en general, han creado una revolución informática en la sociedad y de forma particular en los negocios. El manejo de información generada por computadora difiere en forma significativa del manejo de datos producidos manualmente.

2. ¿QUÉ ES UN SISTEMA DE INFORMACIÓN? 
Un Sistema de Información es un conjunto de elementos que interactúan entre sí con el fin de apoyar las actividades de una empresa o negocio. En un sentido amplio, un sistema de información no necesariamente incluye equipo electrónico (hardware[1]). Sin embargo en la práctica se utiliza como sinónimo de “sistema de información computarizado”.

Los elementos que interactúan entre sí son: el equipo computacional, el recurso humano, los datos o información fuente, programas ejecutados por las computadoras, las telecomunicaciones y los procedimientos de políticas y reglas de operación.

Un Sistema de Información realiza cuatro actividades básicas:
Entrada de información: proceso en el cual el sistema toma los datos que requiere para procesar la información, por medio de estaciones de trabajo, teclado, diskettes, cintas magnéticas, código de barras, etc.
Almacenamiento de información: es una de las actividades más importantes que tiene una computadora, ya que a través de esta propiedad el sistema puede recordar la información guardad en la sesión o proceso anterior.
Procesamiento de la información: esta característica de los sistemas permite la transformación de los datos fuente en información que puede ser utilizada para la toma de decisiones, lo que hace posible, entre otras cosas, que un tomador de decisiones genere una proyección financiera a partir de los datos que contiene un estado de resultados o un balance general en un año base.
Salida de información: es la capacidad de un SI para sacar la información procesada o bien datos de entrada al exterior. Las unidades típicas de salida son las impresoras, graficadores, cintas magnéticas, diskettes, la voz, etc.

3. TIPOS Y USOS DE LOS SISTEMAS DE INFORMACIÓN. 

Durante los próximos años, los sistemas de información cumplirán los siguientes objetivos:
Automatizar los procesos operativos.
Proporcionar información de apoyo a la toma de decisiones.
Lograr ventajas competitivas a través de su implantación y uso.
Con frecuencia, los sistemas de información que logran la automatización de procesos operativos dentro de una organización son llamados Sistemas Transaccionales, ya que su función principal consiste en procesar transacciones tales como pagos, cobros, pólizas, planillas, entradas, salidas. Por otra parte, los sistemas de información que apoyan el proceso de toma de decisiones son los sistemas de apoyo a la toma de decisiones (DSS, por sus siglas en inglés Decisión Supporting System). El tercer tipo de sistemas, de acuerdo con su uso u objetivos que cumplen, es de los Sistemas Estratégicos, los cuales se desarrollan en las organizaciones con el fin de lograr las ventajas competitivas, a través del uso de la Tecnología de Información (TI).

4. IMPORTANCIA DE LOS SISTEMAS DE INFORMACIÓN 
Cuando muchas personas se preguntan por qué estudiar sobre los sistemas de información, es lo mismo que preguntar por qué debería estudiar alguien contabilidad, finanzas, gestión de operaciones, marketing, administración de recursos humanos o cualquier otra función empresarial importante. Lo que si les puedo asegurar es que muchas empresas y organizaciones tienen éxitos en sus objetivos por la implantación y uso de los Sistemas de Información. De esta forma, constituyen un campo esencial de estudio en administración y gerencia de empresas.
Es por esta razón que todos los profesionales en el área de Administración de Empresas deberían o más bien deben, tomar un curso de sistemas de información. Por otro lado es importante tener una comprensión básica de los sistemas de información para entender cualquier otra área funcional en la empresa, por eso es importante también, tener una cultura informática en nuestras organizaciones que permitan y den las condiciones necesarias para que los sistemas de información logren los objetivos citados anteriormente. Muchas veces las organizaciones no han entrado en la etapa de cambio hacía la era de la información sin saber que es un riesgo muy grande de fracaso debido a las amenazas del mercado y su incapacidad de competir, por ejemplo, las TI que se basan en Internet se están convirtiendo rápidamente en un ingrediente necesario par el éxito empresarial en el entorno global y dinámico de hoy.

Por lo tanto, la administración apropiada de los sistemas de información es un desafío importante para los gerentes. Así la función de los SI representa:
Un área funcional principal dentro de la empresa, que es tan importante para el éxito empresarial como las funciones de contabilidad, finanzas, administración de operaciones, marketing, y administración de recursos humanos.
Una colaboración importante para le eficiencia operacional, la productividad y la moral del empleado, y el servicio y satisfacción del cliente.
Una fuente importante de información y respaldo importante para la toma de decisiones efectivas por parte de los gerentes.
Un ingrediente importante para el desarrollo de productos y servicios competitivos que den a las organizaciones una ventaja estratégica en el mercado global.
Una oportunidad profesional esencial, dinámica y retadora para millones de hombres y mujeres.

5. UNA SOCIEDAD DE INFORMACION GLOBAL
Estamos viviendo en una sociedad de información global emergente, con una economía global que depende cada vez más de la creación, la administración y la distribución de la información a través de redes globales como Internet. Muchas empresas están en proceso de globalización; es decir, se están convirtiendo en empresas globales interconectadas en red. Por ejemplo, las empresas se están expandiendo a mercados globales para sus productos y servicios, utilizando instalaciones de producciones globales para fabricar o ensamblar productos, reuniendo dinero en mercados de capitales globales, formando alianzas con socios globales y luchando con competidores globales pro clientes de todo el mundo. El manejo y la realización de estos cambios estratégicos serían imposibles sin Internet, Intranets[2] y otras redes globales de computación y de telecomunicaciones que constituyen un sistema nervioso central de las empresas globales de hoy.

Las personas de muchas naciones ya no viven en sociedades agrícolas, compuestas principalmente de agricultores, o incluso sociedades industriales, donde la mayor parte de la fuerza laboral se compone de trabajadores de fábrica.

En cambio, en muchas naciones gran parte de la fuerza laboral está constituida por personas que se ocupan en labores de prestación de servicios o trabajadores del conocimiento, es decir, personas que se dedican la mayor parte de su tiempo a la comunicación y colaboración en equipos y grupos de trabajo, y a la creación, uso y distribución de la información.

6. ESTRATEGIAS COMPETITIVAS CON LA TI. 
Con frecuencia, el uso de la tecnología de información para la globalización y la reingeniería de procesos empresariales da como resultado el desarrollo de sistemas de información que ayudan a una empresa a darle ventaja competitiva en el mercado, utilizándolos para desarrollar productos, servicios, procesos y capacidades que dan a una empresa una ventaja estratégica sobre las fuerzas competitivas que enfrenta una empresa. Estrategias de costo, por ejemplo, utilizando sistemas de manufactura asistidos por computadora para reducir los costos de producción, o crear sitios Web en Internet para comercio electrónico (e-business), con el fin de reducir los costos del marketing. Estrategias de diferenciación, como desarrollar maneras de utilizar la tecnología de información para diferenciar productos o servicios de una empresa, de los de sus competidores, de manera que los clientes perciban los productos o servicios como poseedores de atributos o beneficios únicos. Por ejemplo, suministrar servicios rápidos y completos de soporte al cliente por medio de un sitio Web en Internet, o utilizar sistemas de marketing como objetivo para ofrecer a clientes individuales los productos y servicios que le atraen.

7. CONCLUSIONES. 
En esta pequeña introducción a la visión de cambio que han causado los sistemas de información organizacionales, se adquirió un conocimiento básico de la importancia mediante su utilización para automatizar los procesos operativos y su evolución hacia fuentes importantes de información que sirven de base para la toma de decisiones como apoyo a los niveles medio y alto gerenciales, para finalmente convertirse en herramientas para obtener ventajas competitivas mediante su implantación y uso apoyando el máximo nivel de la organización.
Cada día se utiliza en mayor grado las TI para apoyar y automatizar las actividades de una empresa. Es importante como recomendación contar con un plan adecuado para lograr mayores ventajas del uso de los Sistemas de Información.




Imágenes de Sistemas de Información