lunes, 23 de noviembre de 2009

Semana 08


LA MEMORIA RAM - Random Access Memory (memoria de acceso aleatorio)

La memoria es uno de los componentes fundamentales de la PC. Su función es proveer de un “espacio de trabajo” para el procesador. Un lugar donde guarda los datos y las instrucciones que está utilizando, para tenerlos a mano y no ir a buscarlos al disco rígido.

La RAM es un dispositivo electrónico que necesita una alimentación eléctrica constante para conservar sus valores. Esto significa que, cuando se apaga el equipo (a propósito o accidentalmente), todo lo que se encontraba en ella desaparece instantáneamente, y no tendremos posibilidad alguna de recuperarlo. Esta característica hace que la RAM sea considerada una “memoria volátil”. Por eso, para no perder nuestros datos, tenemos que guardarlos en algún lugar que no sufra de esta debilidad. Y esta es la función de los diskettes o discos rígidos.

EL PAPEL DE LA MEMORIA EN LA COMPUTADORA

Los que trabajan en la informática comúnmente emplean el término “memoria” para aludir a la RAM. Un ordenador utiliza la memoria de acceso aleatorio para guardar las instrucciones y los datos temporales que se necesitan para ejecutar las tareas. De esta manera, la Central Processing Unit (unidad central de proceso) o CPU puede acceder rápidamente a las instrucciones y a los datos guardados en la memoria.

Un buen ejemplo de esto es lo que sucede cuando la CPU carga en la memoria un programa de aplicación, tal como un procesador de textos o un programa de autoedición, permitiendo así que el programa de aplicación funcione con la mayor velocidad posible. En términos prácticos, esto significa que se puede hacer más trabajo en menos tiempo.

El proceso comienza cuando ingresa un comando desde el teclado. El CPU interpreta el comando y ordena a la unidad de disco duro cargar el programa en la memoria. Una vez que los datos están cargados en la memoria, el CPU puede accesarlos mucho más rápido.

Este concepto de “poner los datos al alcance de la CPU” es similar a lo que sucede cuando se colocan diversos archivos y documentos electrónicos en una sola carpeta o directorio de archivos del ordenador. Al hacerlo, éstos se mantienen siempre a mano y se evita la necesidad de buscarlos cada vez que Ud. los necesite.

A continuación, comentaremos los aspectos fundamentales de la memoria, así como las principales características de los modelos utilizados en la actualidad.

¿De dónde viene el termino RAM?, es una sigla proveniente del ingles, que significa Random Access Memory (memoria de acceso aleatorio). Y es ese “aleatorio” lo que indica su principal característica: significa que el procesador puede acceder ¡ndistintamente a cualquier sector de la memoria sin necesidad de recorrer toda la información anterior, funcionando de una manera similar a la memoria humana. La RAM puede entregar el dato solicitado con solo buscarlo en la posición donde lo había guardado.

LAS FUNCIONES DE LA RAM

La memoria RAM posee dos funciones importantes

  • Almacena datos e instrucciones que son utilizados por el procesador. Tanto los programas que instalamos en la PC como los datos que estos emplean deben estar guardados en la RAM para que el procesador pueda recurrir a ellos. Por ejemplo, al pedir la ejecución de un programa, este se carga desde donde se encuentra hacia la RAM, la cual le pasa las instrucciones al procesador, que las ejecuta a la vez que ordena cargar nuevos datos en la memoria RAM, también necesarios para su funcionamiento. estos datos e instrucciones permanecen almacenados en la RAM hasta que finaliza la ejecución del programa.
  • Almacena Programas Internos De La Pc. existen espacios dentro de la RAM que son utilizados por programas propios de la PC, encargados de realizar tareas de coordinación. Además, la RAM mantiene almacenados aquellos programas que el sistema operativo consulta para manejar ciertos dispositivos.

CÓMO FUNCIONA LA MEMORIA CON EL PROCESADOR

Veamos este proceso con más detalle: El CPU con frecuencia se conoce como el cerebro de la computadora. Este es el lugar donde se realizan todas las acciones de la computadora.

El conjunto de chips (Chipset) que soporta el CPU, Generalmente contiene varios “controladores” que controlan la forma en que dememor viaja la información entre el procesador y otros componentes en el sistema. Algunos sistemas tienen más de un conjunto de chips.

El controlador de memoria es parte del conjunto de chips y este controlador establece el flujo de información entre la memoria y el CPU.

Un bus es una ruta de datos en una computadora, el cual consiste de varios cables en paralelo a los que están conectados al CPU, la memoria y todos los dispositivos de entrada/salida. El diseíío del bus o la arquitectura del bus determinan cuántos y qué tan rápido se pueden mover los datos a lo largo de la tarjeta madre. Hay distintas clases de buses en el sistema, dependiendo de las velocidades que se requieran para los componentes en particular. El bus de memoria va del controlador de la memoria a los sockets de memoria de la computadora. Los sistemas más nuevos tienen una arquitectura de bus de memoria en el que el bus frontal (FSB) va del CPU a la memoria principal y el bus inverso (BSB), el cual va del controlador de la memoria a la memoria caché L2.

ASPECTO FISICO

Físicamente, la RAM es una pequeíia placa rectangular verde plana en la cual están solados varios circuitos integrados (negros), en una de las caras o ambas. La memoria viene en una variedad de tamaíios y formas. Obviamente, hay mucho más que eso para crear una memoria. La ilustración que viene a continuación muestra un módulo de memoria típico e indica algunas de sus características más importantes.

La clase de chips que tenga soldados, así como la cantidad de contactos que haya en el extremo inferior, determinan físicamente el tipo de memoria de que se trate, pero todos responden en líneas generales al formato DIMM (Dual In-Une Memory Module ,Guía Visuali) actualmente, encontramos las siguientes variedades: SDRAM, DDR, RAMBUS, FPM y EDO.

EVALUAR LA RAM

Hay cinco aspectos fundamentales que debemos considerar al evaluar la RAM de una PC:

  1. La Cantidad de memoria
  2. Su Velocidad
  3. El Ancho de Banda
  4. La Tecnología utilizada y su
  5. Capacidad para Corregir Errores

1. CANTIDAD DE RAM

Independientemente del tipo de memoria que utilicemos, los módulos vienen en cantidades de 32, 64, 128, 256, 512, 1024 y 2048 MB, aunque en la actualidad, los de 32, 64 y 128 ya dejaron de utilizarse. Como es suponer, y por dar solo un ejemplo, un modulo de 256 MB puede contener más datos que uno de 128. Como las PCs tienen más de un banco de memoria, la cantidad de memoria que contenga cada modulo que agreguemos se sumara a la ya instalada. Por ejemplo, si nuestro equipo tiene 512 MB de RAM, es posible que tenga dos módulos de 256 o uno de 512. Con 1Gb (1024) podemos tener dos de 512 o uno de 1024. Al momento de efectuar la compra, siempre conviene utilizar la menos cantidad posible de módulos, y así tener más disponibilidad para efectuar futuras actualizaciones. En la siguiente figura podemos apreciar un modulo de memoria ya instalado en un banco de motherboard.

Siempre, a mayor cantidad de memoria instalada, mejor performance de la PC, ya que al proveer al equipo de un gran espacio de trabajo, el procesador no deberá tratar hacer lugar dentro de la RAM para carga nueva información. Para entenderlo mejor, veamos cómo funciona: cuando la memoria RAM agota su espacio y el sistema operativo necesita cargar algo en ella, mueve temporalmente datos desde la RAM hacia el disco rígido (que también deberá contar con suficiente espacio libre para realizar esta tarea), con o cual consume gran cantidad de tiempo y de recursos. Esta operación se denomina SWAP (Intercambio), y una mayor cantidad de RAM evitara que el sistema operativo deba recurrir frecuentemente a ella, de modo que se aceleraran los procesos.

En la Actualidad la capacidad de la memoria RAM se mide en Gigabaytes (GB). En la jerga, suele acortarse el termino Gigabyte (simplemente, Giga) por lo que, al consular por la capacidad de RAM de una PC, será frecuente oír que es de “X cantidad de Gigas”. Podemos verificar la cantidad de memoria instalada de nuestro equipo al iniciarlo. En ese momento, veremos un conteo que realiza el POST para comprobar que la memoria se encuentra libre de problemas. La cantidad de memoria RAM instalada determina varios factores, como la posibilidad de abrir imágenes y videos de gran tamaño, la agilidad del equipo al trabajar con varios documentos que incluyan imágenes o con planillas de cálculo con alta complejidad, el uso de programas que tengan altos requerimientos (como los juegos, en los que se utiliza intensamente la RAM para guardar imágenes), etc. en definitiva, determina la velocidad y la capacidad de la PC: de ahí la importancia de este componente.

Podernos darnos cuenta de que la cantidad de RAM no es suficiente cuando el sistema se encuentra continuamente accediendo al disco rígido para tratar de crear espacio libre en la memoria (veremos que la PC trabaja cada vez con mas lentitud y que la luz del disco rígido, ubicado en el frente del gabinete, aparece encendida en forma permanente).

La capacidad de la RAM es independiente del modelo o tipo de memoria. Esto significa que para cada uno de los formatos (DDR, SDRAM, etc.) hay modelos que cuentan con diferentes capacidades (que actualmente van desde los 128 Mb hasta los 2 GB).

2. VELOCIDAD DE LA RAM

Cuando el CPU necesita información de la memoria, éste envía una solicitud que se administra en el controlador de memoria. El controlador de memoria envía la solicitud de la memoria e informa al CPU cuando la información estará disponible para leerla. Este ciclo completo, que va del CPU al controlador de la memoria y de ahí a la memoria y de regreso al CPU, puede variar en longitud de acuerdo con la velocidad de la memoria, así como de otros factores tales como la velocidad del bus.

Hace algunos años, la velocidad de la memoria RAM solía medirse según el tiempo que necesitaba para entregar un dato. Este valor era de algunas docenas de nanosegundos (un nanosegundo es 0,00000001 segundos). Se utiliza este método por que las memorias trabajaban a una frecuencia mucho menor que la del microprocesador.

TIEMPO DE ACCESO (NANO SEGUNDOS)

El tiempo de acceso se mide desde el momento en que el módulo de memoria recibe una solicitud de datos hasta el momento en que esos datos están disponibles. Los chips y los módulos de memoria se utilizan para marcarse con tiempos de acceso que van de 8Ons a 5Ons. Con las mediciones de tiempo de acceso (es decir, las mediciones en nano segundos), un número inferior indica velocidades más altas.

En este ejemplo, el controlador de la memoria solicita datos de la memoria y la memoria reacciona a la solicitud en 70ns. El CPU recibe los datos en aproximadamente 125ns. Así, el tiempo total desde que el CPU hace la primera solicitud de información hasta que la recibe puede ser de hasta 195ns cuando se utiliza un módulo de memoria de 70ns. Esto es debido a que toma tiempo para que el controlador de memoria administre el flujo de información y la información necesita viajar del módulo de memoria al CPU en el bus.

A partir de los procesadores Pentium II, alrededor del año 1995, las memorias comenzaron a trabajar a la misma frecuencia interna del procesador, por lo que se desecho el viejo sistema y se empezó a indicar la velocidad de la memoria en MHz, aunque también se puede indicar la velocidad de acceso en nanosegundos (y, de hecho, se hace así). Pero la medición de velocidad en MHz resulta más importante y refleja mejor el desempeño de la memoria, ya que nos indica la cantidad de operaciones por segundo que puede realizar, en sintonía con el procesador a una fracción de la frecuencia a la que este opere.

MEGAHERTZ (MHZ)

Comenzando con la tecnología DRAM sincrónica, los chips de memoria tienen la capacidad de sincronizarse ellos mismos con el reloj del sistema de la computadora, haciendo más fácil la medición de la velocidad en megahertz o millones de ciclos por segundo. Debido a que esta es la misma forma en que se mide la velocidad en el resto del sistema, se hace mucho más fácil comparar las velocidades de los distintos componentes y sincronizar sus funciones. Para entender mejor la velocidad, es importante entender el reloj del sistema.

RELOJ DEL SISTEMA

Un reloj del sistema reside en la tarjeta madre. Éste envía una señal a todos los componentes de la computadora en ritmo, como un metrónomo. Generalmente, este ritmo se genera como una onda cuadrada.

Cada onda en esta serial mide un ciclo de reloj. Si el reloj del sistema funciona a 100MHZ, esto significa que hay 100 millones de ciclos del reloj en un segundo. Cada acción en la computadora se marca con un tiempo mediante estos ciclos del reloj y para realizarse, cada acción toma cierto número de ciclos del reloj. Cuando se procesa una solicitud de la memoria, por ejemplo, el controlador de la memoria puede informar al procesador que los datos requeridos llegarán en seis ciclos de reloj.

Es posible que el CPU y otros dispositivos funcionen más rápido o más lento que el reloj del sistema. Los componentes de distintas velocidades requieren un factor de multiplicación o un factor de división para sincronizarlos. Por ejemplo, cuando un reloj del sistema de 100MHZ interactúa con un CPU de 400MHZ, cada dispositivo entiende que cada ciclo de reloj del sistema es igual a cuatro ciclos de reloj del CPU; éstos utilizan un factor de cuatro para sincronizar sus acciones.

Los motherboard actuales soportan distintas velocidades de un mismo tipo de memoria, debemos tener en cuenta con que es conveniente utilizar aquellos de igual velocidad, para evitar fallas debido a la falta de sincronismo cuando pasa información entre los distintos módulos.

La velocidad de la memoria varía de acuerdo con el tipo de memoria RAM que estemos utilizando (DDR, SDRAM, RAMBUS, etc.). Veremos más adelante en qué consisten estas diferentes tecnologías.

3. ANCHO DE BANDA

La velocidad en MHz de la RAM no es un indicador demasiado efectivo de la performance que podemos esperar de un determinado tipo de memoria, lo que en realidad define el desempeño de la memoria es el ancho de banda provisto; es decir, la cantidad de datos que la memoria puede transmitir al motherboard (al chipset) en un lapso de tiempo. En los tipos de memoria modernos, el ancho de banda se expresa en megabytes o en gigabytes por segundo (MB/seg o GB/seg). Dicho desempePo se puede calcular conociendo su frecuencia de funcionamiento o velocidad (MHz) y el ancho del bus de datos que la conecta al chipset.

4. LA TECNOLOGÍAS DE RAM

Actualmente se utilizan 3 tipos diferentes de RAM. Existen otros cientos de modelos, pero en su gran mayoría han quedado en desuso. El tipo de memoria soportada por la placa madre está determinada por el Chipset correspondiente, y la velocidad debe elegirse según el tipo de procesador que tengamos instalado. Estas memorias además difieren en cuanto a su aspecto físico en la cantidad de pines que poseen, y esto es lo que hace que muchos tipos de memoria no pueden emplearse en determinadas placas.

  • DRAM y SDRAM. Hay dos tipos tradicionales de memoria RAM. Uno es conocido como DRAM (Dimamic Ram) y el otro como SDRAM (Estatic Ram). La diferencia radica en que la SDRAM conserva y recuerda su contenido, mientras que la DRAM debe ser refrescada cada pocos milisegundos. Por lo tanto la SDRAM puede responde mucha más rápido que la RAM.

La SDRAM también constituye uno de los primeros DIMMs que aparecieron en el mercado. Se encontraban disponibles en velocidades de 66 y 100 MHz para funcionar con los Pentium de esa época. Luego llegaron a velocidades de 133 y 150 MHz para mantenerse a la par de los Pentium III.

Existen placas para procesadores Pentium IV que soportan este tipo de memorias, aunque no es lo más recomendable, ya que el procesador es demasiado veloz para ellas esto puede generar cuellos de botella al momento de transferir los datos, haciendo que todo el proceso sea mucho más lento.

  • RIMM Es la abreviatura de Rambus In-line Memory Module. Esta memoria también se conoce como RDRAM. Fue originalmente concebida para los procesadores Pentium IV y funciona a una frecuencia de 800 MHz, aunque en un principio se encontraba disponible en versiones de 600 y 700 MHz. Si bien era una buena alternativa en desempefio, fracaso por una cuestión comercial, ya que era exclusivamente fabricada por una empresa (Rambus) que no podía satisfacer la demanda y tampoco permitía que nadie más la fabricara. Suele ser una memoria bastante cara, por lo que ha caído en desuso, aunque luego empezaron a fabricarla otras compañías.
  • DDR Abreviatura de Double Data Rate. Es la opción ideal en la actualidad ya que tiene una característica especial que le permite realizar dos operaciones por ciclo de reloj. Esto hace que se comporte prácticamente como una memoria que funciona al doble de la frecuencia nominal. Por ejemplo, una memoria DDR de 300 MHZ tendrá un rendimiento similar al de una SDRAM de 600 MHz.

La compañía AMD fue pionera al adoptar este tipo de memoria para sus procesadores Athlon y Duron, pero recientemente salieron al mercado placas para Pentium IV que también la soportan.

5. CORRECCIÓN DE ERRORES

Durante el intercambio de la información desde o hacia la memoria, es posible que se produzcan fallas debido a problemas de alimentación o sincronismo, razón por la cual algunos fabricantes ofrecen memorias de los tipos mencionados, pero con la capacidad extra de corregir errores. Estos sistemas permiten verificar la información de la memoria para asegurarnos de que fue escrita correctamente y, en caso contrario informar del error para que se vuelva a realizar la operación de escritura. Las memorias que brindan un sistema de corrección de errores son levemente más caras que las que no lo tienen, y suelen incluir la sigla ECC (Error Correction Code, Código de Corrección de Errores) en el nombre de su modelo. Para que puedan ser aprovechadas, el Chipset de la placa debe soportar también estas características.

LA MEMORIA CACHE

  • La Memoria Caché es un deposito muy pequeuio (en comparación con el tamaño de la Memoria RAM en el que se copian, por turno los datos y las instrucciones que esta utilizando el Procesador en cada momento. A mayor capacidad de almacenamiento más datos podrán copiarse de la RAM allí y, por lo tanto más probable será encontrar el próximo dato o la orden siguiente que se deba ejecutar.
  • El concepto detrás de la Memoria Caché es la regla “80/20” que establece que todos sus programas, información y datos en la computadora, aproximadamente de 20% se utiliza el 80% del tiempo. (Este 20% de datos puede incluir el código requerido para enviar o eliminar correos electrónicos, guardar un archivo en la unidad de disco duro o simplemente reconocer las teclas que se presionaron en el teclado. En forma inversa, el 80% restante de los datos en el sistema se utiliza aproximadamente el 20% del tiempo. La memoria caché tiene sentido debido a que hay una gran posibilidad de que los datos e instrucciones que el CPU está utilizando ahora se necesitarán una vez más.
  • Esta es, básicamente, la solución que se encontró para compensar la diferencia de velocidad que existe entre el microprocesador y la memoria RAM. Es decir, para que el microprocesador no se retrase esperando que la RAM le entregue los datos, se creo una memoria intermedia, muy veloz, que puede trabajar al mismo ritmo que el mismo microprocesador y que hace las veces de memoria sustituta temporánea y de fácil acceso.
  • La Memoria Caché se encuentra, por lo general, dentro del microprocesador y también puede estar en la placa madre independientemente de su ubicación, su función es siempre ser intermediaria entre la RAM y el Microprocesador. Cuando la Memoria Caché esta en el interior de Microprocesador, se denomina Caché Interna o L1, mientras que si se encuentra en la placa madre o en la pastilla en donde esta encapsulado el microprocesador, se conoce como Caché externa o L2.

Caché Interna L1 o Integrada

Este componente se encuentra dentro del microprocesador y posee las siguientes características:

  • El primer procesador que la tuvo fue el modelo 486 de Intel que apareció en 1991, y permitió duplicar la velocidad del procesamiento que se lograba hasta ese momento.
  • Comúnmente está dividida en dos bloques: uno contiene las instrucciones y el otro, los datos (números, palabras, etc.), por lo que, cuando se habla de su capacidad de almacenamiento se dice, por ejemplo, que es de 2 x 16 Kb, es decir, dos bloque de i6 kilobytes cada uno.
  • La información se busca primero en la caché Li, y si no se encuentra allí, se pasa a buscar en la segunda y la tercera caché (en caso de que existiera). Finalmente si tampoco esta allí el microprocesador deberá “salir a buscarla a la memoria RAM”.

Caché Interna L2 o Externa

Surgió primero como una caché localizada en la placa, pero, luego en las Pcs de sexta generación, se trasladó al módulo del microprocesador. A continuación se enumeran las características más relevantes de esta estructura:

  • También se le denomina Caché externa, porque no se encuentra construida en el dado del microcomputador, como ocurre con la caché L1.
  • Su función es ser un depósito de instrucciones y datos que permiten agilizar la comunicación entre éste y la memoria principal.
  • La caché externa L2 puede estar incluida en el módulo del microprocesador o directamente en la placa. Los microprocesadores que cuentan con el primero de estos tipos de Caché L2 son muchos más modernos y eficientes que los que tienen la caché construida en la placa.
  • La Caché L2 que se encuentra en el módulo del microprocesador es varias veces más rápida que la que está en la placa, porque trabaja a la misma velocidad del microprocesador o, a lo sumo, a la mitad mientras que la otra lo hace a la velocidad del Bus FSB (66 MHz, 100 MHz, 133 MHz, 666 MHz, 800 MHz, Etc.)
  • El primer procesador que tuvo este tipo de Caché fue el modelo Intel Pentium Pro, presentado en 1997.
  • Su capacidad oscila entre los 128 Kbytes y 2 Mbytes, en función del microprocesador.
  • Los microprocesadores que tienen una segunda Caché son generalmente más veloces que los que no disponen de esta estructura.

Caché L3

Algunos microprocesadores soportan una tercera Caché L3, que no se encuentran en el microprocesador sino en la placa madre. Un ejemplo son los microprocesadores K6-3, producidos por AMD, y que se dice que tienen tres niveles de memoria Caché.

DÓNDE VA LA MEMORIA EN LA COMPUTADORA

Originalmente, los chips de memoria se conectaban directamente a la tarjeta madre o a la tarjeta de sistema de la computadora. Sin embargo, el espacio en la tarjeta se hizo después un asunto de importancia. La solución fue soldar los chips de la memoria a una pequeña tarjeta de circuitos modulares, es decir, un módulo desmontable que entra en un socket en la tarjeta madre. Este diseño de módulo se llamó SIMM (Módulo de memoria en línea única), y ahorró mucho espacio en la tarjeta madre. Por ejemplo, un conjunto de cuatro SIMMs puede contener un total de 80 chips de memoria y ocupar hasta 9 pulgadas cuadradas de área de superficie en la tarjeta madre. Esos 80 chips instalados en forma plana sobre la tarjeta madre ocuparían más de 21 pulgadas cuadradas en ésta.

Cada uno de los módulos de memoria se inserta dentro de una ranura que se encuentra en el motherboard, y queda perpendicular a este sujeto por unas pequeñas trabas en ambos lados que eviten posibles movimientos y falsos contactos. Estas ranuras se denominan generalmente bancos de memoria (encontraremos 3 o 4 en cada motherboard). A continuación podemos observar bancos para memorias DDR.

sábado, 21 de noviembre de 2009

Semana 07


ARQUITECTURA DE COMPUTADORAS

Llamado tambien gabinete, carcasa, chasís o caja, es una estructura de metal y plástico, Polimetálica (polimero-plástico+metal) donde se aloja toda la arquitectura del computador (mainboard, tarjetas, disco duro, lectora, etc.)Tambien protege a todos los elementos instalados dentro del CASE contra polvo, golpes, líquidos y otros.

Tipos de Case

Case Horizontal:

Dentro del case horizontal encontramos al Case de escritorio “Desktop” este Case se presenta en forma horizontal, antiguamente todas las computadoras tenían esta forma, pero por la comodidad de los componentes se cambio a vertical, en la actualidad las computadoras de marca se presentan de estas forma, marcas como Acer, IBM, Compaq, etc.

Case Vertical:

Esta es la forma más común en la actualidad de un Case. Para el Case vertical encontramos tres tipos de Case. También debemos tomar en cuenta que se presentan de esta forma Case AT y Case ATX. Generalmente quien determina esta característica es la fuente de poder y su diseño.

Tenemos:

Minitower

  • Presenta dos bahías de 5 ¼''
  • Presenta dos bahías de 3 ½''
  • Presenta una bahía interna de 3 ½''

Era el modelo más usado de las computadoras compatibles. Normalmente se usaba en formato AT Placas 386, 486 y Pentium.

Miditower

  • Presenta generalmente 3 a 4 bahías de 5 ¼''
  • Presenta dos bahías de 3 ½''
  • Presenta una a mas bahías internas de 3 ½''
  • Ofrece mejor refrigeración
  • Mayor facilidad para el ensamblaje

Normalmente se usaba en formato ATX Placas Pentium II, Pentium III y Pentium IV.

Fulltower

  • Presenta generalmente 4 a mas bahías de 5 ¼''
  • Presenta dos bahías de 3 ½''
  • Presenta una a mas bahías internas de 3 ½''
  • Ofrece mejor refrigeración
  • Mayor facilidad para el ensamblaje

Varios tipos de procesadores de gran performance y Servidores.

PARTE INTERNA DEL CASE

La ventilacion dentro del Case es algo primordial, siempre verificar que los ventiladores del Case estén haciendo la extracción del aire caliente adecuadamente, muchas veces los ensambladores no se fijan en este detalle y ocasionan que el case no enfrié y se sobrecalientan los componentes.

Como se ve en la imagen es conveniente tener un ventilados en la parte baja frontal del Case para que introduzca el aire y el ventilador de la fuente se encargará de sacarlo, generando una corriente de aire constante.

Sobre el lugar donde colocamos nuestra pc resulta algo obvio pero pasa desapercibido, la ubicación de nuestro CPU y su funcionamiento con respecto a la temperatura del ambiente donde se encuentre van de la mano. No es lo mismo un ambiente con muchos equipos o cerca de lugares calurosos (cocinas, salas de TV, equipos de planchado, etc) que los ambientes frescos y fríos. El simple hecho de trasladar la computadora a un lugar con la ventilación correcta y con baja temperatura, puede mejorar el funcionamiento y mejor conservación de las computadoras.

Fuentes de alimentación

En esta parte nos toca conocer a unos de los componentes vitales de la computadora como lo es la fuente de poder ya que esta se encargará de suministrar energía adecuadamente a todos los componentes de la computadora, tan minuciosamente.

La fuente se encargará de transformar la corriente alterna que no define polaridad en corriente directa con voltajes positivos y negativos. Adecuada para cada componente, así es como aprenderemos todo lo que concierne a la alimentación de energía para nuestra computadora.

Es un dispositivo que provee energía eléctrica a la computadora y a todos sus componentes. Convierte la energía eléctrica proveniente del tomacorriente (Corriente alterna - CA) y la convierte en niveles de tensión de (+/- 5V) y (+/- 12V) Corriente continua (DC) que se requieren internamente en la computadora. Se atornilla a la parte posterior del case.

Mainboards

Es el elemento principal de la computadora, ya que integra y comunica todos los otros dispositivos de la Pc, en el que se encuentran o al que se conectan todos los dispositivos.

Físicamente se trata de una “oblea” de material sintético, sobre la cual existe un circuito electrónico que conecta diversos elementos que se encuentran anclados sobre ella.

Componentes de la Mainboard

Socket -Zócalo

Es el lugar donde va instalado el procesador existen diversos tipos de Sockets para los diversos modelos de procesadores, aquí veremos los Sockets mas importantes los diferenciaremos por:

  • Por su Inserción

ZIF (Zero insertión force)

Fuerza de inserción cero.

Es el Sockets que posee una palanca para asegurar los pines del procesador.

  • Por su Alineamiento

PGA (Pin Grid Array)

Sockets cuya alineación de pines es horizontal y vertical.

Tipos de Socket

Socket 1

  • Acepta procesadores 386,
  • 3 hileras por lado color negro,
  • Tipo PGA- LIF
  • Tiene 169 pines

Socket 3

  • Acepta procesadores 486,
  • 4 hileras por lado color negro-blanco
  • Tipo PGA-LIF o ZIF
  • Tiene 237 pines

Socket 7

  • Acepta procesadores Pentium
  • 5 hileras por lado color blanco
  • Tipo SPGA- ZIF
  • Tiene 321 pines

Socket 370

  • Acepta procesadores Celeron B, Pentium III de
    tipo PPGA
  • 6 hileras por lado color blanco
  • Tipo SPGA- ZIF
  • Tipo PPGA presenta dos cortes o muescas Tiene 370 pines

Socket 423

  • Acepta procesadores Pentium IV
  • lera versión
  • 5,6,7,8 hileras por lado color blanco
  • Tipo SPGA- ZIF
  • Tiene 423 pines

Socket 478

  • Acepta procesadores Pentium IV
  • 2da versión y Celeron C
  • 6 hileras por lado color blanco- crema
  • Tipo PGA- ZIF
  • Tiene 478 pines

SIot one

  • (Single Edge contact)
  • Color marrón En este caso viene hacer un Slot.
  • Se encuentra en la placa. Pentium II, Pentium III,
  • Celeron A 1 muesca
  • Tiene 242 pines

Socket 603/604

  • Pines: 603/604 ZIF
  • micros soportados: Xeon (Foster, 1.4 GHz~2.0GHz)

Socket 775

  • Pines: 775 bolas FC-LGA
  • Bus: 133x4, 200x4, 266x4 MHz
  • Micros soportados: Celeron D, Pentium 4,Pentium D, Intel Pentium, Core 2 Duo.

Socket 939

  • Pines: 939 ZIF
  • Micros soportados: Athlon 64 (Victoria, 2GHz-i-), Athlon 64 X2, (Manchester, 3800+ a 4600+), Opteron (Venus, 144-154)

Socket AM2

  • Pines: 940 ZIF
  • Micros soportados: Athlon 64 (Orleans, 3200+ a 3800+) Athlon 64 X2 (Windsor, 3600+ a 5200+, FX-62) Athlon 64 Quad Opteron (Santa Ana, 1210 a 1216) Sempron64 (Manila, 2800+ a 3600+)

Semana 06



FUNDAMENTOS DE BASES DE DATOS

Sistemas de Bases de Datos

  • Un sistema de BD es básicamente “un sistema computarizado cuya finalidad es almacenar información y permitir a los usuarios recuperar y actualizar esta información”.
  • Comprende 4 componentes principales:
  1. Datos (BD).
  2. Usuarios.
  3. Hardware.
  4. Software (SGBD).

Bases de Datos

  • Colección de datos relacionados
  • Propiedades:
  1. Representa ciertos aspectos del mundo real (minimundo o dominio).
  2. Es una colección coherente de datos.
  3. Se diseña, construye y puebla con datos para un propósito específico.

Usuarios

  • Diseñadored de BD.
  • Programadores de Aplicaciones.
  • Usuarios Finales.
  • Administrador de la BD.

Hardware

  • El almacenamiento secundario junto a los dispositivos de E/S.
  • Los procesadores y la memoria principal asociada usados para apoyar la ejecución del SGBD.

Sistema Gestor de Bases de Datos (SGBD)

Categoría de Sw que debe:

  • Permitir a los usuarios crear BD.
  • Ofrecer a los usuarios la capacidad de consultar y actualizar los datos en forma eficiente.
  • Soportar el almacenamiento de cantidades voluminosas de datos, protegiéndolos.
  • Controlar el acceso concurrente a los datos por muchos usuarios.

Anatomía de una Base de Datos

  • Una base de datos es la colección de 1 ó más archivos.
  • Un archivo es la colección de 1 ó más tablas.
  • Una tabla es la colección de información relacionada (registros).
  • Un registro es la información relacionada a una persona, producto, evento, etc.
  • Un campo es una parte discreta de información en un registro.

MODELO Y DISEÑADO DE BASES DE DATOS

Capitulo 2

El Proceso de Diseño de Bases de Datos

  • [Elmasri/Navathe 02]

Es el proceso de diseíiar la estructura lógica y física de una o ms bases de datos para satisfacer las necesidades de información de los usuarios en una organización, para un conjunto definido de aplicaciones.

  • Los objetivos del diseíio de BD:
  1. Satisfacer requisitos de contenido de información de usuarios y aplicaciones.
  2. Proporcionar una estructuración de los datos natural y fácil de entender.
  3. Soportar los requisitos de procesamiento y objetivos de rendimiento como tiempo de respuesta, tiempo de procesamiento, espacio de almacenamiento...
  4. Conseguir un esquema flexible de BD, es decir tal que sea posible modificarlo (como consecuencia de cambios en los requisitos dels sistema) fácilmente una vez implementada la BD.
  • Modelo de datos conceptual de alto nivel.
  • Propuesto por Peter P. Chen en 1976.

Extensiones/aportaciones de muchos otros autores.

» No existe un único MER, sino una FAMILIA DE MODELOS.

  • Describe el “mundo real” como un conjunto de ENTIDADES y de RELACIONES entre ellas.
  • Gran difusión
  1. Muy extendido en los métodos de diseño de bases de datos.
  2. Soportado por herramientas software de diseño (CASE)

Introduccion e Historia del Modelo Entidad-Relacion

Esquema conceptual

  • Descripción concisa de los requisitos de información de los usuarios.
  • Sin detalles de implementación.
  1. Más fácil de entender.
  2. Comunicación con el usuario no técnico.

Conceptos básicos del Modelo Conceptual

  • Entidad (entity)
  • Atributo (attribute)
  • Tipo de Entidad ( entitv set)
  • Dominio ( values set)
  • Relación (relationshi)
  • Tipo de Relación

viernes, 20 de noviembre de 2009

Semana 05

DEFINICIÓN DE SOFTWARE

Probablemente la definición más formal de software sea la siguiente:
“Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados que forman parte de las operaciones de un sistema de computación”.
Bajo esta definición, el concepto de software va más allá de los programas de cómputo en sus distintos estados: código fuente, binario o ejecutable; también su documentación, datos a procesar e información de usuario es parte del software: es decir, abarca todo lo intangible, todo lo “no físico” relacionado.
El término «software» fue usado por primera vez en este sentido por John W. Tukey en 1957. En las ciencias de la computación y la ingeniería de software, el software es toda la información procesada por los sistemas informáticos: programas y datos. El concepto de leer diferentes secuencias de instrucciones desde la memoria de un dispositivo para controlar los cálculos fue introducido por Charles Babbage como parte de su máquina diferencial. La teoría que forma la base de la mayor parte del software moderno fue propuesta por vez primera por Alan Turing en su ensayo de 1936, “Los números computables”, con una aplicación al problema de decisión.¨
Clasificación del software

Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines prácticos se puede clasificar al software en tres grandes tipos:
  • Software de sistema: en algunas ocasiones también denominado software de base, consiste en un software que sirve para controlar e interactuar con el sistema, proporcionando control sobre el hardware y dando soporte a otros programas. En contraposición del llamado Software de Aplicación. El software de sistema realiza tareas como la transferencia de datos entre la memoria RAM y los dispositivos de almacenamiento (disco rígido, unidades de discos ópticos, etc), o bien puede realizar la operación de renderizado de texto en una pantalla.. El software de sistema le procura al usuario y programador adecuadas interfaces de alto nivel, herramientas y utilidades de apoyo que permiten su mantenimiento. Incluye entre otros:

- Sistemas operativos

- Controladores de dispositivo

- Herramientas de diagnóstico

- Herramientas de Corrección y Optimización

- Servidores

- Utilidades

  • Software de aplicación: Aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios. Incluye entre otros:

- Aplicaciones de Sistema de control y automatización industrial

- Aplicaciones ofimáticas

- Software educativo

- Software empresarial

- Bases de datos

- Telecomunicaciones (p.ej. internet y toda su estructura lógica)

- Videojuegos

- Software médico

- Software de Cálculo Numérico

- Software de Diseño Asistido (CAD)

- Software de Control Numérico (CAM)

  • Software (Lenguajes) de programación: Es el conjunto de herramientas que permiten al programador desarrollar programas informáticos, usando diferentes alternativas y lenguajes de programación, de una manera práctica. Incluye entre otros:

- Editores de texto

- Compiladores

- Intérpretes

- Enlazadores

- Depuradores

- Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas, usualmente en un entorno visual, de forma que el programador no necesite introducir múltiples comandos para compilar, interpretar, depurar, etc.. Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI).

Sistema operativo

Un sistema operativo es un software de sistema, es decir, un conjunto de programas de computación destinados a realizar muchas tareas entre las que destaca la administración eficaz de sus recursos.

Comienza a trabajar cuando en memoria se carga un programa específico y aun antes de ello, que se ejecuta al iniciar el equipo, o al iniciar una máquina virtual, y gestiona el hardware de la máquina desde los niveles más básicos, brindando una interfaz con el usuario. Un sistema operativo se puede encontrar normalmente en la mayoría de los aparatos electrónicos que utilicen microprocesadores para funcionar, ya que gracias a éstos podemos entender la máquina y que ésta cumpla con sus funciones (teléfonos móviles, reproductores de DVD, autoradios, computadoras, radios,etc).

Funciones Básicas

Los sistemas operativos, en su condición de capa software que posibilitan y simplifica el manejo de la computadora, desempeñan una serie de funciones básicas esenciales para la gestión del equipo. Entre las más destacables, cada una ejercida por un componente interno (módulo en núcleos monolíticos y servidor en micronúcleos), podemos reseñar las siguientes:

  • Proporcionar más comodidad en el uso de un computador.
  • Gestionar de manera eficiente los recursos del equipo, ejecutando servicios para los procesos (programas)
  • Brindar una interfaz al usuario, ejecutando instrucciones (comandos).
  • Permitir que los cambios debidos al desarrollo del propio SO se puedan realizar sin interferir con los servicios que ya se prestaban (evolutividad).

Un sistema operativo desempeña 5 funciones básicas en la operación de un sistema Informático:

  1. Suministro de interfaz al usuario.
  2. Administración de recursos.
  3. Administración de archivos.
  4. Administración de tareas.
  5. Servicio de soporte y utilidades.

Interfaces del usuario (GUI)

Es la parte del sistema operativo que permite comunicarse con él, de tal manera que se puedan cargar programas, acceder archivos y realizar otras tareas. Existen tres tipos básicos de interfaces: las que se basan en comandos, las que utilizan menús y las interfaces gráficas de usuario.

Administración de recursos

Sirven para administrar los recursos de hardware y de redes de un sistema informático, como el CPU, memoria, dispositivos de almacenamiento secundario y periféricos de entrada y de salida.

Administración de archivos

Un sistema de información contiene programas de administración de archivos que controlan la creación, borrado y acceso de archivos de datos y de programas. También implica mantener el registro de la ubicación física de los archivos en los discos magnéticos y en otros dispositivos de almacenamiento secundarios.

Administración de tareas

Los programas de administración de tareas de un sistema operativo administran la realización de las tareas informáticas de los usuarios finales. Los programas controlan que áreas tiene acceso al CPU y por cuánto tiempo. Las funciones de administración de tareas pueden distribuir una parte específica del tiempo del Cpu para una tarea en particular, e interrumpir al CPU en cualquier momento para sustituirla con una tarea de mayor prioridad.

Servicio de soporte

Los servicios de soporte de cada sistema operativo dependerán de la implementación particular de éste con la que estemos trabajando. Entre las más conocidas se pueden destacar las implementaciones de Unix, desarrolladas por diferentes empresas de software, los sistemas operativos de Apple Inc., como Mac OS X para las computadoras de Apple Inc., los sistemas operativos de Microsoft, y las implementaciones de software libre, como GNU/Linux o BSD producidas por empresas, universidades, administraciones públicas, organizaciones sin fines de lucro y/o comunidades de desarrollo.

Estos servicios de soporte suelen consistir en:

  • Actualización de versiones.
  • Mejoras de seguridad.
  • Inclusión de alguna nueva utilidad (un nuevo entorno gráfico, un asistente para administrar alguna determinada función, ...).
  • Controladores para manejar nuevos periféricos (este servicio debe coordinarse a veces con el fabricante del hardware).
  • Corrección de errores de software.
  • Otros.

No todas las utilidades de administración o servicios forman parte del sistema operativo, además de éste, hay otros tipos importantes de software de administración de sistemas, como los sistemas de administración de base de datos o los programas de administración de redes. El soporte de estos productos deberá proporcionarlo el fabricante correspondiente (que no tiene porque ser el mismo que el del sistema operativo).

Semana 03 y 04

ALGEBRA BOOLEANA

La herramienta fundamental para el análisis y diseño de circuitos digitales es el Álgebra Booleana.
Esta álgebra es un conjunto de reglas matemáticas (similares en algunos aspectos al álgebra convencional), pero que tienen la virtud de corresponder al comportamiento de circuitos basados en dispositivos de conmutación (interruptores, relevadores, transistores, etc). En este capítulo se presentan los postulados que definen el álgebra booleana, se presentan en forma de teoremas los resultados más importantes, se presentan también los tres ejemplos clásicos de álgebras boolenas (lógica proposicional, álgebra de conjuntos, álgebra de switches) y herramientas básicas como tablas de verdad y diagramas de Venn.

POSTULADOS DEL ÁLGEBRA BOOLEANA

El Álgebra de Boole, fue presentada originalmente por el inglés George Boole, en el año de 1854 en su artículo “An Investigation of the Laws of Thoght”, sin embargo, las primeras aplicaciones a circuitos de conmutación fueron desarrolladas por Claude Shannon en su tesis doctoral ‘Análisis simbólico de los circuitos de conmutación y relésH hasta 1938. A continuación se presentan los postulados fundamentales del álgebra de Boole.

POSTULADOS DEL ÁLGEBRA DE BOOLE

Postulado 1. Definición, El álgebra booleana es un sistema algebraico definido en un conjunto B, el cual contiene dos o más elementos y entre los se definen dos operaciones denominadas “suma u operación OR” (+) y “producto o multiplicación u operación AND” (*), las cuales cumplen con las siguientes propiedades:
Postulado 2. Existencia de Neutros. Existen en B el elemento neutro de la suma, denominado O y el neutro de la multiplicación, denominado 1, tales que para cualquier elemento x de s:
(a) x + O = x
(b) x 1 = x
Postulado 3. Conmutatividad. Para cada x, y en B:
(a) x+y = y+x
(b) xy =yx
Postulado 4. Asociatividad. Para cada x, y, z en B:
(a) x+ (y + z) = (x + y) + z
(b) x*(y*z) = (x*y) *z
Postulado 5. Distributividad. Para cada x, y, z en B:
(a) x+(y*z)=(x+y) * (x+z)
(b) x*(y+z)=(x*y)+(x*z)
Postulado 6. Existencia de Complementos. Para cada x en B existe un elemento único denotado x (también denotado x’), llamado complemento de x tal que
(a)x+X =1
(b)x X=O

Semana 02

CAPITULO 2

REPRESENTACION DE LOS DATOS EN INFORMATICA

RESUMEN

La representación interna de la información en los ordenadores es un aspecto de notable importancia pese a pasar desapercibido generalmente entre los usuarios de sistemas informáticos.
El desarrollo de este tema tiene como base el estudio de los sistemas de numeración, de los que provienen los sistemas de codificación que se aplican a la informática.
Los sistemas de codificación pretenden optimizar la tarea de la representacion interna de la información en los sistemas informáticos.
Para un ordenador se diferenciarán dichas representaciones de la informacion en varios grupos generales como son: texto, sonido, imagen y datos numericos.

INTRODUCCIÓN

La representación interna de la información en los ordenadores es un aspecto de notable importancia pese a pasar desapercibido generalmente entre los usuarios de sistemas informáticos.
El desarrollo de este tema tiene como base el estudio de los sistemas de numeración, de los que provienen los sistemas de codificación que se aplican a la informática. Los sistemas de codificación pretenden optimizar la tarea de la representación interna de la información en los sistemas informáticos.
Para un ordenador se diferenciarán dichas representaciones de la información en varios grupos generales como son: texto, sonido, imagen y datos numéricos.
Para entender la manera en que las computadoras procesan datos, es importante conocer cómo la computadora representa los datos.
Las personas se comunican a través del habla combinando palabras en oraciones. El habla humana es análoga porque utiliza señales continuas que varían en fortaleza y calidad.
Las computadoras son digitales, pues reconocen solo dos estados: encendido (on) y apagado (off). Esto es así porque las computadoras son equipos electrónicos que utilizan electricidad, que también tiene solo dos estados: on y off.
Los dos dígitos O y 1 pueden fácilmente representar estos dos estados. El dígito cero representa el estado electrónico apagado (la ausencia de carga electrónica). El dígito uno representa el estado electrónico encendido (presencia de carga electrónica).
El sistema binario es un sistema numérico que tiene tan solo dos dígitos, O y 1, llamados bits. Un bit (binary digit) es la unidad de datos más pequeña que la computadora puede representar. Por sí solo, un bit no es muy informativo.
Cuando ocho bits se agrupan como una unidad, forman un byte. El byte es informativo porque provee suficientes combinaciones diferentes de O y 1 para representar 256 caracteres individuales.
Esos caracteres incluyen números, letras mayúsculas y minúsculas, signos de puntuación y otros. Las combinaciones de O y 1 que representan caracteres son definidas por patrones llamados esquemas de códigos (coding scheme).

REPRESENTACIÓN DE TEXTOS

Cualquier información escrita, cualquier texto se puede representar por medio de caracteres. Los caracteres utilizados en informática se suelen clasificar en cinco categorías:

1. Caracteres alfabéticos: letras mayúsculas y minúsculas del alfabeto inglés:
A, B, C, D,..., X, Y, Z, a, b, c, d,..., x, y, z

2. Caracteres numéricos: constituidos por las diez cifras decimales:
0, 1, 2, 3, 4, 5, 6, 7, 8, 9

3. Caracteres especiales: símbolos ortográficos y matemáticos no incluidos en los grupos anteriores:
)(/&%$#“i !=?‘+_1*Çç<>,;.:(espacio)

4. Caracteres geométricos y gráficos: símbolos con los que se representan formas geométricas o iconos elementales:
┬ ┴ ┼ ═ ║▲►▼◄• ◘ ◙ ○☺☻☼ ♀♠ ♣ ♥ ♦ ♪ ♫

5. Caracteres de control: representan órdenes de control, como salto de línea (NL), comienzo de línea (CR), sincronización de una transmisión (SYN), pitido (BEL), etc.
Estos caracteres son insertados en los textos por los usuarios o por los programas de comunicación o control de periféricos como por ejemplo cuando se escribe con un teclado y se pulsa la tecla de nueva línea. En ese caso se insertarían automáticamente los caracteres de control NL y CR.
Cuando se introducen textos en un ordenador a través del periférico que corresponda, los caracteres se codifican con un código de entrada/salida, asociando a cada carácter una determinada combinación de n bits.
Un código de E/S es por tanto, una correspondencia entre el conjunto de caracteres y el alfabeto binario:
α≡{0,1,2, ..., a,b, Y,Z,+,&,%,…}◘β≡{0,1}*
Los elementos del conjunto de caracteres, así como su número m, dependerán del código de E/S utilizado por el programa que interprete el texto introducido así como del periférico que lo codifique.
A continuación se describir algunos de los códigos más extendidos en la informática real: EBCDIC, ASCII y UNICODE.
CÓDIGO EBCDIC
EBCDIC (Extended Binary Coded Decimal Interchange Code) es un código estándar de 8 bits usado por computadoras mainframe IBM. IBM adaptó el EBCDIC del código de tarjetas perforadas en los años 1960 y lo promulgó como una táctica customer-control cambiando el código estándar ASCII.
EBCDIC es un código binario que representa caracteres alfanuméricos, controles y signos de puntuación. Cada carácter está compuesto por 8 bits 1 byte, por eso EBCDIC define un total de 256 caracteres.
Existen muchas versiones (“codepages”) de EBCDIC con caracteres diferentes, respectivamente suce- siones diferentes de los mismos caracteres. Por ejemplo al menos hay 9 versiones nacionales de EBCDIC con Latín 1 caracteres con sucesiones diferentes.
CÓDIGO ASCII
El código ASCII (acrónimo inglés de American Standard Code for Information Interchange — Código Estadounidense Estándar para el Intercambio de Información), pronunciado generalmente [áski], es un código de caracteres basado en el alfabeto latino tal como se usa en inglés moderno y en otras lenguas occidentales.
Fue creado en 1963 por el Comité Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto Estadounidense de Estándares Nacionales, o ANSI) como una refundición o evolución de los conjuntos de códigos utilizados entonces en telegrafía.
Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.
ASCII fue publicado como estándar por primera vez en 1967 y fue actualizado por última vez en 1986. En la actualidad define códigos para 33 caracteres no imprimibles, de los cuales la mayoría son caracteres de control obsoletos que tienen efecto sobre como se procesa el texto, más otros 95 caracteres imprimibles que les siguen en la numeración (empezando por el carácter espacio). Casi todos los sistemas informáticos actuales utilizan el código ASCII o una extensión compatible para representar textos y para el control de dispositivos que manejan texto Las computadoras solamente entienden números. El código ASCII es una representación numérica de un carácter como “a” o”@”.
Como otros códigos de formato de representación de caracteres, el ASCII es un método para una correspondencia entre cadenas de bits y una serie de símbolos (alfanuméricos y otros), permitiendo de esta forma la comunicación entre dispositivos digitales así como su procesado y almacenamiento. El código de caracteres ASCII2 — o una extensión compatible (ver más abajo) — se usa casi en todos los ordenadores, especialmente con ordenadores personales y estaciones de trabajo.
El nombre más apropiado para este código de caracteres es “US-ASCII”.
!"#$%&'()*+,-./0123456789:;<=>?
@ABCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_
`abcdefghijklmnopqrstuvwxyz{}~
ASCII es, en sentido estricto, un código de siete bits, lo que significa que usa cadenas de bits representables con siete dígitos binarios (que van de 0 a 127 en base decimal) para representar información de caracteres.
En el momento en el que se introdujo el código ASCII muchos ordenadores trabajaban con grupos de ocho bits (bytes u octetos), como la unidad mínima de información; donde el octavo bit se usaba habitualmente como bit de paridad con funciones de control de errores en líneas de comunicación u otras funciones específicas del dispositivo. Las máquinas que no usaban la comprobación de paridad asignaban al octavo bit el valor cero en la mayoría de los casos, aunque otros sistemas como las computadoras Prime, que ejecutaban PRIMOS ponían el octavo bit del código ASCII a uno.
Los caracteres de control ASCII
El código ASCII reserva los primeros 32 códigos (numerados del O al 31 en decimal) para caracteres de control: códigos no pensados originalmente para representar información imprimible, sino para controlar dispositivos (como impresoras) que usaban ASCII.
Por ejemplo, el carácter 10 representa la función “nueva línea” (line feed), que hace que una impresora avance el papel, y el carácter 27 representa la tecla “escape” que a menudo se encuentra en la esquina superior izquierda de los teclados comunes.
El código 127 (los siete bits a uno), otro carácter especial, equivale a “suprimir” (“delete”). Aunque esta función se asemeja a otros caracteres de control, los diseñadores de ASCII idearon este código para poder “borrar” una sección de papel perforado (un medio de almacenamiento popular hasta la década de 1980) mediante la perforación de todos los agujeros posibles de una posición de carácter concreta, reemplazando cualquier información previa.
Dado que el código O era ignorado, fue posible dejar huecos (regiones de agujeros) y más tarde hacer correcciones.
Actualmente los usuarios de ASCII usan menos los caracteres de control, (con algunas excepciones como “retomo de carro” o “nueva línea”). Los lenguajes modernos de etiquetas, los protocolos mo- demos de comunicación, el paso de dispositivos basados en texto a basados en gráficos, el declive de las teleimpresoras, las tarjetas perforadas y los papeles continuos han dejado obsoleta la mayoría de caracteres de control.
UNICODE
Antes de Unicode, como ya hemos visto, había diferentes sistemas de codificación de caracteres para cada idioma, cada uno usando los mismos números (0-255) para representar los caracteres de ese lenguaje.
Algunos (como el ruso) tienen varios estándares incompatibles que dicen cómo representar los mismos caracteres; otros idiomas (como el japonés) tienen tantos caracteres que precisan más de un byte. Intercambiar documentos entre estos sistemas era difícil porque no había manera de que un computador supiera con certeza qué esquema de codificación de caracteres había usado el autor del documento.
Los símbolos codificados son insuficientes para representar caracteres especiales que necesitan múltiples aplicaciones.
Los símbolos y códigos añadidos en las versiones de 8 bits no están normalizados.
Están basados en el alfabeto inglés, lo cual limita a otras culturas que utilizan símbolos distintos para sus letras, números, etc.
Los lenguajes de diversas culturas orientales (china, japonesa, coreana,etc.) se fundamentan en la utilización de ideogramas o símbolos que representan palabras, frases, ideas completas, y por lo tanto son inoperantes los códigos convencionales de texto ya que codifican letras y números individuales.
El computador sólo veía números, y los números pueden significar muchas cosas.
Piense entonces en almacenar estos documentos en el mismo sitio (como en una tabla de una base de datos); necesitaría almacenar el tipo de codificación junto con cada texto, y asegurarse de adjuntarlo con el texto cada vez que accediese a él.
Ahora imagine documentos multilingües, con caracteres de varios idiomas en el mismo document. (Habitualmente utilizaban códigos de escape para cambiar de modos; ¡puf!, está en modo ruso koi8-r así que el carácter 241 significa esto; ¡puf!, ahora está en modo Mac Greek, así que el carácter 241 significa otra cosa. Y así con todo).
Para resolver estos problemas se diseñó Unicode.
Para resolver estos problemas, Unicode representa cada carácter como un número de 2 bytes, de 0 a 65535. Cada número de 2 bytes representa un único carácter utilizado en al menos un idioma del mundo (los caracteres que se usan en más de un idioma tienen el mismo código numérico).
Hay exactamente 1 número por carácter, y exactamente 1 carácter por número. Los datos de Unicode nunca son ambiguos.
Por supuesto, sigue estando el problema de todos esos sistemas de codificación anticuados. Por ejemplo, el ASCII de 7 bits que almacena los caracteres ingleses como números del 0 al 127 (65 es la “A”, mayúscula, 97 es la “a” minúscula, etc.).
El inglés tiene un alfabeto sencillo, así que se puede expresar en ASCII de 7 bits.
Los idiomas europeos occidentales como el francés, español y alemán usan todos un sistema llamado lSO-8859-1 (también conocido como “latin-l”), que usa los caracteres del ASCII de 7 bits del O al 127, pero lo extiende en el rango 128-255 para tener caracteres como n-con-una-tilde-sobre-eIIa (241) y u-con-dos-puntitos-sobre-ella (252).
Y UNICODE usa los mismos caracteres que el ASCII de 7 bits para los números del O al 127, y los mismos caracteres que ISO-8859-1 del 128 al 255, y de ahí en adelante se extiende para otros lenguajes que usan el resto de los números, del 256 al 65535.
Especialmente importantes son los problemas anteriores para las aplicaciones de Internet dado que el objetivo de estas aplicaciones es que sean lo más universales posible.
Unicode es un código de E/S propuesto por un consorcio de empresas y entidades que trata de crear aplicaciones capaces de procesar texto de muy diferentes sistemas de escritura. Está reconocido como estándar ISO/IEC 10646 y trata de ofrecer:
  • Universalidad: pretende cubrir la mayoría de los lenguajes actuales.
  • Unicidad: a cada carácter se le asigna un único código.
  • Uniformidad: todos los símbolos se representan con un número fijo de bits, 16 concretamente.

Unicode — es el único esquema de código capaz de representar todos los lenguajes del mundo actual. Se desarrolló precisamente porque el ASCII y el EBCDIC no eran suficientes para representar lenguajes para alfabetos diferentes al inglés o Europeo, como los asiáticos y otros.

jueves, 19 de noviembre de 2009

Semana 01

Informática

El termino "Informatica", se creo en Francia hacia el año 1962 bajo la denominacion "Informatique" y procede de la combinacion de las palabras "Information Automatique".
Posteriormente fue reconocido por el resto de países, siendo adoptado en España en 1968 bajo el nombre de "Informática".
En los paises anglosajones, en cambio se conoce con el nombre de "Computer Science".
El termino Informática lleva consigo numerosas y diversas definiciones, si bien todas ellas giran en torno a la misma idea. La definición mas extendida es la siguiente:
Informática: ciencia que se ocupa del tratamiento automático y racional de la información.
Si nos atenemos a la definición de la Real Academia, “la informática es el conjunto de conocimientos científicos y técnicos que se ocupan del tratamiento de la información mediante computadoras electrónicas”.
Obsérvese que esta definición liga el concepto de informática al de computador electrónico. Si nos atenemos a una definición más formal, podemos decir que: la Informática es la disciplina científica encargada del tratamiento racional de la información mediante métodos automáticos.

Las tres grandes áreas de conocimiento que conforman la estructura de la ciencia informática son:

  • Hardware

  • Software
  • Sistemas de Información

Existen otras áreas de conocimiento fuertemente relacionadas entre las cuales se destacan por su mayor vínculo las Telecomunicaciones y la Administración.

COMPUTADOR - ORDENADOR

Un computador u ordenador es una máquina electrónica programable capaz de procesar, almacenar y recuperar información. Procesar información es extraer unos ciertos resultados o conclusiones a partir de unos ciertos datos de entrada. Por tanto, el ordenador deberá tomar unos datos.

Para que la información sea entendida por el ordenador debe de estar debidamente codificada. La codificación se realiza mediante BITs (Binary digiT). El ordenador, por tanto, recibirá por un canal de entrada los datos con los que ha de trabajar, codificados en un formato adecuado, realizará un cierto p proceso con ellos y mostrará el resultado de dicho proceso a través de un canal de salida.

Se puede decir que un ordenador es capaz de realizar cuatro tareas fundamentales:

  1. Recibir información: recoge los datos suministrados.
  2. Almacenar información: puede guardar los datos y resultados de sus operaciones.
  3. Procesar información: realiza cálculos y operaciones a partir de los datos proporcionados.
  4. Proporcionar información: devuelve la información solicitada.

Algunas características de los ordenadores son:

  • Programabilidad. Ejecutan las instrucciones que reciben a través de un programa.
  • Versatilidad, pueden realizar diversos trabajos: escribir cartas, dibujar planos, controlar otras máquinas, explicar una lección, jugar al ajedrez, etc.
  • Interactividad: mantienen diálogos con los usuarios y actúan en función de sus órdenes y acciones.
  • Capacidad de almacenamiento. Pueden almacenar grandes cantidades de información en unos discos muy pequeños.
  • Rapidez. Hacen los trabajos con más rapidez que las personas, y no suelen cometer errores.

Procesamiento de Datos

Los Datos

Los datos son conjuntos de símbolos utilizados para representar un valor numérico, un hecho, un objeto o una idea, en la forma adecuada para su tratamiento.

Los datos pueden ser captados directamente por la computadora o pueden ser dados en forma de letras y números (grafismos). Los grafismos que se utilizan con más frecuencia son los caracteres numéricos, los alfabéticos y los especiales.

Es importante matizar que los datos por si solos no tienen significado, adquiriéndolo únicamente cuando se hace una interpretación de los mismos. Así:

Datos + Interpretación = Información útil

INFORMACIÓN

Es el elemento que hay que tratar y procesar cuando se ejecuta un programa en una computadora, y se define como “todo aquello que permite adquirir cualquier tipo de conocimiento”. Por tanto, existirá información cuando se da a conocer algo que se desconoce.

Para que una información sea tratada necesita transmitirse o trasladarse de un lugar a otro, y para que exista transmisión de información son necesarios tres elementos:

TRATAMIENTO DE LA INFORMACIÓN

Al conjunto de operaciones que se realizan sobre una información se le denomina tratamiento de la información.

En términos generales, se denomina entrada al conjunto de operaciones cuya misión es tomar los datos del exterior y enviarlos a la computadora. Para ello, en ocasiones, es necesario realizar operaciones de depuración o validación de los mismos. Estos datos deben quedar en la memoria de la computadora para su posterior tratamiento.

Mediante la unidad de entrada los datos se codifican para que el ordenador pueda procesarlos correctamente. Para ello, a través del teclado, del scanner, de los dispositivos de voz, etc. se transmite la información que se desee a la computadora.

Al conjunto de operaciones que elaboran los datos de entrada para obtener los resultados se le llama proceso o algoritmo, y consiste generalmente en una combinación adecuada de operaciones de tipo aritmético y lógico.

Por último, se denomina salida al conjunto de operaciones que proporcionan los resultados y los distribuyen adecuadamente. Las principales unidades de salida son la impresora, la pantalla, un LED (diodo emisor de luz), un dispositivo de almacenamiento auxiliar (cintas, discos ópticos...) o incluso otro sistema.

El algoritmo necesario para la resolución de un problema queda definido cuando una aplicacion informática es analizada, de tal forma que posteriormente cada proceso se codifica en un lenguaje reconocible por la máquina (directa o indirectamente) y tras una preparación final se obtendrá una solución ejecutable por la computadora.

OTROS CONCEPTOS RELACIONADOS

Archivo o fichero

Conjunto de información del mismo tipo referente a unos determinados elementos, tratada como una unidad de almacenamiento y organizada de forma estructurada para la recuperación de un elemento o dato individual”. Con la organización de los datos en ficheros se les da a éstos un criterio de pertenencia que les permite ser identificados como miembros o elementos del conjunto que constituye el archivo.

Sistema de Numeración

Conjunto de símbolos y reglas que se utilizan para la representación de datos numéricos o cantidades. Uno de los sistemas numéricos más importantes es el código binario.

El sistema binario es el sistema de numeración que utilizan internamente los circuitos digitales que configuran el hardware de las computadoras actuales, por ello es el sistema más importante. La base de este sistema binario es 2, lo que significa que este sistema necesita de dos símbolos: (0,1). Los elementos de este alfabeto se denominan cifras binarias o bits.

Programa

Conjunto de órdenes que se dan a una computadora para realizar un proceso determinado.

Lenguaje de Programación

Conjunto de símbolos y de reglas que se combinan para expresar algoritmos. Estos lenguajes se pueden clasificar de varias maneras, aunque la más destacada es la clasificación en función de la aproximación del lenguaje de programación al hombre o a la máquina. Según esto:

Lenguaje máquina

Se caracteriza por ser fácil de leer para el ordenador pero difícil de entender por el programador.

También se caracteriza por realizar operaciones muy sencillas, ser de poca fiabilidad, sus instrucciones son directamente entendidas por el microprocesador sin necesidad de una traducción, y además se caracteriza por utilizar el código binario.

Lenguaje ensamblador

Es más sencillo de utilizar que el lenguaje máquina, aunque también depende de ella. Es fácil de rcodificar, tiene gran velocidad de cálculo y no puede ser utilizado directamente por el ordenador, sino que necesita una traducción previa al lenguaje máquina.

Lenguaje de alto nivel

Es más sencillo de utilizar que el lenguaje máquina, aunque también depende de ella. Es fácil de codificar, tiene gran velocidad de cálculo y no puede ser utilizado directamente por el ordenador, sino que necesita una traducción previa al lenguaje máquina. Lenguaje de alto nivel Es el lenguaje más utilizado debido a la proximidad de su estructura al lenguaje natural. Este lenguaje es totalmente independiente de la máquina, es transportable de un ordenador a otro y al igual que el lenguaje ensamblador, no se ejecuta directamente por la máquina, sino que necesita un proceso de traducción a través de un compilador o intérprete. Con este lenguaje se incrementa la ocupación de la memoria interna del sistema, el tiempo de codificación es inferior que en los lenguajes de bajo nivel, y el tiempo de ejecución es menor.

Aplicación informática

Conjunto de uno o varios programas.

Sistema informático

Conjunto de elementos necesarios (computadora, terminales, impresoras, etc.) para la realización y explotación de aplicaciones informáticas.

Áreas conceptuales de la informática

La informática se puede estructurar en tres pilares básicos como son:

  1. El hardware,
  2. Elsoftware y
  3. El personal informático.

El elemento físico (hardware)

El hardware es el elemento físico de un sistema informático, es decir, todos los materiales que lo componen, como la propia computadora, los dispositivos externos, los cables, los soportes de la información y en definitiva, todos aquellos elementos que tienen entidad física.

El elemento lógico (software)

El software de un sistema informático es el conjunto de elementos lógicos necesarios para que se puedan realizar las tareas encomendadas al mismo.

Como elementos lógicos se pueden entender ideas, datos, informaciones y órdenes sobre las mismas.

Tiene su origen en ideas y procesos desarrollados por el elemento humano, plasmadas sobre un soporte determinado del hardware y bajo cuya dirección trabaja siempre la computadora.

En los primeros años de la existencia de las computadoras, tuvo mayor peso específico el hardware que el software puesto que se disponía de grandes computadoras, caras y complejas, que desarrollaban el trabajo definido por unos pocos y pequeños programas. En la actualidad, en un sistema informático tiene mayor peso específico el software que el hardware por ir adquiriendo día a día, el primero, una mayor importancia en todos los aspectos (costo, mantenimiento, etc.).

Sistema de información

Un sistema de información (SI) es un conjunto organizado de elementos, Persona, Datos, Actividades o técnicas de trabajo, Recursos materiales en general (típicamente recursos informáticos y de comunicación, aunque no tienen por qué ser de este tipo obligatoriamente), que interactúan entre sí para procesar información y distribuirla de manera adecuada en función a los objetivos de una organización.

Todo ese conjunto de elementos interactúan entre si para procesar los datos y la información (incluyendo procesos manuales y automáticos) y distribuirla de la manera más adecuada posible en una determinada organización en función de sus objetivos.

Normalmente el término es usado de manera errónea como sinónimo de sistema de información informático, estos son el campo de estudio de la tecnología de la información (IT), y aunque puedan formar parte de un sistema de información (como recurso material), por sí solos no se pueden considerar como sistemas de información, este concepto es más amplio que el de sistema de información informático. No obstante un sistema de información puede estar basado en el uso de computadoras.

Ingeniería de Sistemas

Para establecer una definición de la ingeniería de sistemas, debemos primero definir los significados de cada una de las palabras que conforman la oración.

¿Qué es un sistema?

Un sistema en la parte más global de su significado, es un conjunto de elementos que interactúan entre sí para alcanzar un objetivo común. Los seres humanos somos el más complejo y desarrollado sistema que existe pensamos, amamos, sentimos, lloramos, reimos, nos comunicamos y en fin, realizamos un sin número de actividades que nos hacen seres superiores en la naturaleza.

Un sistema puede ser físico o concreto (una computadora, un televisor, un humano) o puede ser abstracto o conceptual (un software).

¿Qué es la ingenieria?

La ingeniería es otro concepto de nuestra oración la cual debemos definir. La ingeniería es la utilización del método científico para: crear, controlar, organizar, corregir, ciertas situaciones de las cuales el hombre como ser pensante es capaz de establecer.

Ya con estos dos conceptos establecidos podemos definir la ingeniería de sistemas.

¿Qué es la ingeniería de sistemas?

La ingeniería de sistemas es la utilización del método científico, para crear, controlar, organizar y corregir conjuntos de elementos que interactúan entre sí, los cuales quieren alcanzar un objetivo común.

“Ingeniería de Sistemas es un conjunto de metodologías para la resolución de problemas mediante el análisis, diseño y gestión de sistemas”

miércoles, 11 de noviembre de 2009