viernes, 15 de noviembre de 2013

QUE ES UN COMPUTADOR O UNA COMPUTADORA.... !!!!!

Una computadora o computador , también denominada ordenador , es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o de entrada) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output" o de salida. La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, que puede ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento.La característica principal que la distingue de otros dispositivos similares, como la calculadora no programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware.
Las computadoras u ordenadores esta clasificado por varias partesque se pueda conformar las cuales las partes son;


Vista expandida de una computadora personal.

historia y Generación de las computadoras

Las computadoras han venido evolucionando desde su creación, pasando por diversas generaciones:

  • Primera generación
  • Segunda generación
  • Tercera generación
  • Cuarta generación
  • Quinta generación
Primera Generación (1938-1958)
En esta época las computadoras funcionaban con válvulas, usaban tarjetas perforadas para entrar los datos y los programas, utilizaban cilindros magnéticos para almacenar información e instrucciones internas y se utilizaban exclusivamente en el ámbito científico o militar. La programación implicaba la modificación directa de los cartuchos y eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad de calor y eran sumamente lentas.

Segunda Generación (1958-1963)
Características de ésta generación: Usaban transistores para procesar información. Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío. 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío. Usaban pequeños anillos magnéticos para almacenar información e instrucciones. Producían gran cantidad de calor y eran sumamente lentas. Se mejoraron los programas de computadoras que fueron desarrollados durante la primera generación.
Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales eran comercialmente accesibles. Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico aéreo y simulaciones de propósito general. La marina de los Estados Unidos desarrolla el primer simulador de vuelo, Computadora Whirlwind. Se comenzó a disminuir el tamaño de las computadoras.
Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Mánchester. Algunas computadoras se programaban con cintas perforadas y otras por medio de cableado en un tablero.


Tercera Generación (1964-1970)
Comienza a utilizarse los circuitos integrados, lo cual permitió abaratar costos al tiempo que se aumentaba la capacidad de procesamiento y se reducía el tamaño de las máquinas. La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador.



Cuarta Generación (1971-1983)
Fase caracterizada por la integración de los componentes electrónicos, lo que propició la aparición del microprocesador, es decir, un único circuito integrado en el que se reúnen los elementos básicos de la máquina. Se desarrolló el microprocesador. Se colocan más circuitos dentro de un "chip". "LSI - Large Scale Integration circuit". "VLSI - Very Large Scale Integration circuit". Cada "chip" puede hacer diferentes tareas. Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica. El tercer componente, la memoria primaria, es operado por otros "chips". Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio. Se desarrollan las microcomputadoras, o sea, computadoras personales o PC. Se desarrollan las supercomputadoras.

Quinta Generación (1984 -1999)
Surge la PC tal cual como la conocemos en la actualidad. IBM presenta su primera computadora personal y revoluciona el sector informativo. En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras.

Sexta Generación (1999 - Actualidad)
 Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolladas o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.

Ver mas .....












martes, 12 de noviembre de 2013

EMPECEMOS CON LA MATHERBOARD O PLACA BASE....

Placa base
La placa base, también conocida como placa madre o tarjeta madre  es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la computadora u ordenador. Es una parte fundamental a la hora de armar una PC de escritorio o portátil. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el circuito integrado auxiliar, que sirve como centro de conexión entre el microprocesador, la memoria de acceso aleatorio (RAM), las ranuras de expansión y otros dispositivos. Va instalada dentro de una caja o gabinete que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro de la caja. La placa base, además, incluye un firmware llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.

Todos los Componentes de la placa base
Diagrama de una placa base típica.
Una placa base típica admite los siguientes componentes:
  • Uno o varios conectores de alimentación: por estos conectores, una alimentación eléctrica proporciona
  •  a la placa base los diferentes voltajes e intensidades necesarios para su funcionamiento.
  • El zócalo de CPU es un receptáculo que recibe el microprocesador y lo conecta con el resto de
          componentes a través de la placa base.
          almacenamiento secundario, etc.).
  • El reloj: regula la velocidad de ejecución de las instrucciones del microprocesador y de los periféricos internos.
  • La CMOS: una pequeña memoria que preserva cierta información importante (como la configuración del equipo, fecha y hora), mientras el equipo no está alimentado por electricidad.
  • La pila de la CMOS: proporciona la electricidad necesaria para operar el circuito constantemente y que éste último no se apague perdiendo la serie de configuraciones guardadas.

  • El bus (también llamado bus interno o en inglés front-side bus'): conecta el microprocesador al chipset, está cayendo en desuso frente a HyperTransport y Quickpath.
  • El bus de memoria conecta el chipset a la memoria temporal.
  • El bus de expansión (también llamado bus I/O): une el microprocesador a los conectores entrada/salida
          y a las ranuras de expansión.
  • Los conectores de entrada/salida que cumplen normalmente con la norma PC 99: estos conectores
 incluyen:
  • Los puertos PS2 para conectar el teclado o el ratón, estas interfaces tienden a desaparecer a favor 
          del USB
  • Los conectores de audio, para conectar dispositivos de audio, tales como altavoces o micrófonos.
  • Las ranuras de expansión: se trata de receptáculos que pueden acoger tarjetas de expansión(estas tarjetas se utilizan para agregar características o aumentar el rendimiento de un ordenador;  por ejemplo, una tarjeta gráfica se puede añadir a un ordenador para mejorar el rendimiento 3D).


domingo, 10 de noviembre de 2013

MONITOR DE COMPUTADORAS

El monitor de ordenador es un dispositivo de salida (interfaz), que muestra datos o información al usuario.
}

Parámetros de una pantalla[editar · editar código]

·         Píxel: unidad mínima representable en un monitor. Los monitores pueden presentar píxeles muertos o atascados. Se notan porque aparecen en blanco. Más común en portátiles.
·         Tamaño de punto o (dot pitch): el tamaño de punto es el espacio entre dos fósforos coloreados de un píxel. Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos puntos del mismo color; resulta fundamental a grandes resoluciones. Los tamaños de punto más pequeños producen imágenes más uniformes. un monitor de 14 pulgadas suele tener un tamaño de punto de 0,28 mm o menos. En ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones. En LCD y en CRT de apertura de rejilla, es la distancia en horizontal, mientras que en los CRT de máscara de sombra, se mide casi en diagonal. Lo mínimo exigible en este momento es que sea de 0,28mm. Para CADo en general para diseño, lo ideal sería de 0,25mm o menor. 0,21 en máscara de sombra es el equivalente a 0.24 en apertura de rejilla.
·         Área útil: el tamaño de la pantalla no coincide con el área real que se utiliza para representar los datos.
·         Ángulo de visión: es el máximo ángulo con el que puede verse el monitor sin que se degrade demasiado la imagen. Se mide en grados.
·         Luminancia: es la medida de luminosidad, medida en Candela.
·         Tiempo de respuesta: también conocido como latencia. Es el tiempo que le cuesta a un píxel pasar de activo (blanco) a inactivo (negro) y después a activo de nuevo.
·         Contraste: es la proporción de brillo entre un píxel negro a un píxel blanco que el monitor es capaz de reproducir. Algo así como cuantos tonos de brillo tiene el monitor.
·         Coeficiente de contraste de imagen: se refiere a lo vivo que resultan los colores por la proporción de brillo empleada. A mayor coeficiente, mayor es la intensidad de los colores (30000:1 mostraría un colorido menos vivo que 50000:1).
·         Consumo: cantidad de energía consumida por el monitor, se mide en Vatio.
·         Ancho de banda: frecuencia máxima que es capaz de soportar el monitor.
·         Hz o frecuencia de refresco vertical: son 2 valores entre los cuales el monitor es capaz de mostrar imágenes estables en la pantalla.
·         Hz o frecuencia de refresco horizontal : similar al anterior pero en sentido horizontal, para dibujar cada una de las líneas de la pantalla.
·         Blindaje: un monitor puede o no estar blindando ante interferencias eléctricas externas y ser más o menos sensible a ellas, por lo que en caso de estar blindando, o semi-blindado por la parte trasera llevara cubriendo prácticamente la totalidad del tubo una plancha metálica en contacto con tierra o masa.
·         Tipo de monitor: en los CRT pueden existir 2 tipos, de apertura de rejilla o de máscara de sombra.
·         Líneas de tensión: son unas líneas horizontales, que tienen los monitores de apertura de rejilla para mantener las líneas que permiten mostrar los colores perfectamente alineadas; en 19 pulgadas lo habitual suelen ser 2, aunque también los hay con 3 líneas, algunos monitores pequeños incluso tienen una sola.

FUENTES DE PODER

En electrónica, una fuente de alimentación es un dispositivo que convierte la tensión alterna de la red de suministro, en una o varias tensiones, prácticamente continuas, que alimentan los distintos circuitos del aparato electrónico al que se conecta (ordenador, televisor, impresora, router, etc.).

Funcionamiento de una fuente

1.- Transformación: el voltaje de la línea doméstica se reduce de 127 Volts a aproximadamente 12 Volts  ó 5 V. Utiliza un elemento electrónico llamado bobina reductora.
2.- Rectificación: se transforma el voltaje de corriente alterna en voltaje de corriente directa, esto lo hace dejando pasar solo los valores positivos de la onda (se genera corriente continua), por medio de elementos electrónicos llamados diodos.
3.- Filtrado: esta le da calidad a la corriente continua y suaviza el voltaje, por medio de elementos electrónicos llamados capacitores.
4.- Estabilización: el voltaje ya suavizado se le da la forma lineal que utilizan los dispositivos. Se usa un elemento electrónico especial llamado circuito integrado. Esta fase es la que entrega la energía necesaria la computadora.

​la fuente siempre debe mantener la tensión de salida al voltaje solicitado, Es decir una fuente no debe variar la tensión que se le haya requerido independientemente de que la tensión de la línea
exterior varié.

MEMORIA RAM

RAM son las siglas de random access memory, un tipo de memoria de ordenador a la que se puede acceder aleatoriamente; es decir, se puede acceder a cualquier byte de memoria sin acceder a los bytes precedentes. La memoria RAM es el tipo de memoria más común en ordenadores y otros dispositivos como impresoras.


Hay dos tipos básicos de memoria RAM
  • RAM dinámica (DRAM)
  • RAM estática (SRAM)
Los dos tipos de memoria RAM se diferencian en la tecnología que utilizan para guardar los datos, la meoria RAM dinámica es la más común.

La meoria RAM dinámica necesita actualizarse miles de veces por segundo, mientras que la memoria RAM estática no necesita actualizarse, por lo que es más rápida, aunque también más cara. Ambos tipos de memoria RAM son volátiles, es decir, que pierden su contenido cuando se apaga el equipo.

Coloquialmente:

Coloquialmente el término RAM se utiliza como sinónimo de memoria principal, la memoria que está disponible para los programas, por ejemplo, un ordenador con 8M de RAM tiene aproximadamente 8 millones de bytes de memoria que los programas puedan utilizar.








Ver mas ...

QUE SON LOS DISCOS VIRTUALES........

Ventajas:
}La principal ventaja es que podemos disponer de nuestro archivo en cualquier lugar, principalmente si usamos un equipo o dispositivo portátil para guardar y bajar nuestros archivosaccediendo a ellos, cuando necesitemos.
}Es una buena opción para las personas que manejan gran volumen de datos y viajan constantemente por su ritmo de trabajo, ya que la informaciónestará guardada remotamente en un servidores especializados.

}Es una forma segura de guardar nuestra información, donde podemos actualizar programas y guardar la información que deseemos.

}Es útil si queremos un espacio para compartir una serie de archivos con nuestros amigos, pero en este caso debemos tener presentes las limitaciones en cuanto a tráfico de datos y al tamaño de los archivos que podemos tener almacenados. 

}Se ofrecen como opción para nuestras copias de seguridad.

}Algunos de los mas conocidos son: el skydrive de Microsoft, icloud deapplegoogleDocs de google ydropbox.


Desventajas:


}Debemos tener acceso a internetpara su uso.

}Debemos tener cuidado en el manejo de nuestras contraseñas. Ya que al igual que ocurre con nuestra cuenta de correo, la pérdida de la contraseña implica el no tener acceso a los datos, ya que los sistemas utilizados son bastante parecidos, y las posibilidades de recuperar estas contraseñas son bastante escasas. 

} Dependiendo la cantidad de archivos en algunos casos el servicio es costoso.

}Suelen exitir limitaciones de acuerdo al proveedor y las plataformas o aplicaciones que el ofrece.  En el caso de applese requieren dispositivos coniOS

QUE ES LENGUAJE DE PROGRAMACION .. !!


LENGUAJES DE PROGRAMACION

Un lenguaje de programación es un lenguaje que puede ser utilizado para controlar el comportamiento de una máquina, particularmente una computadora. Consiste en un conjunto de reglas sintácticas y semánticas que definen su estructura y el significado de sus elementos, respectivamente. Aunque muchas veces se usa lenguaje de programación y lenguaje informático como si fuesen sinónimos, no tiene por qué ser así, ya que los lenguajes informáticos engloban a los lenguajes de programación y a otros más, como, por ejemplo, el HTML. Según la forma de ejecución

Lenguajes compilados

Naturalmente, un programa que se escribe en un lenguaje de alto nivel también tiene que traducirse a un código que pueda utilizar la máquina. Los programas traductores que pueden realizar esta operación se llaman compiladores. Éstos, como los programas ensambladores avanzados, pueden generar muchas líneas de código de máquina por cada proposición del programa fuente. Se requiere una corrida de compilación antes de procesar los datos de un problema.
Los compiladores son aquellos cuya función es traducir un programa escrito en un determinado lenguaje a un idioma que la computadora entienda (lenguaje máquina con código binario).
Al usar un lenguaje compilado (como lo son los lenguajes del popular Visual Studio de Microsoft), el programa desarrollado nunca se ejecuta mientras haya errores, sino hasta que luego de haber compilado el programa, ya no aparecen errores en el código.

Lenguajes interpretados


Se puede también utilizar una alternativa diferente de los compiladores para traducir lenguajes de alto nivel. En vez de traducir el programa fuente y grabar en forma permanente el código objeto que se produce durante la corrida de compilación para utilizarlo en una corrida de producción futura, el programador sólo carga el programa fuente en la computadora junto con los datos que se van a procesar. A continuación, un programa intérprete, almacenado en el sistema operativo del disco, o incluido de manera permanente dentro de la máquina, convierte cada proposición del programa fuente en lenguaje de máquina conforme vaya siendo necesario durante el proceso de los datos. No se graba el código objeto para utilizarlo posteriormente.La siguiente vez que se utilice una instrucción, se le debe interpretar otra vez y traducir a lenguaje máquina. Por ejemplo, durante el procesamiento repetitivo de los pasos de un ciclo, cada instrucción del ciclo tendrá que volver a ser interpretado cada vez que se ejecute el ciclo, lo cual hace que el programa sea más lento en tiempo de ejecución (porque se va revisando el código en tiempo de ejecución) pero más rápido en tiempo de diseño (porque no se tiene que estar compilando a cada momento el código completo). El intérprete elimina la necesidad de realizar una corrida de compilación después de cada modificación del programa cuando se quiere agregar funciones o corregir errores; pero es obvio que un programa objeto compilado con antelación deberá ejecutarse con mucha mayor rapidez que uno que se debe interpretar a cada paso durante una corrida de producción.

ALGUNOS LENGUAJES DE PROGRAMACIÓN:



PROGRAMACIÓN MODULAR
La programación estructurada es una técnica de diseño de programas que comenzó a ponerse en
práctica a principios de los años 70. Su utilización tiene como objetivo paliar algunas deficiencias:

1. Los programas que están constituidos por un único bloque, más o menos grande, de código, dependiendo de la complejidad y tamaño de la aplicación, por ejemplo 5000 ó 6000 líneas de código sin comentar, sin documentar y sin estructurar, esto es, sin hacer uso de un sólo submódulo, son programas pocos legibles, difíciles de depurar y modificar y poco reutilizables.

2. Un problema complejo no puede solucionarse de una sola vez y con un único algoritmo; además, existen operaciones que se repiten una y otra vez a lo largo del programa, de tal manera que es necesario el mismo bloque de código pero con diferentes datos. Con el fin de dar solución a los puntos anteriores se introdujo la programación estructurada. Su objetivo primordial es resolver un problema, más o menos complejo, dividiéndolo en otros más sencillos, que ligados convenientemente, nos den la solución del problema original.
Cada subproblema se representará mediante uno o varios módulos según su complejidad. La idea es que estos módulos sean independientes, es decir, que se puedan modificar o reemplazar sin afectar al resto del programa o que puedan ser reutilizados en otros programas. Supongamos el siguiente ejemplo. “Un profesor quiere crear un programa para gestionar la notas de sus alumnos. Quiere que dicho programa le permita realizar tareas tales como asignar notas, cambiar notas, ver las notas según las distintas calificaciones, etc.” Un posible división del problema en módulos sería: Esta subdivisión nos permitiría, fácilmente, cambiar la forma de visualizar a los alumnos, reutilizar el módulo “Visualizar” en otro programa y sobre todo es mucho más fácil de comprobar su funcionamiento.
Por tanto, las ventajas del diseño modular se traducen, principalmente, en que los programas son:
más fáciles de escribir y probar (los módulos pueden escribirse y probarse separadamente)
más fáciles de mantener y documentar.

Programación Estructurada.
Se refiere a un conjunto de técnicas que han ido evolucionando. Estas técnicas aumentan considerablemente la productividad del programa reduciendo el tiempo requerido para escribir, verificar, depurar y mantener los programas. La programación estructurada utiliza un número limitado de estructuras de control que minimizan la complejidad de los problemas y que reducen los errores. Ésta incorpora entre otros elementos: el diseño descendente, recursos abstractos y estructuras básicas. La programación estructurada es una forma de escribir programación de ordenador de forma clara, para ello utiliza únicamente tres estructuras: secuencial, selectiva e iterativa; siendo innecesario y no permitiéndose el uso de la instrucción o instrucciones de transferencia incondicional ( GOTO ).

¿QUÉ ES UNA INTERFAZ GRAFICA DE USUARIO?

En el contexto del proceso de interacción persona-ordenador, lainterfaz gráfica de usuario (IGU), es el artefacto tecnológico de unsistema interactivo que posibilita, a través del uso y la representación del lenguaje visual, una interacción amigable con un sistema informático.
La interfaz gráfica de usuario (en inglés Graphical User Interface,GUI) es un tipo de interfaz de usuario que utiliza un conjunto de imágenes y objetos gráficos (iconosventanastipografía) para representar la información y acciones disponibles en la interfaz. Habitualmente las acciones se realizan mediante manipulación directa para facilitar la interacción del usuario con la computadora.
Surge como evolución de la línea de comandos de los primerossistemas operativos y es pieza fundamental en un entorno gráfico.
Como ejemplo de interfaz GUI podemos citar el escritorio o desktopdel sistema operativo Windows y el entorno X-Window de Linux.