miércoles, 22 de abril de 2009

Trabajo colaborativo

Trabajo colaborativo
El trabajo colaborativo se define como procesos intencionales de un grupo para alcanzar objetivos específicos, más herramientas diseñadas para dar soporte y facilitar el trabajo.
En el marco de una organización, el trabajo en grupo con soporte tecnológico se presenta como un conjunto de estrategias tendientes a maximizar los resultados y minimizar la pérdida de tiempo e información en beneficio de los objetivos organizacionales.
El mayor desafío es lograr la motivación y participación activa del recurso humano. Además deben tenerse en cuenta los aspectos tecnológico, económico y las políticas de la organización. Trabajo colaborativo o groupware son palabras para designar el entorno en el cual todos los participantes del proyecto trabajan, colaboran y se ayudan para la realización del proyecto.si hay

Elementos
Elementos del trabajo colaborativo:
Objetivos: los mismos de la organización; particulares, bien definidos u otros
Ambiente: controlado y cerrado.
Motivación: la persona es convencida por la organización.
Tipo de proceso: se formaliza el proceso grupal.
Aporte individual: conocimiento y experiencia personal al servicio de los interesares organizacionales.
Pasos del proceso grupal: se deben definir claramente y previamente.
Es necesario un control del proceso de aprendizaje por parte del profesorado.
Reglas; rígidas, definidas previamente.
Desarrollo personal: supeditado a los objetivos organizacionales.
Productividad: es su fin.
Preocupación: la experiencia en función de los resultados; la motivación es extrínseca.
Software: contiene todo lo que se puede y no se puede hacer.
Otro elemento del trabajo cooperativo es que "ayuda a potenciar aspectos afectivos actitudinales y motivacionales y genera aspectos muy positivos para el logro de los aprendizajes" Martí (1996, 54); ; el hecho de pertenecer a un grupo con un objetivo en común permite estrechar lazos en los participantes y les genera sentido de pertenencia. Claro esta que el objetivo de un trabajo colaborativo es producir algo, que puede ser un conocimiento o un objeto tangible; pero en ocasiones el hecho de pertenecer a una organización también puede ser el objetivo de los participantes; por lo tanto la motivación puede ser tambien intrínseca del propio proyecto.Trabajo colaborativo

Aspectos negativos y positivos de la sociedad de la informacion

INFORMACIÓN Y SOCIEDAD DE LA INFORMACIÓN
Si en el mundo contemporáneo hay dos temas que inciden de manera definitiva y
contundente en la vida de las personas, en los contextos productivo y social y,
particularmente en el contexto educativo, estos temas son la información y el
conocimiento.
Comencemos con el tema de la Información y la Sociedad de la Información.
El Dato
El dato (del latín datum), es la mínima unidad expresiva que nos representa algo. El
dato, entonces, es un signo. Un signo es cualquier entidad de la realidad que podemos
percibir y que nos representa algo. Cuando el signo adquiere alto grado de abstracción
y arbitrariedad, se convierte en símbolo. Una señal de tránsito o la indumentaria de
un profesional específico son signos porque están directamente vinculados con la
realidad que representan. En cambio, un símbolo, es totalmente arbitrario,
convencional y abstracto. Por ejemplo, cualquier palabra de nuestro idioma que tenga
algún contenido significativo (sustantivo, adjetivo, verbo…) es un símbolo.
El dato es una representación simbólica (numérica, alfabética, algorítmica etc.) de una
porción de la realidad. El dato no tiene valor semántico (sentido) en sí mismo; pero
convenientemente tratado (procesado), es decir, secuenciado y organizado
coherentemente según un objetivo (sintaxis), cobra sentido, se vuelve “inteligible” y
así, se transforma en información la que se puede utilizar para la realización de
cálculos o la toma de decisiones. Los datos, en su calidad de signos, se perciben
mediante los sentidos (sensación); la función intelectiva los integra coherentemente
(percepción) y, si son de interés para la persona, se almacenan en la memoria. El dato
es un insumo esencial para la generación de la información, los procesos de
pensamiento, de aprendizaje y la construcción del conocimiento.
Aunque el ser humano ha desarrollado diversos sistemas simbólicos, por lo general el
dato adopta la forma de una(s) palabra(s) o término(s) propia(os) del lenguaje natural
que normalmente hablamos. El dato es fundamental en la construcción de las
nociones, conceptos, de los juicios y raciocinios con los que nos hacemos una
representación de la realidad y construimos nuestro conocimiento.
En general, un dato es una expresión mínima de contenido sobre un tema. Ejemplos
de datos son: la altura de una montaña, la fecha de nacimiento de un personaje
histórico, el peso específico de una sustancia, el número de habitantes de un país, etc.

La Información
Por su parte la información es un conjunto organizado de datos procesados, que
constituyen un mensaje sobre un determinado ente o fenómeno de la realidad. De
esta manera, si por ejemplo organizamos datos sobre un país, tales como: número de
habitantes, densidad de población, nombre del presidente, etc. y escribimos por
ejemplo, el capítulo de un libro, podemos decir que ese capítulo constituye
información sobre ese país. Cuando tenemos que resolver un determinado problema,
tomar una decisión o transformar la realidad, empleamos diversas fuentes de
información (como podría ser el capítulo mencionado de este libro imaginario), y
construimos lo que en general se denomina conocimiento o información organizada
que permite la resolución de problemas o la toma de decisiones encaminadas hacia la
transformación de la realidad.
La información está estrechamente vinculada con el lenguaje, con las facultades de
pensamiento, con el aprendizaje y con la construcción del conocimiento. La Ciencia y
la Tecnología han posibilitado a la humanidad la transformación de la naturaleza. La
producción de bienes y servicios se enmarca dentro del esquema mundial globalizado
de la economía de mercado; en ella priman la productividad, la competitividad y las
leyes del mercado. Ello ha tenido consecuencias benéficas en cuanto al uso de
tecnologías que pueden satisfacer las necesidades básicas y mejorar la calidad de vida
de las personas.
Pero, de manera análoga, se han generado igualmente impactos sociales y ambientales
negativos como el aumento en la pobreza de gran cantidad de la población, su
exclusión de los procesos de Desarrollo Humano Integral, el aumento de la violencia y
los efectos de contaminación de ríos, del aire, de la deforestación y degradación de
tierras cultivables, la disminución de la capa de ozono y el calentamiento climático del
planeta.
La información tiene una característica muy importante: puede ser almacenada. En
tiempos primitivos los escribanos, personas muy apreciadas en las sociedades
antiguas, producían y transcribían libros a mano; se crearon las primeras bibliotecas.
La imprenta de Gutemberg posibilitó la producción en serie de libros. Se crearon
también los periódicos. En 1948 Claude Shannon difunde su teoría de la información;
surgen la radio, la televisión e Internet. El avance tecnológico dispara de manera
exponencial la generación de volúmenes cada vez más altos de información en lapsos
cada vez menores de tiempo.
James Watson y Francis Crick descubren las cadenas de información del ADN. Jeremy
Camphbell redefine el término de información desde la perspectiva de la comunicación
electrónica. Norbert Wiener desarrolla el tema de la cibernética dentro de los cuales
la autoorganización de ciertos sistemas se apoya en la Gestión Coherente de la
información.

La Teoría de la información es una rama de la teoría matemática de la probabilidad y
la estadística que estudia desde una perspectiva sistémica la información y demás
componentes relacionados con ella como los canales de distribución, la compresión de
datos, la criptografía y demás temas relacionados. Esta teoría fue iniciada por Claude
E. Shannon a través de un artículo publicado en el Bell System Technical Journal en
1948, titulado “Una teoría matemática de la comunicación”.
En la actualidad de generan cada día enormes volúmenes de información. La
tecnología posibilita el fácil acceso a diversos almacenes y fuentes de información la
que se puede almacenar en soportes cada vez más reducidos. Todos los días se
generan nuevas redes de información y se constituyen nuevos bancos de datos, de
fácil acceso en cualquier momento y desde cualquier lugar del mundo. Esta es una de
las ventajas del avance tecnológico que caracteriza el mundo contemporáneo y de la
globalización.
La Sociedad de la Información
Hacia la década de 1970 se inició un cambio en el funcionamiento de la mayoría de
sociedades del mundo; se dio origen a la denominada “Sociedad de la Información”.
Este cambio se evidencia en el hecho de que los medios de generación de riqueza poco
a poco se están trasladando de los sectores industriales a los sectores de servicios. En
otras palabras, se supone que en las sociedades contemporáneas, la mayor parte de
los empleos ya no estarán asociados a las fábricas de productos tangibles, sino a la
generación, almacenamiento y procesamiento de todo tipo de información. Los
sectores relacionados con las tecnologías de la información y la comunicación (TIC),
juegan un papel de primer orden en este contexto.
En los albores del siglo XXI se habla de “industrias sin chimenea” para aludir a la
actividad productiva y económica del área de servicios, particularmente al de las
Tecnologías de la Informática y la Comunicación TIC. Como todo, esto tiene su lado
positivo y negativo.
Como aspectos positivos se señalan la democratización del acceso a las fuentes de
información y la incorporación de las TIC en todas las actividades humanas; de
cualquier forma, todo ello confluye en la dinámica del mercado internacional donde
priman la productividad y la competitividad, y esto tiene sus adeptos y sus críticos.
Algunos críticos señalan que la sociedad de la información es una estrategia más de los
países desarrollados para con los países más pobres que tendría como finalidad
mantener la dependencia tecnológica.
El reto actual para la mayoría de personas del mundo es adecuarse a las exigencias de
esta nueva sociedad. Las implicaciones en la educación señalan la necesidad de que
las personas accedan a fuentes de información pertinentes y de calidad, analicen la
información, selecciones, almacenen y recuperen la información en el momento
indicado; en una palabra, desarrollar competencias en lo relativo a la “Gestión de
Información” como condición para construir colectivamente el conocimiento.
Según la declaración de principios de la Cumbre de la Sociedad de la Información
llevada a cabo en Ginebra (Suiza) en 2003, la Sociedad de la Información debe estar
centrada en la Persona Humana; en las posibilidades de generar un conocimiento
orientado hacia la satisfacción de las necesidades básicas de las personas y hacia su
Desarrollo Humano Integral, en el Marco del Desarrollo Sostenible, en los niveles
personal y colectivo de manera que se humanicen las condiciones de existencia de
todas las personas del mundo, se reduzcan las brechas económicas, tecnológicas,
sociales y culturales que en la actualidad afectan a la humanidad.
Las posibilidades de acceso y generación de información están relacionadas en
proporción directa con la generación de conocimiento; pero información y
conocimiento son dos cosas bien distintas.

lunes, 20 de abril de 2009

Historia de internet

La historia de Internet se remonta al temprano desarrollo de las redes de comunicación. La idea de una red de computadoras diseñada para permitir la comunicación general entre usuarios de varias computadoras se ha tanto desarrollos tecnológicos como la fusión de la infraestructura de la red ya existente y los sistemas de telecomunicaciones.
Las más antiguas versiones de estas ideas aparecieron a finales de los años 50. Implementaciones prácticas de estos conceptos empezaron a finales de los 60 y a lo largo de los 70. En la década de 1980, tecnologías que reconoceríamos como las bases de la moderna Internet, empezaron a expandirse por todo el mundo. En los 90 se introdujo la World Wide Web, que se hizo común.
La infraestructura de Internet se esparció por el mundo, para crear la moderna red mundial de computadoras que hoy conocemos. Atravesó los países occidentales e intentó una penetración en los países en desarrollo, creando un acceso mundial a información y comunicación sin precedentes, pero también una brecha digital en el acceso a esta nueva infraestructura. Internet también alteró la economía del mundo entero, incluyendo las implicaciones económicas de la burbuja de las .com.
Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método de la computadora central o unidad principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este método se usaba en los años 50 por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh (Pensilvania), cuando colaboraba a través de todo el continente con otros investigadores de Santa Mónica (California) trabajando en demostraciones de teoremas automatizadas e inteligencia artificial.
Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider, comprendió la necesidad de una red mundial, según consta en su documento de enero, 1960, Man-Computer Symbiosis (Simbiosis Hombre-Computadora).
"una red de muchos [ordenadores], conectados mediante líneas de comunicación de banda ancha" las cuales proporcionan "las funciones hoy existentes de las bibliotecas junto con anticipados avances en el guardado y adquisición de información y [otras] funciones simbióticas"
J.C.R Licklider[1]
En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de información DARPA, y empezó a formar un grupo informal dentro del DARPA del Departamento de Defensa de los Estados Unidos para investigaciones sobre ordenadores más avanzadas. Como parte del papel de la oficina de procesado de información, se instalaron tres terminales de redes: una para la System Development Corporation en Santa Monica, otra para el Proyecto Genie en la Universidad de California (Berkeley) y otra para el proyecto Multics en el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de redes se haría evidente por los problemas que esto causó.
"Para cada una de estas tres terminales, tenía tres diferentes juegos de comandos de usuario. Por tanto, si estaba hablando en red con alguien en la S.D.C. y quería hablar con alguien que conocía en Berkeley o en el M.I.T. sobre esto, tenía que irme de la terminal de la S.C.D., pasar y registrarme en la otra terminal para contactar con él.
Dije, es obvio lo que hay que hacer: si tienes esas tres terminales, debería haber una terminal que fuese a donde sea que quisieras ir y en donde tengas interactividad. Esa idea es el ARPANet."
Robert W. Taylor, co-escritor, junto con Licklider, de "The Computer as a Communications Device" (El Ordenador como un Dispositivo de Comunicación), en una entrevista con el New York Times[2]
Como principal problema en lo que se refiere a las interconexiones está el conectar diferentes redes físicas para formar una sola red lógica. Durante los años 60, varios grupos trabajaron en el concepto de la conmutación de paquetes. Normalmente se considera que Donald Davies (National Physical Laboratory), Paul Baran (Rand Corporation) y Leonard Kleinrock (MIT) lo han inventado simultáneamente.[3]
La conmutación es una técnica que nos sirve para hacer un uso eficiente de los enlaces físicos en una red de computadoras.
Un Paquete es un grupo de información que consta de dos partes: los datos propiamente dichos y la información de control, en la que está especificado la ruta a seguir a lo largo de la red hasta el destino del paquete. Mil octetos es el límite de longitud superior de los paquetes, y si la longitud es mayor el mensaje se fragmenta en otros paquetes

miércoles, 15 de abril de 2009

Historia de la informatica




La computadora no es un invento de alguien en particular, sino el resultado evolutivo de ideas y realizaciones de muchas personas relacionadas con áreas tales como la electrónica, la mecánica, los materiales semiconductores, la lógica, el álgebra y la programación.
Contenido[
ocultar]
1 Antigüedad
2 Siglo VIII
3 Siglo XVII
4 Siglo XVIII
5 Siglo XIX
6 Siglo XX
7 Siglo XXI
8 Enlaces externos
//

Antigüedad [editar]

Ábaco
3000 adC
Los babilonios que habitaron en la antigua Mesopotamia empleaban unas pequeñas bolas hechas de semillas o pequeñas piedras, a manera de "cuentas" agrupadas en carriles de caña.
500 adC
Aparece uno de los primeros dispositivos mecánicos para contar; el ábaco. Los chinos, con él realizaban cálculos rápidos y complejos. Este instrumento tenía un marco de madera cables horizontales con bolas agujereadas que corrían de izquierda a derecha. El ábaco fue la primera máquina conocida que ayudaba a ejecutar computaciones matemáticas. Como una indicación de su potencial, se usa el ábaco todavía en muchas culturas orientales hoy en día.
300 adC
El matemático hindú Pingala fue el primero en describir el sistema de numeración binario, el cual es esencialmente parte del diseño de una computadora moderna.

Siglo VIII [editar]
El matemático e ingeniero Muhammad ibn Musa al-Khwarizmi, inventó el
algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones a fin de hallar la solución al problema que se plantea.

Siglo XVII [editar]
1617
Justo antes de morir, el matemático escocés John Napier (1550-1617, famoso por su invención de los logaritmos) desarrolló un sistema para realizar operaciones aritméticas manipulando barras, a las que llamó "huesos" ya que estaban construidas con material de hueso o marfil, y en los que estaban plasmados los dígitos. Dada su naturaleza, se llamó al sistema "Napier Bones". Los Huesos de Napier tuvieron una fuerte influencia en el desarrollo de la regla deslizante (cinco años más tarde) y las máquinas calculadoras subsecuentes, que contaron con logaritmos.
1623
La primera calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania. Llamado "El Reloj Calculador", la máquina incorporó los logaritmos de Napier, hacia rodar cilindros en un albergue grande. Se comisionó un Reloj Calculador para Johannes Kepler, el matemático famoso, pero fue destruido por el fuego antes de que se terminara.
1624
La primera regla deslizante fue inventada por el matemático inglés William Oughtred. La regla deslizante (llamada "Círculos de Proporción") era un juego de discos rotatorios que se calibraron con los logaritmos de Napier. Se usó como uno de los primeros aparatos de la informática analógica. Su época de esplendor duró más o menos un siglo, el comprendido entre la segunda mitad del siglo XIX y el último cuarto del XX, hasta que a comienzos de 1970, calculadoras portátiles comenzaron a ser populares.
1645

Pascalina firmada por Pascal en 1652.
Blaise Pascal inventa la
Pascalina. Con ésta máquina, los datos se representaban mediante las posiciones de los engranajes.
La Pascalina es una de las primeras calculadoras mecánicas, que funcionaba a base de ruedas y engranes. Fue inventada por Blaise Pascal en 1645, tras tres años de trabajo sobre la misma. Se fabricaron varias versiones y Pascal en persona construyó al menos cincuenta ejemplares. El primer uso de la Pascalina fue en la Hacienda francesa, debido a que Pascal diseñó la Pascalina para ayudar a su padre, que era contador en dicha entidad. Debido a ello la Pascalina estaba destinada básicamente a solucionar problemas de aritmética comercial. En 1670 el filósofo y matemático alemánico Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar las colas. La Pascalina conoció un período de gloria en los años 1960, debido a que se usó de forma interna en la compañía IBM. Por aquellos tiempos era el único dispositivo que permitía efectuar muy rápidamente cálculos en numeración hexadecimal, lo que era necesario para la depuración de los programas. Se exponen varios ejemplares originales en Inglaterra, en el Museo de Artes y Oficios.
1666
La primera máquina de multiplicar se inventó por Sir Samuel Morland, entonces Amo de mecánicas a la corte de Rey Charles II de Inglaterra. El aparato constó de una serie de ruedas, cada una de las cuales representaba decenas, centenas, etc. Un alfiler de acero movía los diales para ejecutar los cálculos. A diferencia de la Pascalina, este aparato no tenía avance automático de columnas.
1673
La primera calculadora de propósito general fue inventada por el matemático alemán Gottfried von Leibniz. El aparato era una partida de la Pascalina, mientras opera usa un cilindro de dientes (la rueda de Leibniz) en lugar de la serie de engranajes. Aunque el aparato podía ejecutar multiplicación y división, padeció de problemas de fiabilidad que disminuyó su utilidad.

Siglo XVIII [editar]
1769
El Jugador de Ajedrez Autómata fue inventado por Barón Wolfgang von Kempelen, un noble húngaro. El aparato y sus secretos se le dieron a Johann Nepomuk Maelzel, un inventor de instrumentos musicales, quien recorrió Europa y los Estados Unidos con el aparato, a finales de 1700 y temprano 1800. Pretendió ser una máquina pura, el Autómata incluía un jugador de ajedrez "robótico". El Automatón era una sensación dondequiera que iba, pero muchos comentaristas, incluso el famoso Edgar Allan Poe, han escrito críticas detalladas diciendo que ese era una "máquina pura". En cambio, generalmente, siempre se creyó que el aparato fue operado por un humano oculto en el armario debajo del tablero de ajedrez. El Autómata se destruyó en un incendio en 1856.
1777
Se inventó la primera máquina lógica por Charles Mahon, el Conde de Stanhope. El "demostrador lógico" era un aparato tamaño bolsillo que resolvía silogismos tradicionales y preguntas elementales de probabilidad. Mahon es el precursor de los componentes lógicos en computadoras modernas.

Siglo XIX [editar]
1801
El francés Joseph Marie Jacquard, utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras. Inspirado por instrumentos musicales que se programaban usando papel agujereado, la máquina se parecía a una atadura del telar que podría controlar automáticamente los dibujos usando una línea de tarjetas agujereadas. La idea de Jacquard, que revolucionó el hilar de seda, estaba por formar la base de muchos aparatos de la informática e idiomas de la programación.
1820
La primera calculadora de producción masiva se distribuyó por Charles Thomas de Colmar. Originalmente se les vendió a casas del seguro Parisienses, el aritmómetro de Colmar operaba usando una variación de la rueda de Leibniz. Más de mil aritmómetros se vendieron y eventualmente recibió una medalla a la Exhibición Internacional en Londres en 1862.
1822
Charles Babbage completó su Artefacto de la diferencia, una máquina que se puede usar para ejecutar cálculos de tablas simples. El Artefacto de la Diferencia era un ensamble complejo de ruedas, engranajes, y remaches. Babbage diseñó su "Artefacto Analítico", un aparato de propósito general que era capaz de ejecutar cualquier tipo de cálculo matemático. Los diseños del artefacto analítico eran la primera conceptualización clara de una máquina que podría ejecutar el tipo de cálculos computacionales que ahora se consideran el corazón de informática. Babbage nunca construyó su artefacto analítico, pero su plan influyó en toda computadora digital subsiguiente, incluidas las modernas. El artefacto analítico fue finalmente construido por un equipo moderno de ingenieros, en 1989, cien años después de la muerte de Babbage en 1871. Por su discernimiento, Babbage hoy se conoce como el "Padre de las Computadoras Modernas".
1837
Fue inicialmente descrita la máquina analítica de Charles Babbage. Es el diseño de un computador moderno de propósito general. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y muy propenso a errores.
1843
Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas se adaptaran de manera que causaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunos consideran a Lady Lovelace la primera programadora.
1854
El desarrollo del Álgebra de Boole fue publicado por el lógico inglés George Boole. El sistema de Boole redujo a argumentos lógicos las permutaciones de tres operadores básicos algebraicos: y, o, y no. A causa del desarrollo del álgebra de Boole, Boole es considerado por muchos como el padre de la teoría de la informática.
1869
La primera máquina lógica en usar el álgebra de Boole para resolver problemas más rápido que humanos, fue inventada por William Stanley Jevons. La máquina, llamada el Piano lógico, usó un alfabeto de cuatro términos lógicos para resolver silogismos complicados.
1878
Un comité de la Asociación Británica para el avance de la ciencia recomendó no construir la máquina analítica, por lo que Babbage no tuvo acceso a fondos del gobierno.
Ramon Verea, quien vivía en la ciudad de Nueva York, inventó una calculadora con una tabla interna de multiplicación; esto fue mucho más rápido que usar acarreos u otro método digital de aquel tiempo. Él no se interesó en poner su obra en producción, sólo quiso mostrar que un español podía inventar tanto como un americano.
1879
A los 19 años de edad, Herman Hollerith fue contratado como asistente en las oficinas del censo estadounidense y desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban el sexo, la edad, raza, entre otros. Gracias a la máquina tabuladora de Hollerith el censo de 1890 se realizó en dos años y medio, cinco menos que el censo de 1880.Se tardaba tanto en hacer el censo debido a la llegada masiva de inmigrantes.
1884
Dorr Felt desarrolló su "Comptómetro", el cual fue la primera calculadora que se operaba con sólo presionar teclas en vez de, por ejemplo, deslizar ruedas.
1893
La primera máquina exitosa de multiplicación automática se desarrolló por Otto Steiger. "El Millonario", como se le conocía, automatizó la invención de Leibniz de 1673, y fue fabricado por Hans W. Egli de Zurich. Originalmente hecha para negocios, la ciencia halló inmediatamente un uso para el aparato, y varios miles de ellos se vendieron en los cuarenta años que siguieron.

Siglo XX [editar]
1906
El primer tubo de vacío fue inventado por el americano, Lee De Forest. El "Audion", como se llamaba, tenía tres elementos dentro de una bombilla del vidrio evacuada. Los elementos eran capaces de hallar y amplificar señales de radio recibidas de una antena. El tubo al vacío encontraría uso en varias generaciones tempranas de computadoras, a comienzos de 1930.
1919
El primer circuito multivibrador o biestable (en léxico electrónico flip-flop) fue desarrollado por los inventores americanos W.H. Eccles y F.W. Jordan. El flip-flop permitió diseñar circuitos electrónicos que podían tener dos estados estables, alternativamente, pudiendo representar así el 0 como un estado y el otro con un 1. Esto formó la base del almacenamiento y proceso del bit binario, estructura que utilizan las actuales computadoras.
1924
Walther Bothe construyó una puerta lógica AND para usarla en experimentos físicos, por lo cual recibió el premio Nobel de física en 1954.
1925
Se fundan los laboratorios Bell.
1930
Vannevar Bush construyó una máquina diferencial parcialmente electrónica, capaz de resolver ecuaciones diferenciales.
1931
Kurt Gödel publicó un documento sobre los lenguajes formales basados en operaciones aritméticas. Lo usó para codificar arbitrariamente sentencias y pruebas formales, y mostró que los sistemas formales, como las matemáticas tradicionales, son inconsistentes en un cierto sentido, o que contienen sentencias improbables pero ciertas. Sus resultados son fundamentales en las ciencias teóricas de la computación.
1936
Alan Turing describe la máquina de Turing, la cual formaliza el concepto de algoritmo.
1940
Samuel Williams y George Stibitz completaron en los laboratorios Bell una calculadora que podía manejar números complejos.
1941


La computadora Z3 fue creada por Konrad Zuse. Fue la primera máquina programable y completamente automática.
1942
John Vincent Atanasoff y Clifford Edward Berry completaron una calculadora de propósito especial para resolver sistemas de ecuaciones lineales simultáneas, la cual fue llamada la "ABC" ("Atanasoff Berry Computer").
1944
Se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken.
1945
El primer caso de malfuncionamiento en la computadora causado por la intrusión de una polilla al sistema fue documentado por los diseñadores del Mark II. Erróneamente se cree que de allí proviene el uso del término "bug", que significa insecto o polilla en inglés. Sin embargo este término ya se usaba mucho antes para referirse a malfuncionamientos de aparatos mecánicos, eléctricos y electrónicos. El "Oxford English Dictionary " documenta este uso de la palabra desde 1889.
Vannevar Bush desarrolló la teoría de Memex, un dispositivo de hipertexto ligado a una librería de libros y películas.
1946

ENIAC
Se construye en la Universidad de Pennsylvania la
ENIAC (Electronic Numerical Integrator And Calculator), que fue la primer computadora electrónica de propósito general. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18.000 tubos de vacío, consumía 200KW de energía eléctrica y requería todo un sistema de aire acondicionado; tenía la capacidad para realizar cinco mil operaciones aritméticas por segundo.
1947
Se inventa el transistor, en Laboratorios Bell por John Bardeen, Walter H. Brattain, y William Shockley.
1949
Fue desarrollada la primera memoria, por Jay Forrester, la cual reemplazó los no confiables tubos al vacío como la forma predominante de memoria por los próximos diez años.
1950
Alan Turing expone un artículo que describe lo que ahora conocemos como la prueba de Turing. Su publicación explora el desarrollo natural y potencial de la inteligencia y comunicación humana y de computadoras.
1951
Comienza a operar la EDVAC, a diferencia de la ENIAC, no era decimal, sino binaria y tuvo el primer programa diseñado para ser almacenado.
Eckert y Mauchly entregan a la Oficina del Censo su primer computador: el
UNIVAC I.
El
Sistema A-0 fue inventado por Grace Murray Hopper. Fue el compilador desarrollado para una computadora electrónica.
1952
Shannon desarrolla el primer ratón eléctrico capaz de salir de un laberinto, considerada la primera red neural.
1953
IBM fabricó su primer computadora escala industrial, la IBM 650
Se amplía el uso del
lenguaje ensamblador para la programación de las computadoras.
Se crean memorias a base de magnetismo (conocidas como
memorias de núcleos).
1954
Se desarrolla el lenguaje de programación de alto nivel FORTRAN.
1956
Darthmouth da una conferencia en a partir de la que nace el concepto de inteligencia artificial.
Edsger Dijkstra inventa un algoritmo eficiente para descubrir las rutas más cortas en grafos como una demostración de las habilidades de la computadora ARMAC.
1957
Es puesta a la venta por parte de IBM la primer impresora de matriz de puntos.
1958
Comienza la segunda generación de computadoras, caracterizados por usar circuitos transistorizados en vez de válvulas al vacío.
El primer
circuito integrado se construyó por Jack S. Kilby.
La organización
ARPA es creada como consecuencia tecnológica de la llamada Guerra Fría.
1960
Se desarrolla COBOL, el primer lenguaje de programación de alto nivel transportable entre modelos diferentes de computadoras.
Aparece
Algol, el primer lenguaje de programación estructurado y orientado a los procedimientos.
Se crea el primer
compilador de compilador.
C. Antony R. Hoare desarrolla el algoritmo de ordenamiento o clasificación llamado quicksort.
1961
Kenneth Iverson inventa el lenguaje de programación APL en IBM.
Aparece el concepto de
paginación de memoria, descrito por T. Kilburn y D. J. Howart.
1962
Los primeros programas gráficos que dejan que el usuario dibuje interactivamente en una pantalla fueron desarrollados por Iván Sutherland en MIT.
El primer compilador autocontenido, es decir, capaz de compilar su propio código fuente fue el creado para
Lisp por Hart y Levin en el MIT.
Un equipo de la Universidad de Manchester completa la
computadora ATLAS. Esta máquina introdujo muchos conceptos modernos como interrupciones, pipes (tuberías), memoria entrelazada, memoria virtual y memoria paginada. Fue la máquina más poderosa del mundo en ese año.
El estudiante del MIT
Steve Russell escribe el primer juego de computadora, llamado Spacewar!.
1963

Caracteres ASCII imprimibles, del 32 al 126.
Un comité Industria-Gobierno define el código estándar de caracteres
ASCII.
El primer minicomputador comercialmente exitoso es distribuido por
DEC (Digital Equipment Corporation).
1964
La aparición del IBM 360 marca el comienzo de la tercera generación. Las placas de circuito impreso con múltiples componentes elementales pasan a ser reemplazadas con placas de circuitos integrados.
Aparece el
CDC 6600, la primera supercomputadora comercialmente disponible.
1965
Gordon Moore publica la famosa Ley de Moore.
La
lógica difusa, diseñada por Lofti Zadeh, se usó para procesar datos aproximados.
J. B. Dennis introduce por primera vez el concepto de segmentación de memoria.
Los algoritmos de
exclusión mutua (sistemas operativos) fueron tratados por primera vez en los clásicos documentos de Dijkstra.
1966
La mayoría de ideas y conceptos que existían sobre redes fueron aplicadas a ARPANET.
Aparecen los primeros ensayos que más tarde definirían lo que hoy es la
programación estructurada.
1967
Los primeros programas exitosos de ajedrez fueron desarrollados por Richard Greenblatt en el MIT.
Es inventado el
diskette (disco flexible) en IBM por David Noble, bajo la dirección de Alan Shugart.
1968
Robert Noyce y Gordon Moore fundan la corporación Intel.
1969
El protocolo de comunicaciones NCP fue creado para controlar la red ARPANET.
La primera minicomputadora de 16-bit es distribuida por la Data General Corporation.
Se desarrolla en los
laboratorios Bell el lenguaje de programación B cuyos aportes fueron mayoritariamente de Ken Thompson y Dennis Ritchie.
Nace el
sistema operativo UNICS en los laboratorios Bell de AT&T por un grupo de empleados de dicho laboratorio, entre los que se encuentran Ken Thompson, Dennis Ritchie y Douglas Mcllroy.
1970
El sistema UNICS, es renombrado como Unix.
El primer cable de
fibra óptica fue comercialmente producido por Corning Glass Works, Inc.
Se publica el primer modelo de
base de datos relacional, por E.F. Codd.
El profesor suizo
Niklaus Wirth desarrolla el lenguaje de programación Pascal.
Brinch Hansen utiliza por primera vez la comunicación interprocesos en el sistema RC 400.
Intel crea la primera memoria dinámica RAM. Se le llamó 1103 y tenía una capacidad de 1024 bits (1Kbits).
1971
Se presenta el primer procesador comercial y a la vez el primer chip microprocesador, el Intel 4004.
Ray Tomlinson crea el primer programa para enviar correo electrónico, como consecuencia, la arroba se usa por primera vez con fines informáticos.
Un grupo de investigadores del
MIT presentaron la propuesta del primer "Protocolo para la transmisión de archivos en Internet" (FTP).
Texas Instruments vende la primera calculadora electrónica portátil.
1972
Aparecen los disquetes de 5 1/4 pulgadas.
Se reconoce el primer
virus informático, creado por Robert Thomas Morris. Atacó a una máquina IBM Serie 360 y fue llamado Creeper.
Ken Thompson y Dennis M. Ritchie crean el lenguaje de programación C en los Laboratorios Bell.
Nolan Bushnell y Ted Dabney fundan la
Atari.
Intel desarrolla y pone a la venta el procesador 8008.
El concepto de
región crítica fue sugerido por C. A. R. Hoare y Per Brinch Hansen.
1973
ARPA cambia su nombre por DARPA.
1974
Es creado el protocolo TCP por Vint Cerf y Robert Kahn.
Se crea el sistema
Ethernet para enlazar a través de un cable único a las computadoras de una red local (LAN).
Gary Kildall crea el sistema operativo CP/M, en base al cual se desarrolla posteriormente, de manera polémica, MS-DOS, suponiendo una violación a los derechos de autor (copyright) del CP/M.
1975
En enero la revista Popular Electronics hace el lanzamiento del Altair 8800, el primer microcomputador personal reconocible como tal.
Se funda la empresa
Microsoft.
1976
Se funda la empresa Apple.
1977
Se hace popular el ordenador Apple II, desarrollado por Steve Jobs y Steve Wozniak en un garaje.
1978
Se desarrolla el famoso procesador de textos WordStar, originalmente para plataforma CP/M (Control Program for Microcomputer).
1979
Dan Bricklin crea la primera hoja de cálculo, más tarde sería denominada VisiCalc.
Aparece el juego
Pacman creado por Toru Iwatani de la empresa Namco.
1980
Surge el primer prototipo de Computadora de Instrucción Reducida (RISC), desarrollado por un grupo de investigación en IBM.
La empresa
Mycron lanza la primera microcomputadora de 16 bits, llamada Mycron 2000.
Se desarrolla el primer microprocesador de 32-bit en un solo chip en
Laboratorios Bell, llamado Bellmac-32.
1981
Se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría una revolución en el campo de la computación personal y definiría nuevos estándares.
Se termina de definir el protocolo
TCP/IP.
Apple presenta el primer
computador personal que se vende a gran escala, el apple II.
Sony crea los disquetes de 3 1/2 pulgadas.
1982
La Asociación Internacional MIDI publica el MIDI.
Se funda
Compaq Computer Corporation, una compañía de computadoras personales, por Rod Canion, Jim Harris y Bill Murto.
1983

Logo de GNU
Microsoft ofrece la versión 1.0 del procesador de textos
Word para DOS.
Compaq (Compaq Computer Corporation) fabrica el primer clon PC IBM compatible, el Compaq portable.
ARPANET se separa de la red militar que la originó, de modo que, ya sin fines militares, se puede considerar esta fecha como el nacimiento de Internet.
Se anuncia públicamente el proyecto
GNU iniciado por Richard Stallman.
Aparece el
lenguaje de programación C++ diseñado por Bjarne Stroustrup.
Nace el primer
sistema operativo de Sun llamado SunOS.
Aparece el famoso
Lotus 1-2-3, un programa de hoja de cálculo realizado por la compañía Lotus Software.
El sistema
DNS consistía de 1000 hosts.
Se funda
Borland.
1984
IBM presenta el PC-AT, con procesador Intel 80286, bus de expansión de 16 bits y 6 Mhz de velocidad. Tenía hasta 512 KB de memoria RAM, un disco duro de 20 MB y un monitor monocromático. Su precio en ese momento era de 5.795 dólares.
Apple Computer presenta su Macintosh 128K con el sistema operativo
Mac OS, el cual introduce la interfaz gráfica ideada en Xerox.
Las compañías Philips y Sony crean los
CD-Roms para computadores.
Se desarrolla el
sistema de ventanas X bajo el nombre X1 para dotar de una interfaz gráfica a los sistemas Unix.
Aparece el lenguaje
LaTeX para procesamiento de documentos.
Hewlett-Packard lanza su popular impresora LaserJet.
1985
Microsoft presenta el sistema operativo Windows 1.0.
Compaq saca a la venta la Compaq Deskpro 286, una PC IBM Compatible de 16-bits con microprocesador Intel 80286 corriendo a 6 MHz y con 7MB de RAM, fue considerablemente más rápida que una PC IBM. Fue la primera de la línea de computadoras Compaq Deskpro.
Bertrand Meyer crea el lenguaje de programación Eiffel.
Adobe crea el PostScript.
El ruso
Alexey Pazhitnov crea el juego Tetris.
1986
ISO estandariza SGML, lenguaje en que posteriormente se basaría XML.
Compaq lanza el primer computador basado en el procesador de 32 bits Intel 80386, adelantándose a IBM.
El lenguaje
SQL es estandarizado por ANSI.
Aparece el programa de cálculo algebraico de computadora
MathCad.
Se registra la primera patente base de codificación de lo que hoy conocemos como
MP3.
Compaq pone en venta la PC compatible Compaq Portable II, mucho más ligera y pequeña que su predecesora, usaba microprocesador de 8 MHz y 10MB de disco duro, y fue 30% más barata que la IBM PC/AT con disco rígido.
1987
Se desarrolla la primera versión del actual protocolo X11.
Larry Wall crea el lenguaje de programación Perl.
El proyecto GNU crea el conjunto de compiladores llamado "
GNU Compiler Collection".
Compaq introdujo la primera PC basada en el nuevo microprocesador de Intel; el 80386 de 32 bits, con la Compaq Portable 386 y la Compaq Portable III. Aún IBM no estaba usando este procesador. Compaq marcaba lo que se conocería como la era de los clones de PC.
1988
Soft Warehouse desarrolla el programa de álgebra computacional llamado Derive.
Stephen Wolfram y su equipo sacan al mercado la primera versión del programa Mathematica.
Aparece el primer documento que describe lo que hoy se conoce como
firewalls.
Aparece el estándar
XMS.
1989
Creative Labs presenta la reconocida tarjeta de sonido Sound Blaster.
T. E. Anderson estudia las cuestiones sobre el rendimiento de las hebras o hilos en sistemas operativos (threads).
1990
Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (www) una nueva manera de interactuar con Internet. También creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL.
Se construye el primer prototipo de
procesador óptico en AT&T (Laboratorios de Bell).
Guido van Rossum crea el lenguaje de programación Python.
1991

Tux (Logo de Linux)
Linus Torvalds decidió escribir su propio núcleo de sistema operativo compatible con Unix, y lo llamó Linux.
Comienza a popularizarse la
programación orientada a objetos.
Surge la primera versión del estándar
Unicode.
Aparece la primera versión de
Adobe Premiere.
Compaq puso a la venta al por menor con la Compaq Presario, y fue uno de los primeros fabricantes en los mediados de los 90's en vender una PC de menos de $1,000. Compaq se convirtió en una de los primeros fabricantes en usar micros de AMD y Cyrix.
1992
Es indroducida la arquitectura de procesadores Alpha diseñada por DEC bajo el nombre AXP, como reemplazo para la serie de microcomputadores VAX que comúnmente utilizaban el sistema operativo VMS y que luego originaría el openVMS. El procesador Alpha 21064 de 64 bits y 200MHz es declarado como el más rápido del mundo.
Microsoft lanza
Windows 3.1.
Aparece la primera versión del
sistema operativo Solaris.
1993
Un grupo de investigadores descubrieron que un rasgo de la mecánica cuántica, llamado entrelazamiento, podía utilizarse para superar las limitaciones de la teoría del cuanto (quantum) aplicada a la construcción de computadoras cuánticas y a la teleportación (teleportation).
Microsoft lanza al mercado la primera versión del sistema operativo multiusuario de 32 bits (cliente-servidor) Windows NT.
Se crea la lista
TOP500 que recopila los 500 ordenadores más poderosos de la tierra.
1994
Marc Andreessen crea el famoso navegador web Netscape Navigator.
Es diseñado el
PHP, originalmente en lenguaje Perl, seguidos por la escritura de un grupo de CGI binarios escritos en el lenguaje C por el programador danés-canadiense Rasmus Lerdorf.
1995
Lanzamiento de Windows 95 por parte de Microsoft.
Aparece la primera versión de
MySQL.
Inicia el desarrollo del
servidor Apache.
La implementación original y de referencia del
compilador, la máquina virtual y las librerías de clases de Java fueron desarrollados por Sun Microsystems.
Se presenta públicamente el
lenguaje de programación Ruby.
Se especifica la versión 1.5 del
DVD, base actual del DVD.
1996
Se crea Internet2, más veloz que la Internet original.
Se publica la primera versión del navegador web
Opera.
Se inicia el proyecto
KDE.
La tecnología de
DjVu fue originalmente desarrollada en los laboratorios de AT&T.
Aparece la primera versión de
SuperCollider.
Sabeer Bhatia y Jack Smith fundan
HotMail.
1997
Es creado reproductor multimedia Winamp, cuya distribución es realizada gratuitamente por la empresa estadounidense Nullsoft.
Aparece la primera versión pública de
FlightGear.
Spencer Kimball y Peter Mattis crean la inicial librería GTK+.
1998
La W3C publica la primer versión de XML.
Es lanzado al mercado el sistema
Windows 98 por parte de Microsoft.
Compaq adquirió Digital Equipment Corporation, la compañía líder en la anterior generación de las computadoras durante los años 70 y principios de los 80. Esta adquisición convertiría a Compaq en el segundo más grande fabricante de computadoras, en términos de ingresos.
1999

GNOME
Aparece el entorno de escritorio
GNOME.
Se publica la primera versión de
MSN Messenger.
Surge
Mac OS 9.
2000
Es presentado el prototipo de computador cuántico construido por un equipo de investigadores de IBM.
Es lanzado el sistema operativo
Windows 2000 por Microsoft.
Es lanzado el sistema operativo
Windows Me por Microsoft.
Lanzamiento de
Mac OS X.
2001
Microsoft desarrolla como parte de su plataforma .NET el lenguaje de programación C#, que después fue aprobado como un estándar por la ECMA e ISO.

Siglo XXI [editar]
Lanzamiento de
Windows XP.
2002
Lanzamiento del navegador web Mozilla Firefox, llamado primeramente Phoenix.
Puesta en marcha del supercomputador
Earth Simulator que sería el ordenador más potenteLinux por parte de la empresa sudafricana Canonical.
2005
Los usuarios de Internet con conexión de banda ancha superan a los usuarios de internet con conexión vía módem en la mayoría de países desarrollados.
El programa
Google Earth es lanzado.
Puesta en funcionamiento del supercomputador
MareNostrum en el BSC.
2006
Lanzamiento de Windows Vista
Sony lanza el
Playstation 3.
Nintendo lanza el
Wii.
Entra en servicio el supercomputador
Magerit perteneciente al CeSViMa.
Microsoft lanza la nueva generación de Xbox llamada
Xbox 360
2007
La empresa Dell lanza al mercado la primera computadora portátil (laptop) con el sistema operativo Ubuntu Linux preinstalado.
La empresa de
Steve Jobs, Apple, lanza al mercado la nueva versión el Mac OS X Leopard 10.5
2008
Apple lanza al mercado la MacBook Air la cual al parecer es la laptop más delgada del mundo.
Apple lanza el móvil más revolucionario de la historia el
iPhone 3G en toda Europa y América
Google, contrarresta a Apple lanzando el G1 con su nuevo sistema
Android para moviles
Lanzamiento de
KDE 4.0.
El supercomputador
Roadrunner es el primero en superar el PetaFLOP alcanzando el número 1 en la lista TOP500.
Sony lanza
PSP 300
2009
Debian GNU/Linux 5.0 para el 14 de Febrero
KDE 4.2 RC