La informática, también llamada computación, es el área de la ciencia que se encarga de estudiar la administración de métodos, técnicas y procesos con el fin de almacenar, procesar y transmitir información y datos en formato digital. La informática abarca desde disciplinas teóricas (como algoritmos, teoría de la computación y teoría de la información) hasta disciplinas prácticas (incluido el diseño y la implementación de hardware y software). La informática generalmente se considera un área de investigación académica y distinta de la programación informática.
El término informática también es sinónimo de contar y calcular. En sus inicios, se utilizaba para referirse a la acción realizada por máquinas mecánicas de computación y, antes de eso, a calculadoras humanas.
Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas básicas: entrada (input, captación de la información), procesamiento y salida (transmisión de los resultados).
No existe una definición consensuada sobre el término. Sin embargo, la Asociación de Docentes de Informática y Computación de la República Argentina ha tomado una posición, definiéndola de la siguiente manera: «La informática es la disciplina o campo de estudio que abarca el conjunto de conocimientos, métodos y técnicas referentes al tratamiento automático de la información, junto con sus teorías y aplicaciones prácticas, con el fin de almacenar, procesar y transmitir datos e información en formato digital utilizando sistemas computacionales. Los datos son la materia prima para que, mediante su proceso, se obtenga como resultado información. Para ello, la informática crea y/o emplea sistemas de procesamiento de datos, que incluyen medios físicos (hardware) en interacción con medios lógicos (software) y las personas que los programan y/o los usan (humanware)».
La familia de computadores Apple II, presentada el 16 de abril de 1977 por Steve Jobs y Steve Wozniak en la primera feria informática de la costa oeste norteamericana en San Francisco, fue la primera serie de microcomputadoras de producción masiva hecha por la empresa Apple Computer entre el 10 de junio de 1977 y mediados de los años 1980. El Apple II tenía una arquitectura de 8 bits basada en el procesador 6502. Era completamente diferente de los posteriores modelos Macintosh de Apple.
Su antecesor fue el Apple I, una máquina construida a mano y vendida a los aficionados. Nunca fue producido en gran cantidad, pero inició muchas de las características que harían del Apple II un éxito. El Apple II fue el primer microcomputador producido a gran escala. Fue popular entre los usuarios en casa, y fue ocasionalmente vendida también a gente de negocios. Después del lanzamiento de VisiCalc, la primera hoja de cálculo para computadora, las ventas del Apple II se dispararon. (Leer más...)
A principios de los años 1980, La BBC comenzó lo que se ha sido conocido como el BBC Computer Literacy Project (Proyecto de Alfabetización Informática de la BBC). El proyecto fue iniciado en gran parte en respuesta a un extremadamente influyente documental de la ITV, The Mighty Micro (El Extraordinario Micro), en el cual, el Dr. Christopher Evans, del National Physical Laboratory, predijo la llegada de la revolución del (micro) computador y su impacto en la economía, la industria y la forma de vida del Reino Unido. (Leer más...)
Image 3
Amstrad CPC (acrónimo del inglésColour Personal Computer) fue una serie de ordenadores personales de 8 bits producidos por Amstrad durante la década de 1980 y a principios de la década de 1990. Las siglas CPC anunciaban un ordenador personal en color, aunque era posible comprar un CPC tanto con pantalla de fósforo verde (GT65/66) como con pantalla estándar en color (CTM640/644), además de poderse adquirir por separado un accesorio modulador (MP-1/MP-2) para conectarlo a un televisor convencional.
La primera máquina, el CPC 464, se presentó oficialmente y se comercializó a gran escala a partir del 21 de junio de 1984. Se diseñó como competidor directo del Commodore 64 y del Sinclair ZX Spectrum. La gama CPC tuvo mucho éxito. Se vendieron más de 2 millones de equipos durante la vida útil de la máquina. (Leer más...)
Image 4
Una pascalina conservada en el Museo de Artes y Oficios de París. La pascalina fue la primera calculadora, que funcionaba a base de ruedas y engranajes, inventada en 1642 por el filósofo y matemático francés Blaise Pascal (1623-1662). El primer nombre que le dio a su invención fue «máquina de aritmética». Luego la llamó «rueda pascalina», y finalmente «pascalina». Este invento es el antepasado remoto de la actual computadora.
En 1642, a los 19 años, Pascal concibió la idea de la pascalina con el fin de facilitar la tarea de su padre, que acababa de ser nombrado superintendente de la Alta Normandía por el cardenal Richelieu, y que debía restaurar el orden de los ingresos fiscales de esta provincia. (Leer más...)
Image 5
El Atanasoff Berry Computer (ABC) fue la primera computadora electrónica y digital automática que se usó con números y letras (aunque ahora se atribuye esto a la Z1 de Konrad Zuse finalizada en 1938). Fue construido por el Dr. John Vincent Atanasoff con la ayuda de Clifford Edward Berry entre 1937 y 1942 en la 'Iowa State University', que entonces recibía el nombre de 'Iowa State College'. (Leer más...)
El analizador diferencial (en inglés, Differential analyser) fue un computador analógico mecánico diseñado para solucionar ecuaciones diferenciales por integración, usando mecanismos de ruedas y discos para realizar la integración. Fue uno de los primeros dispositivos de computación avanzados en usarse operacionalmente.
Es un dispositivo de naturaleza mecánica para calcular e imprimir tablas de funciones. Más concretamente, calcula el valor numérico de una función polinómica sobre una progresión aritmética obteniendo una tabla de valores que se aproxima a la función real (basado en que cualquier función puede ser aproximada por polinomios). (Leer más...)
Image 8
Computadora EDVAC. La EDVAC (en inglés: Electronic Discrete Variable Automatic Calculator, «Calculador Discreto Electrónico Automático Variable») fue una de las primeras computadoras electrónicas. A diferencia de la ENIAC, no era decimal, sino binaria, y tuvo el primer programa diseñado para ser almacenado. Este diseño se convirtió en estándar de arquitectura para la mayoría de las computadoras modernas. El diseño de la EDVAC es considerado un éxito en la historia de la informática.
El diseño de la EDVAC fue desarrollado aun antes de que la ENIAC fuera puesta en marcha y tenía la intención de resolver muchos de los problemas encontrados en el diseño de la ENIAC. Así como la ENIAC, la EDVAC fue construida en la escuela Moore de Ingeniería eléctrica de la Universidad de Pensilvania para el laboratorio de investigación balística del Ejercito de los Estados Unidos. A los diseñadores de la ENIAC, J. Presper Eckert y John William Mauchly se les unió el matemático John von Neumann, quien reflexionó sobre el los desarrollos de diseño del EDVAC en un informe borrador de 1945 First Draft of a Report on the EDVAC que hoy conocemos como arquitectura von Neumann. Se firmó el contrato para construirla en abril de 1946 con un presupuesto inicial de 100 000 USD. (Leer más...)
Una memoria de línea de retardo es un dispositivo capaz de almacenar datos aprovechando el tiempo que necesita una señal para propagarse por un medio físico. Un ejemplo típico son las memorias de línea de retardo de mercurio. Estas están constituidas por un tubo relleno de mercurio con un transductor, habitualmente piezoeléctrico, en cada extremo.
Se suele utilizar mercurio porque su impedancia acústica es prácticamente la misma que la de los transductores piezoeléctricos de cuarzo, lo que reduce las pérdidas de energía y las reflexiones al convertir la señal de eléctrica a acústica y viceversa. Por el contrario, la elevada velocidad del sonido en él (1450 m/s) hace que la capacidad de un dispositivo sea menor que si se utilizase aire. A esto hay que sumarle su elevado precio y su toxicidad. Por último, para conseguir la máxima adaptación de impedancias es necesario mantenerlo a una temperatura de 40 °C, con el consiguiente gasto extra de energía. (Leer más...)
PDP-11/40PDP-11 fue una computadora fabricada por la empresa Digital Equipment Corp. en las décadas de 1970 y 1980, perteneciente a la serie PDP. Fue la primera minicomputadora en interconectar todos los elementos del sistema — procesador, memoria y periférico — a un único bus de comunicación, bidireccional, asíncrono. Este dispositivo, llamado UNIBUS permitía a los dispositivos enviar, recibir o intercambiar datos sin necesidad de dar un paso intermedio por la memoria. La PDP-11 fue una de las series de minicomputadoras más vendidas en su época y fue una de las primeras computadoras en las que corrió el sistema Unix, desarrollado en los Laboratorios Bell.
Fue evolucionando con la tecnología, pasando de tener la CPU hecha con circuitos TTLMSI a utilizar microprocesadores, como el LSI-11. Las últimas versiones, PDP-11/73 en adelante, incorporaban el J-11, con los registros duplicados, tres pilas (stack) (Usuario, Kernel y Supervisor), memoria virtual (22 bits), caché y espacios separados para instrucciones y datos. Era un chip muy ambicioso pero que nunca llegó a cumplir las expectativas, debido a discusiones y enfrentamientos entre DEC y Harris, fabricante de los chips. (Leer más...)
Image 12
Terminal Datapoint 2200. El Datapoint 2200 fue un terminal programable lanzado por Computer Terminal Corporation (CTC) en junio de 1970. (algunos dicen que fue lanzado en algún momento de 1971). Proyectado simplemente para ser un terminal versátil y económico para conectarse con una amplia variedad de mainframes al cargar varias emulaciones de terminal desde cinta, en lugar de, como eran la mayoría de los terminales de la época, que no eran programables y no se podía modificar su comportamiento (hardwired), los usuarios repentinamente se dieron cuenta de que estos terminales programables también podrían hacer otras tareas. (El primero de ellos fue Pillsbury Foods). Así, el CTC inadvertidamente inventó lo que es ahora generalmente aceptado como el primer computador personal. Igualmente significativo es que el CPU del terminal fue el embrión de la arquitectura del conjunto de instrucciones del x86. (Leer más...)
Image 13
Commodore Amiga 500, 16-bits (1987) El Commodore Amiga fue un ordenador personal comercializado por Commodore International entre 1985 y 1994. Lo diseñaron Jay Glenn Miner y un reducido equipo de ingenieros pertenecientes a la empresa "Amiga corporation" (fundada como "Hi-Toro") en Santa Clara (California). Su módico precio de entrada y sus capacidades multimedia, mucho más avanzadas que los compatibles PC y Macintosh de la época, le confirió mayor popularidad entre los amantes de los videojuegos. Su sistema operativo tiene una particularidad excepcional para la informática de la época, consistente en ser el primer ordenador multitarea y multimedia orientado al gran público. (Leer más...)
Image 14
vista frontal. El Acorn Electron fue un ordenador doméstico diseñado y comercializado por Acorn Computers en 1983 como una versión barata de su BBC Micro (también conocido como Acorn Proton), pues el alto precio de estos es el principal problema para su expansión.
Se utilizaron chips compatibles más económicos, se eliminó el coprocesador gráfico y se integró todo el soporte (memoria, gráficos, sonido...) en una ULA (lo que provocó numerosas incompatibilidades en los juegos del BBC), el segundo procesador, los sockets ROMs... dejando todo en manos de expansiones exteriores. (Leer más...)
Image 15
Los Commodore PET (Personal Electronic Transactor: en castellano Transactor electrónico personal) y CBM fueron líneas de ordenadores domésticos producidas por Commodore International a partir de 1977. Con buenas ventas en los mercados educativos de Canadá, Estados Unidos e Inglaterra, fue la primera computadora completamente equipada de Commodore y la que posteriormente formó la base de su línea de productos de 8 bits, incluyendo al Commodore 64. El primer modelo, denominado PET 2001, fue la primera computadora personal disponible para el consumidor final. (Leer más...)
Su último arresto se produjo el 15 de febrero de 1995, tras ser acusado de entrar en algunos de los ordenadores más seguros de los Estados Unidos. Ya había sido procesado en 1981, 1983 y 1987 por diversos delitos electrónicos. (Leer más...)
Robert Elliot Kahn (Nueva York, 23 de diciembre de 1938) es un informático estadounidense. Es considerado el padre de Internet, junto a Vinton Cerf (n. 1943), con quién inventó el protocolo TCP/IP (protocolo de control de transmisión/protocolo de internet), tecnología fundamental usada para transmitir la información en la internet. (Leer más...)
En 1975, Wozniak comenzó a desarrollar la primera computadora de Apple, el Apple I que se convirtió en la primera computadora lanzada por Apple cuando él y Jobs comenzaron a comercializarla el año siguiente. Diseñó la Apple II inicialmente en 1977, conocida como una de las primeras microcomputadoras de gran éxito producidas en masa mientras Jobs supervisaba el desarrollo de su caja de plástico moldeado en espuma y el primer empleado de Apple, Rod Holt, desarrollaba la fuente de alimentación de conmutación. Con el ingeniero de software Jef Raskin, Wozniak tuvo una gran influencia en el desarrollo inicial de los conceptos originales de Apple Macintosh de 1979 a 1981, cuando Jobs se hizo cargo del proyecto tras la breve salida de Wozniak de la empresa debido a un traumático accidente de avión. Después de dejar Apple permanentemente en 1985, Wozniak fundó el CL 9 y creó el primer control remoto universal programable, lanzado en 1987. Luego siguió varios otros negocios y empresas filantrópicas a lo largo de su carrera, centrándose principalmente en la tecnología en las escuelas de K-12. (Leer más...)
Image 7
John McCarthy (Boston, Massachusetts, 4 de septiembre de 1927-Stanford, California, 24 de octubre de 2011), fue un informático estadounidense que recibió el Premio Turing en 1971 por sus importantes contribuciones en el campo de la inteligencia artificial. Fue el responsable de introducir el término inteligencia artificial, concepto que acuñó en la Conferencia de Dartmouth en 1956. También se le atribuye el concepto de cloud computing. (Leer más...)
Popularizó la idea de los lenguajes de programación independientes de la máquina, lo que derivó en el desarrollo de COBOL, un lenguaje de alto nivel de programación que aún se utiliza. Era conocida por sus amistades como Amazing Grace. (Leer más...)
En el campo de la inteligencia artificial, es conocido sobre todo por la concepción de la prueba de Turing (1950), un criterio según el cual puede juzgarse la inteligencia de una máquina si sus respuestas en la prueba son indistinguibles de las de un ser humano. (Leer más...)
Image 12
Frederick Phillips Brooks, Jr. (Durham, 19 de abril de 1931-17 de noviembre de 2022) fue un ingeniero de software y científico de la computación, más conocido por dirigir el desarrollo del sistema operativoOS/360, y después escribir honestamente sobre el proceso en su famoso libro The Mythical Man-Month (El mítico hombre-mes). «Es una experiencia humillante el cometer un error de coste multimillonario, pero es también muy memorable». Brooks recibió el Premio Turing en 1999 «por sus contribuciones a arquitectura de computadores, sistemas operativos e ingeniería del software».
Fundó Apple en 1976 junto con un amigo de la adolescencia, Steve Wozniak, con ayuda del excompañero de Jobs en Atari, Ronald Wayne. Aupado por el éxito del Apple II, Jobs obtuvo una gran relevancia pública, siendo portada de Time en 1982. Contaba con 27 años y ya era millonario gracias a la exitosa salida a bolsa de la compañía a finales del año anterior. La década de los 80 supuso la entrada de potentes competidores en el mercado de los ordenadores personales, lo que originó las primeras dificultades empresariales. (Leer más...)
... un programador de software puede, con el paso del tiempo, adquirir experiencia a tal punto que en sólo cuestión de días (u horas) puede aprender un nuevo lenguaje de programación?
... los tan liados segmentos en las direcciones de memoria tuvieron origen debido a que Intel quería superar la barrera de 16 bits en los procesadores para convertirlos en 20 bits (los offsets eran de 4 bits)?
... todo elemento gráfico del sistema Windows es una ventana (de ahí el nombre), tales como los botones de comandos, cuadros de lista, etc?
... la CPU es un componente del sistema (el microprocesador), y no la caja negra (gabinete) como muchos lo conocen?
... los grupos de usuarios Linux acostumbran realizar un evento llamado installfest en el que hacen instalaciones masivas de Linux de forma gratuita a los ordenadores (computadoras) de los visitantes?
... IBM fue acusada de vender máquinas tabuladoras a los nazis?
... cuando IBM lanzó el IBM PC utilizó componentes estándares porque nunca pretendió que alcanzara el éxito, y gracias a ello hoy cualquier fabricante puede hacer PCs?
... lo que antes fue una parte esencial del sistema operativo MS-DOS de Microsoft (el intérprete de comandos) ahora no es más que una utilidad en el moderno Windows?
... Linux debe su nombre a la combinación del nombre de Linus Torvalds (su fundador) y a Unix, el sistema operativo en el que se basó?
... Tux (la mascota de Linux) adquirió su nombre del acrónimo de Torvalds UniX?
... UNIVAC I, la primera computadora u ordenador comercial de la historia, pesaba 13 toneladas?
... el primer ordenador de Linus Torvalds fue un Sinclair QL?
... los juegos propician la creatividad y la interacción y pueden desempeñar un importante papel en el desarrollo social e intelectual?
... los juegos pueden contribuir a introducir en las tecnologías a quienes no tienen conocimientos previos y a fomentar el interés por las TIC (tecnologías de la información y la comunicación)?
... como los juegos exigen a los niños que obedezcan normas y sigan indicaciones, pueden potenciar su capacidad de autodisciplina y autonomía?
... los rompecabezas, los juegos de mesa, los de aventuras y los de búsqueda brindan oportunidades a los jugadores para desarrollar una mente estratégica y capacidades para resolver problemas?
... los juegos pueden integrarse en prácticamente cualquier área de un plan de estudios, desde las matemáticas a las ciencias sociales y los idiomas?
... la potencia de una tarjeta gráfica no se mide con su capacidad de memoria como nos quieren hacer creer las "inútiles y agresivas" campañas de mercadotecnia?
... la IEC, ISO y la IEEE usan los prefijos del Sistema internacional de unidades como múltiplos de 1000 («1000 Kilobytes = 1 Megabyte»), mientras que JEDEC aún usa los clásicos múltiplos binarios de 1024 («1024 Kilobytes = 1 Megabyte»)?
Software
El Software, o soporte lógico son todos los componentes intangibles de una computadora, es decir, el conjunto de programas y procedimientos necesarios para hacer posible la realización de una tarea específica.
Tecnología Tecnología es una palabra compuesta formada por dos raíces griegas, tekhne (τεχνη 'arte, técnica u oficio') y logos (λογος 'palabra, discusión, razonamiento'); por tanto, tecnología es el estudio o ciencia de los oficios.