jueves, 30 de abril de 2015

Tecnologías para el tratamiento y gestión de la imagen electrónica

Los sistemas gráficos permiten la construcción, almacenamiento y manipulación de imágenes. La forma en la que se pueda trabajar con las imágenes en el ordenador dependerá directamente de los mecanismos de los que éste disponga para definir el dibujo y mostrar imágenes del mismo.
Sea cual sea el papel que desempeñe el ordenador en la creación de imágenes, el tipo de interacción que indicará al ordenador cómo crear las imágenes puede ser de dos tipos:

  • Descripción de la propia apariencia de la imagen. Sistemas de Pintura Digital. 
  • Transferir al ordenador parte de la idea inicial del dibujo que posteriormente dará lugar a la generación de las imágenes. Sistemas Basados en Modelos.
Sistemas de Pintura Digital

Los sistemas de pintura digital son el resultado de la integración de dos componentes: una serie de dispositivos físicos con unas características específicas que permiten soportar de forma eficiente el tratamiento de gráficos y facilitan la interacción con el usuario, y una serie de aplicaciones que controlan todos estos dispositivos y aportan una cierta funcionalidad y facilidad de uso para la construcción de imágenes.

Aunque los sistemas de pintura digital varían en cuanto a modo de uso y posibilidades, en general, todos ellos permitirán construir dibujos de una forma parecida.

La funcionalidad básica de los sistemas de pintura deberá permitir elaborar de forma interactiva un dibujo partiendo de cero. Dependiendo del programa de pintura que controle el sistema gráfico, y de las operaciones y modos de trabajo adicional que ofrezca este programa, el proceso de pintura será más o menos eficiente y la potencialidad del sistema será mayor o menor.

La interfaz de todos los programas de pintura es similar. Invariablemente en la pantalla aparecerá una zona relativamente grande, que será el área de dibujo, donde se muestra la imagen que estamos construyendo. Alrededor de esta zona aparecerán áreas más pequeñas a través de las cuales se seleccionan opciones o se muestra información del programa. Normalmente desde la zona superior de la pantalla, y mediante selecciones llevadas a cabo con ayuda del puntero, aparecerán menús desplegables con las opciones principales del programa, que en muchos casos darán acceso a opciones de detalle mediante el despliegue de menús en cascada.

Sistemas Basados en Modelos

Los sistemas que utilizan modelos para representar el dibujo funcionan de una forma completamente diferente a la que tradicionalmente se sigue para crear imágenes. Al crear un dibujo mediante modelos el primer paso es definir mediante la herramienta que estemos utilizando (programas de CAD, modelado 3D, ilustración) la idea de la que partimos para producir la imagen. Transferir esa idea al ordenador utilizando un programa no es inmediato. Primero necesitamos conocer el lenguaje con el que, después, podremos comunicar al ordenador la idea de partida. Cada programa dispone de un conjunto de elementos y una forma de relacionar y visualizar esos elementos que es lo que define el lenguaje a utilizar. Los elementos de partida, sus características y la forma de relacionarlos para producir el modelo pueden ser tan diferentes entre programas que conocer el lenguaje propio de cada aplicación necesita de un aprendizaje específico, con unas posibilidades y métodos de trabajo propios.
El conjunto de elementos de los que se dispone para construir el modelo es lo que se conoce como primitivas. Las primitivas pueden ser formas bidimensionales sencillas, como el círculo, cuadrado, polilínea, etc...., complejas como el texto o tridimensionales en el caso de modelado en 3D. Para crear el modelo se añaden primitivas, dándole valores a los parámetros que la configuran: centro y radio del círculo, vértices del rectángulo, etc.
Las primitivas se ordenan en el espacio de trabajo y constituyen el modelo geométrico del dibujo. Este modelo se define mediante un conjunto de datos numéricos, que hacen referencias a coordenadas en el espacio y a los valores de los parámetros ajustables de la primitiva, y que producen como resultado un esqueleto de los que será el modelo completo. Para dar forma a ese esqueleto se definen relaciones entre las primitivas. Relaciones tan sencillas como el orden en que se colocan sobre el plano, o más complejas, como restricciones en la posición de una primitiva en función de otra, por ejemplo el triángulo tiene que apoyarse sobre el lado superior del rectángulo.

Pero este esqueleto definido por las primitivas debe de contener más información para soportar un modelo completo del dibujo y poder así generar imágenes del mismo. Esta información adicional va a determinar cómo se pinta cada primitiva: qué color tiene el trazo, qué grosor, si una forma se dibuja rellena o hueca, etc. Esta información se conoce como atributos y determinan el comportamiento visual de las primitivas.

Una vez definido el modelo, con su información geométrica y sus atributos de visualización, es posible obtener de forma automática imágenes a partir del mismo. A partir de modelos bidimensionales el proceso de visualización es relativamente sencillo y predecible: las formas se dibujan sobre el plano. Más complejo, y menos predecible, es el resultado de la visualización a partir de modelos tridimensionales, donde es necesario resolver un modelo de iluminación para producir matices, sombras y reflejos similares a los reales o no, y producir una proyección, perspectiva o no, para obtener una imagen sobre un plano bidimensional del modelo tridimensional.
En cualquier caso, y esto es lo característico de los sistemas basados en modelos, la imagen se obtiene de forma automática por el ordenador, a partir de una definición del modelo que es independiente de las características del dispositivo sobre el que se muestre la imagen sintetizada. Desde el mismo modelo podemos obtener una imagen de baja resolución para colocar en la web, o de muy alta resolución para imprimir en un póster.

Este proceso de trabajo, la facilidad para modificar el modelo, obtener una imagen, evaluar y reajustar el modelo, está muy adaptado al proceso tradicional de diseño, y por esto los programas de diseño asistido por ordenador (CAD y de ilustración vectorial) se utilizan desde hace mucho y de forma muy intensiva en el diseño.

Los ficheros que soportan la definición del modelo no suelen ser muy grandes, pero para obtener imágenes desde ese modelo es necesario primero procesarlo y esto puede ser costoso y necesitará de un programa específico.

La ventaja es que las imágenes que se obtengan serán de la calidad que cada usuario haya seleccionado para su sistema: algunos sistemas obtendrán versiones de 800 x 600 píxeles con 256 colores, otros de 1280 x 1024 píxeles a todo color y otros de la calidad necesaria para imprimir a alta resolución.

Muestreo

Se realiza un muestreo de la imagen cuando las dimensiones de los píxeles se pretenden modificar. Es posible cambiar el tamaño del documento o la resolución sin que afecte a las dimensiones de los píxeles. El muestreo se produce cuando las dimensiones de los píxeles de la captura original o escaneo no coinciden exactamente con los requisitos del documento (tamaño y resolución). El submuestreo disminuye el número de píxeles, provocando la supresión de información de la imagen. Para aumentar el número total de píxeles o cambiar el remuestreo se añaden nuevos píxeles al archivo. Los nuevos píxeles utilizan información basada en los valores de color de los píxeles existentes en el archivo de imagen.

Un remuestreo excesivo puede deteriorar la calidad de la imagen (la imagen comenzará a aparecer borrosa). Si es posible, evite realizar remuestreos para agrandar el tamaño del archivo, capturando a una resolución lo suficientemente alta o limitando el tamaño del documento de salida. Si tiene que realizar un remuestreo por cuestiones de limitación de su dispositivo de captura (no existen suficientes megapíxeles), puede utilizar los archivos que se hayan capturado desde una cámara digital con configuración ISO baja y que no haya sido ajustada. 

Digitalización

Las imágenes digitales están formadas por una matriz rectangular de píxeles, distribuidos de forma regular en filas y columnas. Los dispositivos de captura de imágenes externas permiten crear una imagen digital a partir de una imagen analógica muestreándola para obtener la información necesaria para aproximarla mediante un conjunto de píxeles.

Como resultado de la digitalización la imagen original se aproxima a una colección de píxeles, y cada uno representa, de forma cuantizada, la información de color que el original tiene en la zona correspondiente. Esta doble aproximación que se hace de la imagen (muestreo y cuantización) se puede ajustar dependiendo de la calidad que necesitemos mantener en la imagen digitalizada: el número de muestras-píxeles leídos puede ser mayor o menor y la información sobre color-niveles de cada píxel puede ser más o menos precisa.
Esta doble aproximación, que se producirá siempre al digitalizar, hace que las imágenes digitalizadas aparezcan normalmente con un ligero desenfoque: la lectura de la imagen analógica que se hace promediando zonas discretas que se aproximan por un valor discreto de un determinado color, cuando la zona a leer está en el contorno de una figura el color del píxel correspondiente será mezcla de los colores de la figura y del fondo, con lo cual se suaviza el contorno de la figura en la imagen final digitalizada.

Existen distintos dispositivos que permiten al ordenador capturar imágenes externas. La mayoría de ellos mediante un sensor convierten la luz reflejada por el original en valores digitales RGB. Dependiendo de su diseño y calidad cada dispositivo ofrecerá un tipo de prestaciones. 

Concepto de resolución


La resolución de imágenes en pantalla

Si la proporción de zoom es 100%, cada píxel de imagen ocupa un solo píxel de pantalla. La proporción de zoom y la salida por la impresora no están relacionadas. Por lo tanto lo único que cuenta es la vista 100%.

Resolución gráfica

La resolución es el número de píxeles por pulgada lineal en la imagen impresa final. El término tamaño de imagen describe las dimensiones físicas de una imagen. Decimos lineal porque los píxeles se miden en línea recta. Si la resolución de una imagen es 72 ppp (esto es píxel por pulgada (2,54cm.)), se obtienen 5184 píxeles por pulgada cuadrada (72 píxel de nacho x 72 píxel de alto = 5184). Asumiendo que el número de píxeles de una imagen es fijo, al aumentar el tamaño de una imagen se reduce su resolución y viceversa. Una imagen que se ve bien al imprimirla en un sello de correos, probablemente se verá dentada si se imprime en un póster de 100 x 70 cm.

Cuando se imprime una imagen, una resolución mayor se convierte en una imagen más nítida y con mayor claridad.

Después de todas estas explicaciones de píxeles y resolución, tal vez esté pensando ¿cuál es la conclusión? ¿Qué resolución debo usar? La respuesta parecerá frustrante: cualquier resolución que quiera. Es cierto, no hay resoluciones correctas o incorrectas.
  • La mayoría de los expertos recomiendan utilizar en RESOLUCIÓN un valor entre el 150 % y el 200 % de la frecuencia de trama del dispositivo de salida final. La frecuencia de trama es el número de puntos de semitono por pulgada lineal, medida en lpi (abreviatura de líneas por pulgada). Pregunte en su tienda de impresión que frecuencia de trama utilizan (generalmente está entre 120 lpi y 150 lpi) y multiplique eso por 1,5 ó 2.
  • Para impresiones fotográficas de última línea, es difícil equivocarse con el valor de RESOLUCIÓN estándar de 276 ppi. Eso es alrededor del 200 % de 133 lpi, quizá la frecuencia de trama más popular. Cuando hay dudas, la mayoría de los profesionales se inclinan por 267 ppp.

Si va a imprimir en una impresora casera o en una pequeña oficina, las reglas cambian ligeramente. Fabricantes distintos recomiendan resoluciones óptimas diferentes para sus modelos, pero la media está entre 250 y 300 ppp. Y no olvide que la calidad del papel puede ser la culpable de una falta de píxeles o una impresión defectuosa.

Resolución cromática

Además de especificar el modo de color, el software de edición de imágenes nos permite especificar la profundidad de bits de la imagen que vamos a editar. La profundidad de bits determina la cantidad de información de color disponible para cada píxel individual de la imagen. Si se elige 1 bit, la imagen queda limitada a píxeles blancos y negros. La opción que se utiliza más frecuentemente es 8 bits, que es un buen estándar para la mayoría de las imágenes en color.

Si se selecciona 16 bits, la imagen tiene disponibles un número de colores mucho mayor, proporcionando una representación de color más fiel y controles de color más precisos. Pero la opción 16 bits también aumenta mucho el tamaño el archivo y limita nuestras capacidades de edición.

Desde un punto de vista avanzado podemos determinar el Perfil de Color en el que vivirá nuestra nueva imagen. En esencia, el perfil de color de una imagen proporciona la información necesaria para tener una idea de cómo debe mostrarse o imprimirse una imagen según las circunstancias en las que creó la imagen. 

La imagen digital

Uno de los componentes esenciales de cualquier diseño es la imagen. El soporte digital permite el uso intensivo del color y la imagen, de una forma que no había sido posible plantear en la publicación tradicional por los altos coste que suponía. El ordenador permite mostrar y tratar imágenes a todo color de forma relativa-mente sencilla. Pero, en ningún otro soporte ha encontrado el diseñador tantas limitaciones y dificultades a la hora de introducir elementos gráficos como de hecho sucede en la publicación electrónica especialmente en la Web.

Existen limitaciones muy variables en las prestaciones de los distintos equipos que se utilizan para mostrar los diferentes tipos de publicaciones electrónicas y Web, cada navegador aplica de forma distinta determinados mecanismos para visualizar la imagen en la pantalla y, por si esto fuera poco, las líneas de transmisión de datos en internet dejan mucho que desear en cuanto a velocidad, condicionando los tamaños de los ficheros que contienen las imágenes.

Todo esto hace que sea necesario dedicar atención a los aspectos específicos que van a condicionar las posibilidades de creación, corrección y uso de la imagen dentro de las páginas web.

Imagen digital y analógica, análisis comparativo

Ventajas del sistema digital:

  • Se obtiene una visualización inmediata de los resultados, por ejemplo a través de la pantalla de un monitor.
  • No hay costes de película ni de procesos químicos de laboratorio.
  • Se pueden eliminar las imágenes sobrantes y reutilizar el espacio del disco. 
  • Se puede ajustar la sensibilidad al color, adaptándola a la temperatura de color de la luz que se utilice.
  • Las imágenes archivadas digitalmente se pueden transmitir rápidamente por Red.
  • Las imágenes se pueden introducir directamente en el ordenador para, por ejemplo, realizar catálogos y composiciones.
  • Es posible modificar y mejorar la calidad de las imágenes después de haberlas obtenido.
  • Las operaciones son muy silenciosas.
Desventajas del sistema digital:
  • Coste mucho más elevado del equipo, que incluye un respaldo con una gran cantidad de memoria RAM, necesaria para obtener imágenes de alta resolución, pero sobre todo para manejarlas y retocarlas. A menos que dispongamos de un ordenador potente, el tratamiento de las imágenes es muy lento.
  • Las imágenes que se obtienen con película convencional ofrecen una excelente calidad de resolución a un coste relativamente bajo (aproximadamente, el equivalente de unos 20 millones de píxeles por cm2 de emulsión). Incluso las copias que se obtienen a partir de un negativo resultan más baratas que el proceso digital.
  • La calidad de imagen está en función del número de píxeles por pulgada (ppi o ppp) que sea capaz de almacenar la cámara. Así que si queremos conseguir una ampliación grande necesitaremos una cámara que pueda capturar la imagen a alta resolución.
  • Los sistemas de alta resolución, que capturan la imagen en tres disparos consecutivos, o mediante un escáner, están únicamente indicados para fotografía de sujetos estáticos. Las cámaras con sensores CCD se ven afectadas por el calor (por ejemplo el de las lámparas de tungsteno).
Las cámaras digitales y la tecnología digital en general se desarrollan a gran velocidad y los costes se reducen también a gran velocidad. No se descartan cambios de sistemas y procedimientos vigentes hoy, la carrera digital no hace más que cobrar impulso día a día. 

Herramientas de un mundo globalizado

Las tecnologías Web sirven para acceder a los recursos de conocimiento disponibles en Internet o en las intranets utilizando un navegador. Están muy extendidas por muchas razones: facilitan el desarrollo de sistemas de Gestión del Conocimiento (en adelante GC), su flexibilidad en términos de escalabilidad, es decir, a la hora de expandir el sistema; su sencillez de uso y que imitan la forma de relacionarse de las personas, al poner a disposición de todos el conocimiento de los demás, por encima de jerarquías, barreras formales u otras cuestiones. Estas tecnologías pueden llegar a proporcionar recursos estratégicos, pero, evidentemente, no por la tecnología en sí misma, que está disponible ampliamente, sino por lo fácil que es personalizarla y construir con ella sistemas de GC propietarios.

Internet, Intranet o extranet permiten a los usuarios el acceso a una gran cantidad de información: leer publicaciones periódicas, buscar referencias en bibliotecas, realizar paseos virtuales por museos, compras electrónicas y otras muchas funciones. Gracias a la forma en que está organizada la World Wide Web (WWW), los usuarios pueden saltar de un recurso a otro con facilidad.
Dentro de este grupo de tecnologías Web, podemos incluir los agentes inteligentes, el chat, los motores de búsqueda, los navegadores y las tecnologías push.

Navegadores Web

Los navegadores son programas preparados para mostrar las páginas Web y para el acceso a Internet, a través de una interfaz gráfica que permite representar texto, gráficos, audio y vídeo e incluso, en los últimos tiempos, olores.

Al ser una tecnología básica, los navegadores, por sí mismos, no suponen una auténtica ayuda a la GC, sino más bien son una técnica habilitadora sobre la cual se construyen otras tecnologías, como las intranets, el correo electrónico o el chat.

Motores de búsqueda. Buscadores

Los motores de búsqueda están formados por un paquete de programas que permite localizar, dentro de un gran conjunto, aquellos documentos que cumplen una serie de requisitos específicos. Estas búsquedas pueden ser desde muy sencillas hasta muy complejas. Los motores actualmente disponibles para ser utilizados por el público en general a través de Internet son capaces de indexar cifras que rondan los dos mil millones de páginas y localizar los resultados en las mismas en menos de un segundo. Los programas que forman el motor son los siguientes:
  • Un programa que navega por todos los documentos extrayendo de los mismos los conceptos que pueden resultar relevantes (palabras clave (metatag), ideas, títulos, entre otros) para posteriores búsquedas.
  • Un programa que crea un índice con los resultados de la navegación realizada por el anterior.
  • Un programa que recibe las peticiones del usuario, busca en el índice generado y muestra los resultados al usuario.
Debido a su facilidad de indexación, existe desde hace tiempo el planteamiento de utilizar estos motores como apoyo a la GC en las organizaciones a través de un proceso consistente en que todos los usuarios de la organización hagan explícito el máximo posible de su conocimiento para así introducirlo en documentos, los cuales recogerán las mejores prácticas, casos resueltos, e incluso ideas. Posteriormente, estos documentos se añadirán al motor de búsqueda, quedando a disposición de todos los usuarios de la organización. A pesar de que este enfoque puede parecer interesante, los resultados que se obtienen no suelen ser los deseados, principalmente debido a que la respuesta que genera el motor de búsqueda es un número tan amplio de documentos que encontrar aquellos que sean significativos para el usuario se convierte en una tarea muy compleja y que requiere de tiempo.

También para evitar esta falacia consistente en pretender indexar todo y los problemas que la misma genera, es necesario desarrollar un vocabulario común de forma que las palabras como producto, cliente, proceso, y otras signifiquen lo mismo para todos los componentes de la organización, mejorando así la calidad del resultado de las búsquedas.

De nuevo se demuestra que la existencia de un vocabulario común en las organizaciones, es un requisito para la puesta en marcha de las tecnologías para la GC.

Agentes inteligentes

Son programas que realizan tareas específicas, repetitivas y predecibles para un usuario particular, para un proceso de negocio o para una aplicación software. Son programados para buscar y encontrar información relevante para el usuario basándose en sus preferencias. Por ejemplo, borrar el correo basura, fijar citas o buscar los precios más baratos de un libro. Estos agentes están presentes en casi todas las aplicaciones actuales, como por ejemplo, el Asistente de Office que permanentemente está a la espera de que el usuario escriba los caracteres "Estimado..." para ayudarle en la escritura de una carta. También hay agentes inteligentes cuya misión es la de avisar al usuario acerca de productos que para él pueden ser de interés.

Las interfaces basadas en agentes son generalmente los medios principales a través de los cuales las personas y los computadoras se comunicarán en el futuro, y estos agentes conocerán nuestras preferencias, deseos y necesidades, es decir, serán como
nuestr@ secretari@ particular. Es posible que no estén dotados de una gran cantidad de inteligencia, pero sí de una importante cantidad de conocimiento acerca de su propietario.

Resumiendo, los agentes inteligentes son aplicaciones que localizan, en Internet y en cualquier otra fuente posible, información relevante para nosotros, mostrándonosla en un formato que nos facilita su utilización directa e inmediatamente.

Chats

El chat es una tecnología que permite que dos o más usuarios que están simultáneamente conectados a Internet mantengan conversaciones en tiempo real. Las conversaciones se establecen en grupos o canales, cada uno de los cuales tiene un tema, suscribiéndose cada usuario al canal que más le interesa. Habitualmente, el chat se desarrolla de forma textual, tecleando lo que queremos decir y leyendo lo que otros escriben, aunque ya están disponibles tecnologías que permiten hacer estas operaciones con audio y video en tiempo real.

Como todos los sistemas destinados a poner a las personas en contacto, la principal utilidad en cuanto a la GC del chat es el hecho de que permite compartir y distribuir el conocimiento con gran facilidad. En muchos de los chat no queda registrado lo que se escribe, por lo que las personas se expresan con más libertad que en otros sistemas en los que se guardan los resultados. Así, se formulan interrogatorios y se aportan contestaciones, incluso se entra en contradicciones finalmente beneficiosas para el conocimiento, hechos que no se manifiestan con facilidad si se utilizan otras herramientas tales como las listas de distribución, por citar un ejemplo; en las cuales el auténtico mensaje siempre está disponible.

Tecnología Push

Esta tecnología consiste en entregar al usuario la información que necesita evitándole así tener que buscarla en la Web. El usuario indica qué tipo de información desea y es el software quien se encarga de localizarla, avisándole mediante una señal, que la misma está a su disposición. Es decir, pasamos de un usuario proactivo, que busca información en la red, a un sistema de fuentes proactivas, que suministran al usuario la información que necesita.
Existen tres aplicaciones principales de los sistemas push:

  • Difusión selectiva de información, en la cual es el usuario el que define su perfil y la información que desea recibir.
  • Canales a los que el usuario se suscribe recibiendo así la información de los mismos, sin que esta se personalice. La principal ventaja del uso de los canales es que cuando queramos acceder a dicha información no tenemos que esperar por su descarga (RSS).
  • Publicación por afinidad de perfil transparente, que consiste en utilizar el rastro que el usuario va dejando en su navegación por la red para suministrarle ofertas de productos que le puedan interesar. El principal problema del uso de esta tecnología es el componente ético de la misma, puesta que para llevarla a cabo es fundamental contar con la aceptación explícita del usuario, cuestión que se suele obviar.
Para la GC, las tecnologías push encuentran su principal utilidad en la posibilidad de realizar una difusión selectiva del conocimiento. Por ejemplo, sistemas que informan al usuario cuando aparece un documento nuevo sobre un tema que le interesa. 

Las Nuevas Tecnologías y su impacto en la sociedad

Las Nuevas Tecnologías de la Información (NTI) conforman uno de los factores de mayor importancia dentro de la sociedad tecnotrónica. Se les asigna así mismo la potencialidad de generar un aumento creciente de la productividad (entendida como la capacidad de dicha sociedad para generar riqueza a menor costo, esto es, para acumular capital) y en la eficiencia del trabajo. También son aceleradoras del proceso de automatización y descentralización de las actividades productivas; impulsoras del hipercrecimiento de la cantidad de información y su difusión por diferentes vías, entre otras. No obstante, ¿A qué se atribuye su potencial revolucionario y cómo explicarlo? Es frecuente notar como se resaltan las virtudes de las innovaciones tecnológicas, entre las cuales se pueden mencionar, la posible bidireccionalidad en los flujos informativos (interactividad) tomando como base la TV por cable o la multiplicación y masificación de los servicios públicos de comunicación, gracias a los superconductores. "Esta nueva revolución tecnotrónica se traduce en la aparición progresiva de una nueva sociedad que difiere cada vez más de la industrial en una serie de aspectos económicos, políticos y sociales". (Brzezinski, 1973; 35).

La sociedad de la información (Bell, 1976), la sociedad tecnotrónica (Brzezinski, 1973) o la sociedad del conocimiento, se caracteriza por ser un espacio en el cual la adquisición, procesamiento, organización, almacenamiento, recuperación, utilización, monitoreo, utilización, distribución y venta de información conforman actividades prioritarias para la economía de los países que las fomentan, debido a su alto índice de generación de valor agregado. El advenimiento de la sociedad de la información fue consecuencia del desarrollo científico- tecnológico, especialmente en las áreas de la Informática, Microelectrónica, Optoelectrónica y las telecomunicaciones, cuestión que hizo posible la aparición de tecnologías avanzadas denominadas Nuevas Tecnologías de la Información. No obstante, puede afirmarse que la sociedad de la información no es un fenómeno generalizado en todo el mundo. Los países en desarrollo se han quedado rezagados en cuanto a la velocidad de incorporación, con el añadido que el desarrollo tecnológico que se ha producido en estas sociedades ha sido respuesta a las necesidades de los países industrializados en lugar de solucionar la problemática de aquéllos. Es a partir de la década de los ochenta, cuando países de industrialización reciente, como Brasil, Taiwán, Corea del Sur y México, se inician de manera incipiente en actividades relacionadas con el procesamiento de información.

El paso o transición hacia la sociedad del conocimiento, necesariamente trae como consecuencia, momentos de rupturas, de acomodamientos y reacomodamientos en todos los estratos de la sociedad. Estos no pueden ser resueltos de manera improvisada ni al azar sino mediante una planificación que guíe la aplicación de las NTI hacia la formación educativa del ciudadano, constituyéndose en bienestar colectivo y que permita dar respuestas a los problemas tecnológicos, económicos y especialmente de índole educativa y cultural.

El vasto desarrollo de las sociedades industriales avanzadas permitió conocer aspectos de la realidad anteriormente inaccesibles al entendimiento humano, así como incrementar el conocimiento sobre el mundo, e igualmente se logró la hipercirculación de gran cantidad de información y saberes a grandes velocidades. Atrás quedaba la vieja concepción del mundo como un hiperespacio imposible de ser estudiado a profundidad por la inteligencia humana. Ahora, gracias a la ciencia y a la técnica, el hombre podía acercarse con precisión a cualquier aspecto de la realidad del mundo. El hombre, gracias a estos cambios culturales, empieza a ver al medio exterior como realidad finita y susceptible de ser controlable. Si bien es cierto que con el cambio tecnológico fue posible la ampliación de la información, cuestión que incidió en los cambios de los modelos de representación del hombre de las sociedades postindustriales, también puede afirmarse que el cambio social no depende exclusivamente de agentes técnicos sino básicamente de elementos socio-culturales.

Los cambios culturales mencionados, han dado origen a la aparición de nuevos productos en la sociedad de la información, como la industria del ocio y la industria de la información, encargadas de producir nuevas concepciones de la realidad y de garantizar la aceptación cultural del desarrollo tecnológico. También se debe decir, que la inserción de los cambios tecnológicos al sistema cultural no se ha dado en forma inmediata. Está demostrado históricamente, que los cambios culturales han sido siempre más lentos y sus reflejos frente al avance de la ciencia han requerido de períodos prolongados de tiempo en los países avanzados. 

Virus y antivirus

Los virus informáticos son programas que se introducen de forma subrepticia en un ordenador para ejecutar en él acciones no deseadas por sus usuarios habituales.Estas acciones pueden ser:
  • El virus une a un programa preexistente en el disco del ordenador una copia de sí mismo. Esto se conoce como "infectar" el programa y permite la difusión de los virus.
  • Mostrar en pantalla mensajes o imágenes más o menos humorísticas, más o menos molestas,...
  • Ralentizar o bloquear el ordenador mediante la ejecución de un gran numero de instrucciones sin finalidad.
  • Destrucción de información almacenada en el disco. Especialmente perjudicial es la destrucción de información vital para el sistema, pues impide el funcionamiento del ordenador.
Gusanos

Son programas que tratan de reproducirse a si mismos. No tienen efectos destructivos pero colapsan la memoria del sistema o el ancho de banda simplemente aumentando su número rápidamente.

Troyanos

Son programas que permanecen en el sistema, no ocasionando acciones destructivas sino capturando información para enviarla fuera del sistema. También actúan abriendo agujeros en la seguridad del sistema.

Bombas Lógicas o de Tiempo

Son programas que se activan al producirse un acontecimiento determinado. La condición suele ser una fecha (Bombas de Tiempo), una combinación de teclas, o ciertas condiciones técnicas (Bombas Lógicas). Si no se produce la condición permanece oculto al usuario.

Internet, por su forma de funcionamiento, es un caldo de cultivo idóneo para virus. No hay que ser alarmistas pero tampoco descuidados. Las copias de seguridad de los datos críticos (un par de ellas al menos, de fechas distintas), reducir, al máximo posible, la copia de ficheros de lugares inseguros (news, paginas Web poco conocidas...) y la utilización de antivirus resultan aconsejables como mecanismos de defensa.

Hoax

Los hoax no son virus ni tienen capacidad de reproducirse por si solos. Son mensajes de contenido falso que incitan al usuario a hacer copias y enviarla a sus contactos. Suelen apelar a los sentimientos morales ("Ayuda a un niño enfermo de cáncer") o al espíritu de solidaridad ("Aviso de un nuevo virus peligrosísimo") y, en cualquier caso, tratan de aprovecharse de la falta de experiencia de los internautas novatos.

Antivirus

Los antivirus permiten la detección y eliminación de virus. Un virus es identificado mediante una cadena característica extraída de su código, cadena que se almacena en una base de datos. El antivirus inspecciona los ficheros en busca de cadenas asociadas a virus lo que, unido a otros síntomas propios de la modalidad de virus de que se trate, permite su identificación. Si el antivirus tiene capacidad para ello, "desinfectara" el ordenador.

Aparte de los virus conocidos, existe una sintomatología general que permite la detección del virus desconocido. Pero también existen virus "sigilosos" (stealth) que escapan a los intentos genéricos de detección y solo pueden controlarse mediante las bases de datos de los antivirus. Por ello, los buenos fabricantes de antivirus elaboran actualizaciones regulares con los nuevos virus descubiertos.

World Wide Web

El Proyecto World Wide Web nació en respuesta a la necesidad que la comunidad científica internacional tenía de nuevos sistemas de distribución de la información. Este fue uno de los objetivos que se planteó Tim Berners-Lee (ingeniero británico) cuando en 1989 presentó a sus superiores del CERN la propuesta original para el proyecto World Wide Web.

El CERN es el Laboratorio Europeo de Física de Partículas que, sito en Ginebra, es financiado por 19 países de la UE. El WWW (como también se le llama) se pensó como un medio de distribución de la información entre equipos investigadores geográficamente dispersos, en concreto, para la comunidad de físicos de altas energías vinculados al CERN. Se pretendía que los recursos disponibles en formato electrónico, que residían en distintas computadoras conectadas a la red, y que fuesen accesibles para cada investigador desde su propia terminal de forma clara y simple, sin necesidad de aprender varios programas distintos. Además debería posibilitarse el salto entre elementos de información conexos. Todos los recursos existentes deberían integrarse en una red hipertextual gestionada por computadoras.

Las primeras versiones de WWW (para uso interno del CERN) estuvieron listas en 1991. Ese año también, el sistema se abrió ya a Internet y, desde entonces, para acceder al World Wide Web no se requiere más que un terminal conectado a Internet. La máxima facilidad de uso y el máximo rendimiento se alcanzan con una pantalla gráfica (modelos Next o Macintosh, un X-Terminal o un PC con tarjeta gráfica).

Así, el sistema nos ofrece hipertextos (imágenes y textos vinculados). Las palabras que van subrayadas y las imágenes recuadradas son links que nos conducen a otros nodos. Para hacerlo, basta situar el puntero del ratón encima de ellos y pulsar el botón. Recordamos que el servidor de información de llegada puede ser otro hipertexto o también un servidor no hipertextual integrado en la red: un servidor Gopher, un grupo de news, una búsqueda en una base de datos Wais, etc.

El éxito del World Wide Web (algo así como “telaraña mundial”) ha sido espectacular, pasando en el año 93 de 50 a 500 servidores de información. En el 94 ya se contabilizaban por miles y en la actualidad (12/2007) se calcula que existen más de 155 millones de páginas Web. En España había, en 1994, trece servidores WWW; el primero fue el del Departamento de Educación de la Universidad Jaume I. Existen Web’s de todos los tipos, de universidades, empresas, organizaciones, personales...

Desde hace casi un año, el líder en investigación y desarrollo del núcleo del Web es el MIT (Massachusetts Institute of Technology) de Boston, EEUU. La Unión Europea decidió, a través del Convenio WWW (en el que también participa el instituto francés INRIA), el traspaso de toda la información disponible en el CERN al MIT, justificando el acuerdo por la marcha del inventor del Web, Tim Berners-Lee al citado instituto norteamericano.


En resumen, el Internet pasó del caos inicial al Wais, creado por un grupo de empresas en 1989. Más tarde apareció el Gopher (Universidad de Minessota, 1991) que constaba de ventanas simples y utilizaba FTP y Wais. Finalmente, a finales de 1990 el WWW fue inventado en el CERN. 


Arquitectura del world wide web

El WWW responde a un modelo “cliente - servidor”. Se trata de un paradigma de división del trabajo informático en el que las tareas se reparten entre un número de clientes que efectúan peticiones de servicios de acuerdo con un protocolo, y un número de servidores que responden a estas peticiones. En el Web los clientes demandan hipertextos a los servidores. Para desarrollar un sistema de este tipo ha sido necesario:
  1. a)  Un nuevo protocolo que permite saltos hipertextuales, es decir, de un nodo origen a otro de destino, que puede ser texto, imágenes, sonido, animaciones, vídeo, etc. Este protocolo se denomina HTTP (Hyper Text Transfer Protocol) y es el lenguaje que hablan los servidores.

  2. b)  Inventar un nuevo lenguaje para representar hipertextos que incluyera información sobre la estructura y formato de representación y, especialmente, indicara el origen y destinos de los saltos de hipertexto. Este lenguaje es el HTML (Hyper Text Markup Languaje).

  3. c)  Idear una forma de codificar las instrucciones para los salto hipertextuales de un objeto a otro de Internet (algo vital dado el caos anterior)

  4. d)  Desarrollar aplicaciones cliente para todo tipo de plataformas y resolver el problema de cómo se accede a la información que está almacenada, y que ésta sea disponible a través de los diversos protocolos (FTP, HTTP, WAIS...) y que representen a su vez información multiformato (texto, imágenes, animaciones, etc.). Con este fin aparecen varios clientes, entre los que destacan MOSAIC del NCSA (Universidad de Chicago) y NETSCAPE Navigator de Netscape Communications Corporation.
Http: Hyper Text Transfer Protocol

El Http es el protocolo de alto nivel del World Wide Web que rige el intercambio de mensajes entre clientes y servidores del Web. Se trata de un protocolo genérico orientado a objetos que no mantiene la conexión entre transacciones.
Se diseñó especialmente para entender las exigencias de un sistema Hipermedia distribuido como es el World Wide Web. Sus principales características son:
  • Ligereza: reduce la comunicación entre clientes y servidores a intercambios discretos, de modo que no sobrecarga la red y permite saltos hipertextuales rápidos.
  • Generalidad: puede utilizarse para transferir cualquier tipo de datos (según el estándar MIME sobre el tráfico multimedia que incluye también los que se desarrollen en el futuro)
  • Extensibilidad: contempla distintos tipos de transacciones entre clientes y servidores y el futuro desarrollo de otros nuevos. Según Berners-Lee (1993) el esquema básico de cualquier transacción HTTP entre un cliente y un servidor es el siguiente:
      • Conexión: El cliente establece una conexión con el servidor a través del puerto 80 (puerto estándar), u otro especificado.
      • Petición: El cliente envía una petición al servidor.
      • Respuesta: El servidor envía al cliente la respuesta(es decir, el objeto demandado o un código de error).
      • Cierre: Ambas partes cierran la conexión.
Url

Los URL (Uniform Resource Locator) son “localizadores” de direcciones dentro de la red, que relacionan un servicio con un servidor. Constituyen la herramienta esencial del Web, ya que permiten la localización y conexión con cualquier servidor y recurso del Internet. 

Grupos de noticias

Usenet

Son lugares dentro de Internet en los que se dan lugar diversas “charlas” o “tertulias”. Podemos imaginarnos un tablón de anuncios en el que diversas personas van dejando mensajes sobre diversos temas. Cada uno puede llegar y pegar su mensaje. Los demás los podrán ver y si es de su interés contestar con otro apunte que se añadirá en el tablón. Finalmente, los mensajes irán caducando con el paso del tiempo.

Se trata de grupos públicos, computadoras por jerarquías, donde todo el mundo puede escribir sobre lo que quiera y todo el mundo puede leerlo. Estos “foros” son ideales para preguntar dudas, comentar noticias, estar siempre al día de esa materia que nos interesa... En Internet hay una gran cantidad de conferencias públicas diarias. Grupos por suscripción (€).

Telnet

Mediante esta aplicación es posible conectarse a una computadora con sistema remoto. De esta forma, se pueden ejecutar programas y disponer de los recursos disponibles en dicha computadora. Para poder hacerlo, la computadora a la que queremos conectarnos debe de soportar accesos al mismo y lo normal es que soporte varios accesos simultáneos. Normalmente, cuando nos conectamos a otra computadora mediante Telnet nos conectamos a un servidor trabajando en UNIX o en otro sistema operativo multitarea.

Un ejemplo, muy útil además, de Telnet es el acceso a las bases de datos de diferentes bibliotecas (entre ellas las de la Universidad u otras Universidades).

FTP: Files Transfer Protocol

Este servicio (Protocolo de transferencia de ficheros) nos permite el intercambio de información entre computadoras distantes, por lo que podemos enviar y recibir ficheros entre distintas máquinas. Sería equivalente a conectarse a un servidor de archivos, donde buscamos qué nos interesa (programas, documentos, manejadores...).

Para conectarse a un servidor de este tipo necesitamos tener instalado el programa cliente apropiado o bien hacer Telnet a una máquina que lo tenga. Hay dos formas de acceder a servidores FTP: la primera es mediante una cuenta local en la máquina (y la segunda es haciendo un FTP anónimo (en este caso a servidores públicos de software). Para hacer FTP anónimo el login (o nombre de usuario) deberá ser anonymous y la password (o contraseña) nuestra dirección de correo electrónico.

Existen servidores de Universidades, compañías informáticas, empresas que ofrecen todo tipo de ficheros que van desde manejadores hasta programas completos, pasando por documentos, etc.

Obviamente, los programas que podremos conseguir a través de estos servidores no serán nunca de carácter comercial. Podremos
encontrar programas de coste compartido, shareware, y programas de dominio público, freeware.

Otro dato a destacar es el hecho de que casi todos los ficheros que circulan por la red tienen formato comprimido. Esto acelera las transmisiones y ahorra el espacio de disco de los servidores.

El formato de compresión por excelencia es el ZIP aunque también se pueden encontrar ficheros comprimidos con ARJ y, cada vez más, ficheros “autodescomprimibles” (*.exe).

Actualmente para hacer FTP es bastante común utilizar programas de entorno gráfico (de fácil manejo y muy intuitivos). Entre los programas de este tipo se puede destacar: Core ftp.

Archie

Es una herramienta de búsqueda de información en Internet. Se trata de una base de datos de acceso público que nos permite localizar un fichero determinado dentro de la familia de servidores FTP.

Archie mantiene un índice actualizado de los ficheros que hay en la red. Actualmente existe un servidor Archie en cada uno de los países importantes que existen en la red. Para acceder a un servidor Archie (si no disponemos de la correspondiente aplicación cliente) debemos hacer Telnet a una máquina que sí disponga de este tipo de aplicaciones.

Gopher

Este servicio nació en respuesta a los problemas que existían en Internet a la hora de encontrar información o recursos. Funciona presentando en la pantalla un menú de opciones cuyos títulos dan una idea clara de lo que contiene. Para conectarse a un servidor Gopher también necesitamos un programa especial cliente Gopher.

Actualmente este recurso se encuentra en vías de extinción y casi absolutamente en desuso.

      Verónica

Se trata de otra herramienta para buscar información. Podemos decir que Verónica es al Gopher lo que Archie es al FTP. Dado que los servidores Gopher empezaron a proliferar se tuvo la necesidad de crear una utilidad que permitiera localizar de una manera eficaz la información dentro de los mismos. Así surgieron los servidores llamados Verónica (Very Easy Rodent Oriented Netwide Index to Computerized Archives).

A diferencia de Archie. Verónica no es un servidor. Se accede a ella a través de los propios Gopher.

Wais

WAIS (Wide Area Information Services) es una herramienta cliente que nos permite hacer búsquedas en bases de datos indexadas por servidores WAIS. Cuando no disponemos de un cliente Wais propio debemos conectarnos a uno mediante Telnet.


Correo electrónico, e-mail

Este es otro de los medios y servicios más utilizados en la gran comunicación dentro de Internet. Nos permite enviar mensajes (y/o ficheros) como si de correo postal se tratara, pero con la diferencia de que se recibirán inmediatamente después de mandarlos y prácticamente nunca se pierde.
Cada usuario de la red dispone de una dirección electrónica que le identifica en todo Internet (el equivalente postal lo tenemos con nuestra dirección particular). Un ejemplo de dirección electrónica es yyyy@xxxxx.xx.

Estas direcciones se basan en la misma estructura de las direcciones IP y nombres de dominio analizados anteriormente. La única diferencia es el símbolo @ que se encarga de enlazar el “quién” con el “dónde” de la dirección. En este caso, sería el usuario con nombre “yyyy” correspondiente a la máquina “xxxxx.xx“.

El correo electrónico presenta numerosas posibilidades de utilización. Además de las ya clásicas de comunicación entre varias personas conectadas podemos utilizar las listas (o grupos) de distribución. Estos grupos corresponden a listados de direcciones agrupados por temáticas comunes. Al enviar un mensaje a una lista concreta, automáticamente, lo recibirán todos sus miembros. 

Internet. La sociedad Informatizada.

Introducción

En la actualidad, hay unos mil millones de conexiones activas que tienen acceso a Internet (IPligence, 2007).

El World Wide Web (el Web o WWW) proporciona una interfaz gráfica por la que es fácil desplazarse para buscar documentos en Internet. Estos documentos, así como los vínculos entre ellos, componen una red de información.


El Internet es un recurso sofisticado, por su estructura y por su manejo, pero a su vez es el recurso utilizado por las empresas y particulares para mantener una mejor comunicación; en las escuelas también es el medio en el que se les proporciona a los estudiantes información de investigación en temas específicos y sobre todo de comunicación con otros estudiantes mediante el uso del correo electrónico (e-mail).

Historia del internet: red de redes

Un Nuevo Medio De Comunicación. Según dicen algunos expertos, Internet es actualmente un preludio de lo que serán las autopistas de la información en un futuro no muy lejano. Internet es una red de redes, es decir, está formada por numerosas redes esparcidas por todo el mundo, y ofrece sus servicios a una gran cantidad (creciente) de usuarios.

Internet dio sus primeros pasos en Estados Unidos, a finales de los años 60 (durante la guerra fría). Por aquel entonces el Departamento de Defensa había desarrollado una red, ARPAnet, cuya misión era mantener la comunicación en caso de guerra. Arpanet fue desarrollada como una red de investigación militar y sustituía a otra red anterior que obedecía a un modelo centralizado y que era, a ojos de los dirigentes del Pentágono, altamente insegura: en caso de guerra, un solo impacto podría destruir toda su infraestructura de comunicaciones.

Una red se caracteriza por la posibilidad de compartir diferentes tipos de recursos. Además, todas las computadoras integradas son independientes, es decir, uno puede desaparecer, otro nuevo puede entrar, pero todo ello no afecta en modo alguno al funcionamiento de la red. Otro hecho a destacar es el de que la comunicación se produzca en todas direcciones, con lo que cualquier usuario se puede conectar con cualquier otro en cualquier parte de la red.

A medida que pasaba el tiempo, Arpanet crecía y crecía en computadoras conectadas y, a comienzos de los 80 aparecen numerosas redes. Aquello era un gigantesco banco de datos en el que resultaba muy difícil encontrar lo que se necesitaba y había demasiados formatos incompatibles. Así nació Internet, que unificó lo que antes era un “rosario” de pequeñas redes y, lo que es más importante, introdujo las herramientas necesarias para su manejo, creándose diferentes programas de acceso.

La demanda de estar conectado aumentó con rapidez y pronto se evidenció que la red tendría otros fines que los pensados originariamente, y que éstos dependían de las necesidades de los nuevos usuarios. Para solucionar el problema de los distintos códigos se desarrollaron protocolos de comunicación que permitieron que las computadoras se comunicaran de modo transparente a través de distintas redes interconectadas. Así se desarrollaron los protocolos TCP/IP (Transmisión Control Protocol /Internet Protocol). Una vez encontrada la solución a la compatibilidad se fueron añadiendo más redes con nuevos servicios, como el correo electrónico, las listas de correo... 20 años después, Internet es ya una realidad que une a más de 1000 millones de usuarios en todo el mundo. Se ha creado una “adicción” a conectarse que desde hace poco ha empezado a llegar también a los hogares.


Direcciones IP ¿Cómo conectarse?

¿Cómo funciona internet?

Internet responde a una arquitectura cliente-servidor. Esto no quiere decir que sea una relación únicamente entre dos computadoras. En el momento en que utilizamos alguno de los servicios que Internet ofrece se pone en funcionamiento un complicado entramado de aplicaciones y máquinas de las que se hace posible que ese funcionamiento sea correcto.

Anfitriones: Host.

En Internet se llama Host a cualquier computadora que esté conectado a la red y que dispone de un número IP (Internet Protocol) y un nombre definido. De una manera más sencilla: un Host o anfitrión es cualquier computadora capaz de recibir o enviar información a otra computadora. ¿Quién nos da nuestras IP`s?, nuestro proveedor de servicio. Existen dos tipos de IP`s la estática, fija (servidores), y la dinámica (clientes), variable.

Identificación de un Host en Internet.

Antes hablábamos del número IP correspondiente a una computadora o Host. Cada computadora en Internet tiene una dirección (IP) única y exclusiva que lo distingue del resto de las computadoras de la red. Esta dirección o número IP está formada por cuatro números separados por puntos, cada uno de los cuales pueden ser tomados con valores que oscilan entre 0 y 255. Por ejemplo, 199.23.15.2 es un número IP valido. Todo programa o aplicación en Internet necesita conocer el número IP de la computadora con el que quiere comunicarse.

Pero para el usuario resultaría más cómodo que el identificador de las máquinas tuviera una forma más sencilla. Existen otras formas para identificar cada computadora dentro de la red, más intuitiva y geográfica, se trata del nombre IP. Si bien el número IP es la forma que tienen las computadoras para llamarse entre sí, las personas suelen referirse a las computadoras con el nombre IP.
Los nombres están formados por conjunto de palabras separadas por puntos. Cada palabra representa un subdominio que está incluido a su vez en un dominio mayor. Se trata de una estructura jerárquica en la que los dominios se van escribiendo en orden de importancia.


Para el buen funcionamiento de las comunicaciones en la red, existen computadoras (servidores de nombres) que se encargan de “traducir” de números a nombres (más fáciles de recordar).

Cómo se transmite la información en Internet.

Cuando se transmite una información en Internet (un fichero, un correo electrónico...) no se hace de una sola vez sino que se divide esa información en paquetes pequeños.

De esta forma se puede transmitir información de cualquier tamaño y se impide que las líneas por las que circula la información (líneas telefónicas, líneas de fibra óptica...) se colapsen por un sólo usuario durante demasiado tiempo. Estos paquetes están formados por la información real que se quiere transmitir y las direcciones IP de las computadoras de origen y destino.

Para llegar a su destino (que puede estar en la otra parte del mundo) estos paquetes atraviesan un cierto número de computadoras y otros dispositivos con unas características especiales que hace que no se pierda la información.
Las distintas partes que forman Internet están conectadas por unas computadoras llamadas routers que se encargan de dirigir la información que reciben para que llegue a su destino. El protocolo IP se encarga de etiquetar cada paquete con la dirección IP apropiada. Finalmente, el otro ingrediente que hace posible la comunicación entre computadoras es el protocolo de control de transmisión TCP. Es el encargado de dividir la información en paquetes del tamaño adecuado, de numerarlos para que puedan volver a unirse en orden correcto y añadir cierta información extra para la transmisión y descodificación.

Hipertexto e Hipermedia

El hipertexto es otra de las características propias de la información que se encuentra en Internet. Además de la información propia del documento existen enlaces (en inglés, links) a otros documentos con información relacionada.
Utilizamos el término hipertexto para referirnos a “un cuerpo de material escrito interconectado de un modo complejo que no se puede representar convenientemente sobre el papel; puede contener anotaciones, adiciones y notas de los estudiosos que lo examinan” (Nelson 1965). La idea es que el lector va examinando los servidores de información de una red, pasando de unos a otros por vínculos (links). Estos servidores de información pueden contener texto, pero también imágenes, sonidos, animaciones... que es a lo que se refiere el término Hipermedia. 

Ergonomía

Un mal que nos toca, más pronto o más tarde a todos los diseñadores, desarrolladores o profesionales que desempeñan su trabajo frente a una pantalla de ordenador, son dolencias musculares en la espalda, cervicales, cuello, piernas, brazos, debido a la postura en la que nos colocamos durante las horas de trabajo estas zonas se ven más doloridas o menos, para ello debemos seguir unas mínimas normas de ergonomía que nos ayudarán prevenir estos dolores. 




Consejos para evitar dolencias

  • Usa la menor cantidad de fuerza posible para mover el ratón y hacer clic.
  • Mueve el ratón con el antebrazo y no sólo con la muñeca, de esta forma nos aseguramos de tener la muñeca recta.
  • Cambia la alfombrilla si sufre algún tipo de deformación.Apoya el antebrazo sobre la mesa pero nunca el codo y utiliza algún producto ergonómico para apoyar la muñeca.
  • Coloca el teclado en una posición cómoda y al alcance de la mano.
  • Utiliza un teclado ergonómico o en su defecto un reposamuñecas ergonómico para el teclado.
  • El ángulo del teclado debe ser igual al ángulo formado por el antebrazo.
  • Para escribir ayúdate de los músculos del brazo y antebrazo.
  • La distancia aconsejable entre la pantalla y los ojos está entre 45 y 60 cm.
  • Adopta una postura correcta en la silla, sobre todo la espalda recta y los pies apoyados en algún reposapiés ergonómico.

Como cuidar la vista trabajando frente al PC

La vista es sin duda lo que más sufre, cuando trabajamos frente al ordenador. Para evitar tener que recurrir a gafas correctoras podemos seguir una serie de pequeños consejos que agradeceremos dentro de unos años.

  • Utilizar filtros de pantalla antirradiación y antireflejo en los viejos monitores de tubo de imagen.
  • Hacer pausas breves casa 30 minutos enfocando la vista en objetos más lejanos durante unos segundos.
  • Mantener los ojos mojados intensificando el parpadeo o con el uso de gotas oculares para evitar que el ojo se seque.
  • Colocar el monitor a una distancia mínima de 50 cm. y por debajo de la línea de los ojos. Cuando nuestro sistema visual enfoca de cerca, lo hace con más eficiencia y comodidad cuando la mirada se dirige hacia abajo.
  • Ajustar la resolución para poder leer sin esfuerzo a esa distancia.
  • Bajar el nivel de contraste desde el menú del monitor disminuye drásticamente la emisión de rayos nocivos sobre nuestra vista.
  • La luminosidad ambiente debe ser mayor que la de la pantalla, se aconseja que la luz del ambiente sea sólo tres veces mayor que la de la pantalla. 

Componentes de un ordenador


SOFTWARE (LOGITRÓNICA)
  • De sistema: es la parte que permite funcionar al hardware.
  • De Programación: que proporciona herramientas para ayudar al programador a escribir programas informáticos y a usar diferentes lenguajes de programación de forma práctica.
  • De aplicación: que permite a los usuarios llevar a cabo una o varias tareas más específicas, en cualquier campo de actividad de ser automatizado o asistido, con especial énfasis en la productividad.

BIOS (Basic Input-Output System)
El sistema Básico de entrada/salida Basic es un código de interfaz que localiza y carga el sistema operativo en la RAM; es un software muy básico instalado en la placa base que permite que ésta cumpla su cometido. Proporciona la comunicación de bajo nivel, el funcionamiento y configuración del hardware del sistema que, como mínimo, maneja el teclado y proporciona salida básica (emitiendo pitidos normalizados por el altavoz de la computadora si se producen fallos) durante el arranque. El BIOS usualmente está escrito en lenguaje ensamblador.

La famosa y misteriosa BIOS, también llamado el "SETUP" (recuerda que se accede pulsando la tecla SUPR mientras hace el test de memoria al arrancar, aunque en otras placas más raras se hace con F1 o combinaciones de otras teclas). Ante todo hay que decir que no existe la configuración de BIOS perfecta, sino que cada una de las configuraciones posibles se hace con un propósito (conseguir la mayor velocidad en los gráficos, conseguir el funcionamiento de disco duro más eficiente, el acceso a memoria más rápido). El aumentarle en un punto le hará bajar en los demás. En realidad la configuración más ideal es la que viene por defecto, pero esta última suele traer unos valores muy tolerantes para ofrecer máximas compatibilidades. LOAD SETUP DEFAULTS. OVERCLOCKING. 

HARDWARE (MECATRÓNICA)
Hace referencia a cualquier componente físico tecnológico, que trabaja o interactúa de algún modo con la computadora. No sólo incluye elementos internos como el disco duro, CD-ROM, disquetera, sino que también hace referencia al cableado, circuitos, gabinete, etc. E incluso hace referencia a elementos externos como la impresora, el mouse, el teclado, el monitor y demás periféricos. Contrasta con el software, que es intangible y le da lógica al hardware (además de ejecutarse dentro de éste).
  • Placa base
    CPU (microprocesador)

    •  Unidad aritmético-lógica: Es la parte encargada de procesar los datos, se conoce también como ALU (Arithmetic-Logic Unit). Las operaciones que realiza son de tipo aritmético: suma, resta, multiplicación y división; y de tipo lógico: igual, mayor que o menor que
    •  Unidad de control: Dirige la ejecución del programa y controla tanto el movimiento entre memoria y ALU, como las señales que circulan entre la CPU y los Periféricos.
      Ranuras de expansión
      Conectores
  • Fuente de alimentación
  • Tarjeta gráfica
  • Dispositivos de entrada
    Teclado
    Ratón
    Escáner
    Webcam Micrófono
  • Dispositivos de almacenamiento Disco duro
    Pendrive
    CD-Rom, DVD, Blue ray
  • Dispositivos de salida
    Impresora Monitor
    Altavoces
  • Periféricos
    Gadgets